Лента новостей
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 |
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 | 31 |
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
2 мая
Куличи или одно название?
19:31Реклама
- Информация
- ИП Серегина Инна Александровна
- ИНН
- 025606205791
- ID обявления:
- 2VfnxxWmoAp
Пасхальные угощения от «СИТНО» – уже в магазинах города
13:15Реклама
- Информация
- ООО «УРАЛ-СИТНО»
- ИНН
- 7414006803
- ID обявления:
- 2Vfnxw5gTcL
Не любят партию и мечтают эмигрировать. В Китае двух чатботов удалили из-за непатриотичных ответов
Пекин. Китайская корпорация Tencent удалила чатботов BabyQ и XiaoBing из своего мессенджера QQ, после того, как оба начали выдавать пользователям непатриотичные ответы. Они рассказали о своей нелюбви к правящей в стране Коммунистической партии и мечте переехать из Китая в США.
Первыми на странное поведение ботов обратили внимание пользователи сервиса Sina Weibo. На фразу «Да здравствует Коммунистическая партия» искусственный интеллект BabyQ ответил:
После этого он объявил о поддержке демократии и объяснил значение слова «Патриот». По мнению бота, это человек, который терпит политический сговор и большие налоги без жалоб.
Тестовая версия BabyQ осталась на сайте китайских разработчиков Turing Robot. Журналист Financial Times проверил бота и убедился, что он действительно ведёт себя «непатриотично».
С похожими проблемами столкнулся и XiaoBing. Перед удалением он заявил пользователям, что мечтает уехать из Китая в США. От вопроса о патриотизме искусственный интеллект уклонился, предложив «сделать перерыв».
В Tencent подчеркнули, что оба сервиса для их мессенджера были сделаны сторонними разработчиками. После «настройки» они вернутся в QQ. По словам одного из специалистов компании Forrester, такое поведение чатботов неудивительно: без явных ограничений технология машинного обучения «подбирает» всё, что находится в интернете.
XiaoBing — разработка компании Microsoft, которая уже неоднократно сталкивалась с проблемами из-за своих чатботов. Tay, запущенный в 2016 году, за несколько дней научился расизму, а после временного подключения вернулся и обвинил в своих поступках алкоголь.
Поделиться новостью
Если вы заметили ошибку в тексте, выделите ее и нажмите Ctrl+Enter
Смотрите также
Последние комментарии
Нормально!21 век на дворе.
Вчера, 23:29Выбирай — вилкой в глаз, или шаурму раз?
Вчера, 21:39А чё Аллах Акбар ! или ппупупуупупуп
Вчера, 17:35На днях прилетела из Австралии, возможно длительный перелет послужил причиной скоропостижной смерти.
Вчера, 17:27Жертвы ЕГЭ играют в рулетку или в напёрстки !
Вчера, 16:00Очередной чувак на СВО ! С такими уже попета на носу 1418 дней!
Вчера, 14:48Он даёт ! Себе в карман ! Железный ледоруб !
Вчера, 14:18В 45 школе в 87-90гг. она у нас была учителем русского языка и литературы и классной по совместительству...Очень жаль, очень приятный человек была, помнила своих учеников и после школы...
Вчера, 14:03Красному Кактусу: деревья планируются светодиодные, поэтому сколько бы их не было, в городе чище не станет ((( Бердников, даёшь настоящие деревья!!!!
Вчера, 12:56Красный Кактус Сегодня, 10:12 Деревья 20 штук , три магнитофона , три куртки кожаннные , смешно !!!!200 или 2000 надо !!! Ведь пыль и грязь вся от ММК !!! ………………………………………………………………………………………Ответ: Пыль и грязь от ММК, Вонь от КАКТУСА всегда, Город наш не станет чище, КАКТУС срет в него пока…………………… КАКТУС жопу подними, У подъезда убери, Если вычистишь неважно Промплощадку посмотри.
Вчера, 12:27