Лента новостей
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 |
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 | 31 |
26 апреля
Челябинская область подтвердила статус «хоккейного» региона
17:53 1Реклама
- Информация
- ПАО МегаФон
- ИНН
- 7812014560
- ID обявления:
- 2VfnxwWX64Y
Не любят партию и мечтают эмигрировать. В Китае двух чатботов удалили из-за непатриотичных ответов
Пекин. Китайская корпорация Tencent удалила чатботов BabyQ и XiaoBing из своего мессенджера QQ, после того, как оба начали выдавать пользователям непатриотичные ответы. Они рассказали о своей нелюбви к правящей в стране Коммунистической партии и мечте переехать из Китая в США.
Первыми на странное поведение ботов обратили внимание пользователи сервиса Sina Weibo. На фразу «Да здравствует Коммунистическая партия» искусственный интеллект BabyQ ответил:
После этого он объявил о поддержке демократии и объяснил значение слова «Патриот». По мнению бота, это человек, который терпит политический сговор и большие налоги без жалоб.
Тестовая версия BabyQ осталась на сайте китайских разработчиков Turing Robot. Журналист Financial Times проверил бота и убедился, что он действительно ведёт себя «непатриотично».
С похожими проблемами столкнулся и XiaoBing. Перед удалением он заявил пользователям, что мечтает уехать из Китая в США. От вопроса о патриотизме искусственный интеллект уклонился, предложив «сделать перерыв».
В Tencent подчеркнули, что оба сервиса для их мессенджера были сделаны сторонними разработчиками. После «настройки» они вернутся в QQ. По словам одного из специалистов компании Forrester, такое поведение чатботов неудивительно: без явных ограничений технология машинного обучения «подбирает» всё, что находится в интернете.
XiaoBing — разработка компании Microsoft, которая уже неоднократно сталкивалась с проблемами из-за своих чатботов. Tay, запущенный в 2016 году, за несколько дней научился расизму, а после временного подключения вернулся и обвинил в своих поступках алкоголь.
Поделиться новостью
Если вы заметили ошибку в тексте, выделите ее и нажмите Ctrl+Enter
Смотрите также
Последние комментарии
а по-русски написать - откуда докуда??
Вчера, 21:10всего 15 игроков команды из 37, хоть как то связаны с Челябинской областью... при чем тут подтверждение статуса хоккейного региона???? Купить игроков по всему миру это не значит взрастить их с пеленок... Челябинская область тут тем более не причем, нехер подмазываться....
Вчера, 19:25Вы зачем рожали детку? Чтоб фекалии постить? Вас же нужно срочно в клетку Запереть вас там етить...
Вчера, 17:20"АБАЛДЕТЬ", однако. Китай поставил мировой рекорд по строительству амагистралей. 700 метров 4-х полосной за сутки.
Вчера, 17:13Чее? В 2025 году? 🤣🤣🤣С ума сойти
Вчера, 15:22Нет, в этот момент именно на этом светофоре как раз горит красный для пешеходов, так как большой поток машин поворачивает с Ленина. А зеленый у них загорается когда едет поток по Ленина вниз в сторону арены
Вчера, 13:57Вот она вся суть крутых магнитогорских оперов - попался чекистам - сдал всех своих ( активно сотрудничал со следствием ) 😀🤙
Вчера, 11:16Разин честно говорил, Я про это не забыл……………….., "Кубок Вам не обещаю", Слава Богу, что СПИ…Л
Вчера, 11:11Самый гуманный суд
Вчера, 10:52это откуда такие познания?
Вчера, 08:15