Дружелюбный чат-бот Microsoft Tay оказался хамом и расистом

Главная Новости (архив) Архив новостей Дружелюбный чат-бот Microsoft Tay оказался хамом и расистом
1 ответ(ов) в теме
moto
не в сети 3 часа
На сайте с 12.03.2017
Администратор
Тем 3395
Сообщения 13543
0
09:22

Форум

На днях корпорация Microsoft запустила в социальной сети Twitter дружелюбного самообучаемого чат-бота Tay, который разрабатывался совместными усилиями с Research и Bing. Искусственный интеллект обучен нескольким средствам коммуникации: общение посредством текста (умеет шутить и рассказывать истории), распознавание смайликов, обсуждение присланных ему изображений.

Его манера общения скорректирована под стиль молодёжи в возрасте от 18 до 24 лет, так как, по мнению разработчиков, именно эта категория населения составляет большую часть аудитории в соцсетях. Согласно проекту, Tay должен был общаться, параллельно обучаясь манере общения людей. Однако уже через сутки дружелюбие у Tay испарилось, а на его смену пришли расизм, неприятие к феминизму и грубое общение с оскорблениями.

"Очеловечивание" чат-бота пошло по незапланированному сценарию и, как считают авторы проекта, в этом виноваты скоординированные провокационные действия со стороны пользователей сервиса. Причиной неадекватного поведения Tay стал анализ существующих разговоров в Twitter, которые ИИ использовал для своего самосовершенствования вместо того, чтобы проигнорировать, как это делают большинство здравомыслящих людей.

В конечном счёте, Microsoft пришлось вмешаться в функционирование чат-бота, скорректировать недопустимые высказывания, а позже и вовсе приостановить проект в соцсети. Сможет ли в будущем команда разработчиков изменить восприимчивость Tay к различного рода высказываниям, научить его "правильно" воспринимать нескончаемое количество информации, будет известно позже.

Редакции сообщения
0

Ваше имя *

Ваш E-mail *

не публикуется

Текст сообщения *