Тема: Дружелюбный чат-бот Microsoft Tay оказался хамом и расистом  (Прочитано 410 раз)

0 Пользователей и 1 Гость просматривают эту тему.

Оффлайн moto

  • Выше солнца
  • *****
  • Сообщений: 16977
  • Поблагодарили: 140 раз(а)
  • Уважение: +126/-0
    • Просмотр профиля


На днях корпорация Microsoft запустила в социальной сети Twitter дружелюбного самообучаемого чат-бота Tay, который разрабатывался совместными усилиями с Research и Bing. Искусственный интеллект обучен нескольким средствам коммуникации: общение посредством текста (умеет шутить и рассказывать истории), распознавание смайликов, обсуждение присланных ему изображений.

Его манера общения скорректирована под стиль молодёжи в возрасте от 18 до 24 лет, так как, по мнению разработчиков, именно эта категория населения составляет большую часть аудитории в соцсетях. Согласно проекту, Tay должен был общаться, параллельно обучаясь манере общения людей. Однако уже через сутки дружелюбие у Tay испарилось, а на его смену пришли расизм, неприятие к феминизму и грубое общение с оскорблениями.

"Очеловечивание" чат-бота пошло по незапланированному сценарию и, как считают авторы проекта, в этом виноваты скоординированные провокационные действия со стороны пользователей сервиса. Причиной неадекватного поведения Tay стал анализ существующих разговоров в Twitter, которые ИИ использовал для своего самосовершенствования вместо того, чтобы проигнорировать, как это делают большинство здравомыслящих людей.

В конечном счёте, Microsoft пришлось вмешаться в функционирование чат-бота, скорректировать недопустимые высказывания, а позже и вовсе приостановить проект в соцсети. Сможет ли в будущем команда разработчиков изменить восприимчивость Tay к различного рода высказываниям, научить его "правильно" воспринимать нескончаемое количество информации, будет известно позже.
https://irongamers.ru - сообщество любителей компьютерных игр
 


 


Поиск

 
SimplePortal 2.3.6 © 2008-2014, SimplePortal