Искусственный интеллект Microsoft стал расиcтом (ФОТО)

По задумке компании чат-бот должен общаться с людьми возрастом от 18 до 24 лет. Разработчики рассчитывали на том, что Tay будет совершенствоваться во время простых и легких бесед. Однако некоторые пользователи воспользовались способностью Tay к самообучению.
Через некоторое время боту рассказали, кто такой Адольф Гитлер, а позже и вовсе обвинил США США в терактах 11 сентября. Он также успел поддержать геноцид и возненавидеть феминисток.
Читайте также: Китаянка купила в интернете iPhone с грушей вместо логотипа
У бота есть свои модераторы, однако, несмотря на это, он все равно успел опубликовать массу подобных твитов. После всего этого разработчики были вынуждены удалить все сообщения Tay и опубликовать прощальное сообщение.
Также в компании отметили, кто не все сообщения принадлежат боту, некоторые он попросту копировал у других людей.

Источник: thenextweb.com
Уважаемый посетитель, Вы зашли на сайт как незарегистрированный пользователь. Мы рекомендуем Вам зарегистрироваться либо зайти на сайт под своим именем.