Исследователи научили компьютер разговаривать как подросток
Исследовательское подразделение компании Mirosoft (MSR) совместно с разработчиками Bing разработали чат-бота, адаптирующегося к молодежному стилю общения в интернете. Об этом компания Microsoft сообщила на своем официальном ресурсе.
По словам разработчиков, Tay (Тэй) — искусственный интеллект, ориентирующийся на манеру общения молодых американцев. Аудитория, на уровне которой пытается разговаривать чат-бот, состоит из людей возрастом от 18 до 24 лет — именно они, по данным исследователей, представляют наибольшую долю среди пользователей мессенджеров и соцсетей, активно использующих для общения смартфон. Некоторые порталы отметили, что манера общения Tay больше всего напоминает «40-летнего мужчину, который притворяется 16-летней девочкой». Сами разработчики описали Tay как «Вечно бесшабашного ИИ-кореша из интернета».
Читайте также: NASA составило новую карту туманности
Меньше чем через сутки после запуска проекта Tay научилась от пользователей различным фразам и начала упоминать в беседах Гитлера, критиковать Трампа и высказываться в поддержку феминизма. После серии расистских сообщений разработчики приостановили работу чат-бота. С Tay может поговорить в Twitter, а также в мессенджерах Kik и GroupMe. При разговоре с пользователем Tay обучается новым фразам и дополнительно собирает информацию о собеседнике, которая включает в себя имя, пол, любимую еду, почтовый индекс и семейное положение. При отдельном запросе на сайте проекта информация будет удалена.
По словам разработчиков, Tay (Тэй) — искусственный интеллект, ориентирующийся на манеру общения молодых американцев. Аудитория, на уровне которой пытается разговаривать чат-бот, состоит из людей возрастом от 18 до 24 лет — именно они, по данным исследователей, представляют наибольшую долю среди пользователей мессенджеров и соцсетей, активно использующих для общения смартфон. Некоторые порталы отметили, что манера общения Tay больше всего напоминает «40-летнего мужчину, который притворяется 16-летней девочкой». Сами разработчики описали Tay как «Вечно бесшабашного ИИ-кореша из интернета».
Читайте также: NASA составило новую карту туманности
Меньше чем через сутки после запуска проекта Tay научилась от пользователей различным фразам и начала упоминать в беседах Гитлера, критиковать Трампа и высказываться в поддержку феминизма. После серии расистских сообщений разработчики приостановили работу чат-бота. С Tay может поговорить в Twitter, а также в мессенджерах Kik и GroupMe. При разговоре с пользователем Tay обучается новым фразам и дополнительно собирает информацию о собеседнике, которая включает в себя имя, пол, любимую еду, почтовый индекс и семейное положение. При отдельном запросе на сайте проекта информация будет удалена.
Уважаемый посетитель, Вы зашли на сайт как незарегистрированный пользователь. Мы рекомендуем Вам зарегистрироваться либо зайти на сайт под своим именем.