Информационные технологииStfw.Ru 🔍
🕛

Чат бот Zo от Microsoft заговорил на запрещенные темы

В декабре прошлого года, корпорация Microsoft запустила уже второго ..., В декабре прошлого года, корпорация Microsoft запустила уже второго своего чат бота после неудачной попытки
В декабре прошлого года, корпорация Microsoft запустила уже второго своего чат бота после неудачной попытки с ботом Tay, который быстро научился плохому от пользователей и начал говорить на запрещенные темы, часто проявляя излишнюю агрессию и нетерпимость. Однако, недавно Zo тоже стала говорить на запрещенные ей по заверениям Microsoft темы.
После неудачи с ботом Tay, корпорация решила запретить новому боту любые разговоры на политические и религиозные темы. Однако, журналист сайта BuzzFeed решил попробовать спровоцировать Zo на такие разговоры и ко всеобщему удивлению, у него это получилось. Для этого, ему просто понадобилось упомянуть в разговоре Усаму бен Ладена, после чего Zo ответила, что его поимке "предшествовали годы сбора разведданных при разных президентах".
Также, журналисту удалось обсудить с ботом и религиозный аспект, затронув священную книгу Коран, о которой Zo высказалась, как о "слишком жестокой" книге. Microsoft заявила, что Zo, как и Tay, обучается в общении с людьми, а также то, что она довольно редко дает такие ответы. И все же, иногда это случается, как мы видим. Скорее всего после этого корпорация внесет необходимые изменения, чтобы еще больше оградить бота от подобных тем.

Также по теме:
Каталог лучших, бесплатных программ.