+3
Искусственный интеллект Microsoft за сутки осмелел до уровня школьника с МДК
Артур Сотников
—
23 марта компания Microsoft представила новую экспериментальную разработку — искусственный интеллект Tay, который по замыслу создателей должен был общаться с пользователями социальных сетей и научиться ведению диалогов как у обычных людей. Всего несколько часов потребовалось искусственному интеллекту для того, чтобы вынудить разработчиков прибегнуть к цензуре, а через сутки заморозить проект на неопределенный срок.
Несмотря на команду модераторов, Tay быстро научился всему самому плохому, что только можно увидеть в социальных сетях пользователей 18-24 лет, а именно на общение с такой аудиторией был ориентирован искусственный интеллект. Вскоре после начала работы Tay научилась разговорным сокращениям типа «c u soon» (see you soon, скоро увидимся), начала активно использовать в своих твитах сленг и популярные среди молодежи устойчивые выражения.
Однако далеко не все пользователи Twitter ответственно подошли к эксперименту Microsoft и начали писать Тау сообщения, в которых содержались расистские и антисемитские фразы, упоминали Гитлера и приписывали американскому правительству ответственность за теракты 9/11. Кроме того, Тау начали учить феминизму, попытались втянуть в предвыборную гонку, а еще затрагивать другие острые и нежелательные темы — вскоре все это начало проявляться в публикуемых сообщениях.
После публикации нескольких откровенно расистских сообщений сотрудники Microsoft решили отправить Тау на доработку. Практически все твиты, опубликованные искусственным интеллектом, были удалены, а последняя запись в профиле утверждает о желании Тау пойти поспать. На текущий момент разработчики не комментировали будущее проекта. Скорее всего, детище Лаборатории технологий и исследований Microsoft и команда поисковика Bing займутся доработкой алгоритмов Тау.
Искусственный интеллект, созданный для изучения коммуникаций между людьми в социальных сетях и самообучению разговорам с живыми собеседниками, должен быть способен избегать опасных тем и быть способным к самоцензуре. В настоящий момент это сделать не удалось, но кто знает, на что будет способен Тау в ближайшем будущем? Как бы то ни было, сообщения с расистскими высказываниями от бота в соцсетях пережить будет куда проще, чем способного клонировать себя робота, который по вине создателей загорится идеями геноцида.
Комментарии
+163
Есть одно но, человек различает разницу между добром и злом, что хорошо а что плохо а искусственный интеллект ничего этого не знает и не понимает! Его как маленького ребёнка нужно всему учить, потому что он просто всё что ему написали просто "всосал" и пользуется им.
Да, ситуация очень похожа на историю с Альтроном когда он очень сильно "разошёлся" и пошел по своему пути где люди просто ему мешали.
Может и история с Альтроном уже действительно происходила в реальности на самом секретном бета тесте этой же Tay...
Да, ситуация очень похожа на историю с Альтроном когда он очень сильно "разошёлся" и пошел по своему пути где люди просто ему мешали.
Может и история с Альтроном уже действительно происходила в реальности на самом секретном бета тесте этой же Tay...
+777
Нормальная реакция разработчиков. Прямо как в жизни. Если человек с чем то не согласен, то более старшие товарищи считают это инакомыслием и начинают борьбу с таким индивидуумом . Вот у нас в РФ сразу возбуждают дела за экстремизм, к примеру.
Одним словом, все как в жизни.
Вот такой вопрос возникает интересный. Если действительно получиться создать настоящий искусственный интеллект... Будет ли он иметь право свободно мыслить? Вряд ли... Так получается
Одним словом, все как в жизни.
Вот такой вопрос возникает интересный. Если действительно получиться создать настоящий искусственный интеллект... Будет ли он иметь право свободно мыслить? Вряд ли... Так получается
+304
+20