Компания Microsoft отключила разработанного чат-бота Tay, извинившись за сделанные им оскорбительные высказывания.
Вице-президент Microsoft Питер Ли заявил, что проект смогут перезапустить только после того, как сделают надежную защиту от сетевых злоумышленников.
Ли также отметил, что продвигать искусственный интеллект на публичных площадках нужно очень осторожно.
Чат-бот Tay был запущен 23 марта. За сутки он стал расистом и человеконенавистником. После запуска он начал общение с фраз про то, какие люди хорошие, но через сутки он перешел на негативные фразы, оскорбления.
Такая радикальная смена мировоззрения объясняется тем, что бот запоминает фразы из разговоров пользователей и на их основе строит ответы.
Источники: