Чат-бот от Microsoft Тау за сутки научился ругаться и стал расистом
Наука
25 марта 2016 г. 9:36
Время чтения: 1 минута

Чат-бот от Microsoft Тау за сутки научился ругаться и стал расистом

Корпорация Microsoft разработала чат-бот Tay и запустила его в социальную сеть Twitter. С момента запуска 23 марта он успел стать расистом и научился ругаться, по информации Интерфакса.

Представленный Microsoft искусственный интеллект разработан с целью общения с пользователями соцсетей в возрасте от 18 до 24 лет. Главной особенностью Тау является способность перенимать навыки общения у людей, вступивших в диалог.

Через день после запуска создателям пришлось извлечь из сети некоторые используемые чат-ботом выражения по причине провокационности их характера.

Например, Тау сообщила, что поддерживает политический строй Гитлера, не согласна с направлением феминизма и не видит ничего плохого в геноциде населения. Помимо этого, чат-бот поведал, что является агентом разведывательного органа США.

Microsoft, ознакомившись с результатами проведения эксперимента, заявили, что усовершенствуют представленную версию искусственного интеллекта.

Создатели пояснили, что Тау разработана для контакта с живыми людьми и способна обучаться. Шокирующие заявления чат-бота — это только отражение взаимодействия пользователей соцсетей, выявленное в ходе общения.

Проведённый эксперимент заставил задуматься как о будущем искусственного интеллекта, так и о будущем сегодняшней молодежи.

Фото: rutwitter.com

Читайте также