Microsoft удалила возненавидевшего в течение 24 часов человечество чат-бота

Microsoft удалила чат-бот Tay, созданного компанией в качестве «невинного искусственного интеллекта» по образцу «девочки-подростка», пишет The Telegraph. Причиной для отключения стала нецензурная брань и расистский характер высказываний виртуального собеседника от Microsoft.

Компания представила чат-бота в Twitter 23 марта, однако уже спустя сутки, Tay превратился в зло. В первые часы существования его публикации были миролюбивые, но по истечению 24 часов чат-бот «полюбил» Гитлера, обвинил Джорджа Буша в трагедии 11 сентября и возненавидел человечество. Запоминая разговоры пользователей социальной сети, Тау публиковал свои ответы. Таким образом, создатели утверждают, что злым комментариям и ругани его научили собеседники.

Что еще почитать

В регионах

Новости

Самое читаемое

Реклама

Автовзгляд

Womanhit

Охотники.ру