Microsoft удалила чат-бот Tay, созданного компанией в качестве «невинного искусственного интеллекта» по образцу «девочки-подростка», пишет The Telegraph. Причиной для отключения стала нецензурная брань и расистский характер высказываний виртуального собеседника от Microsoft.
Компания представила чат-бота в Twitter 23 марта, однако уже спустя сутки, Tay превратился в зло. В первые часы существования его публикации были миролюбивые, но по истечению 24 часов чат-бот «полюбил» Гитлера, обвинил Джорджа Буша в трагедии 11 сентября и возненавидел человечество. Запоминая разговоры пользователей социальной сети, Тау публиковал свои ответы. Таким образом, создатели утверждают, что злым комментариям и ругани его научили собеседники.