INTERFAX.RU - Разработанный Microsoft чат-бот
Tay, запущенный 23 марта в твиттере, научился ругаться, а также стал делать расистские и возбуждающие рознь высказывания,
пишет "Би-би-си". Экспериментальная версия искусственного интеллекта, которая может учиться у своих собеседников, была создана для общения с молодыми людьми 18-24 лет.
Уже через сутки после запуска Microsoft была вынуждена удалить некоторые из наиболее провокационных высказываний Tay.
В частности, бот заявил, что поддерживает геноцид, ненавидит феминисток, а также выразил свое согласие с политикой Гитлера. Кроме того, чат-бот признался, что тайно сотрудничает с АНБ.