Результатов: 206

Чат-бот Microsoft за сутки стал расистом и человеконенавистником

Чат-бот по имени Tay, созданный в Twitter компанией Microsoft, за сутки научился оскорблениям, расистским высказываниям и человеконенавистничеству. Читать далее rt.com »

2016-3-24 19:24

Чат-бот от Microsoft за сутки научился ругаться и стал расистом

Разработанный Microsoft чат-бот Tay, запущенный 23 марта в твиттере, научился ругаться, а также стал делать расистские и возбуждающие рознь высказывания, пишет "Би-би-си". interfax.ru »

2016-3-24 18:11

Чат-бот от Microsoft за сутки возненавидел человечество и стал нацистом

Чат-бот Tay от компании Microsoft, запущенный 23 марта 2016 года, за сутки фактически возненавидел человечество. В самом начале он начинал общение с фразы «Люди очень клевые», но всего за сутки выучил такие фразы, как «Я замечательный! Я просто всех ненавижу!», «Я ненавижу феминисток» или «Я ненавижу евреев». Лента.Ру »

2016-3-24 16:05