Чат-бот Microsoft за сутки стал расистом
Чат-бот по имени Tay, созданный в Twitter компанией Microsoft, за сутки научился оскорблениям, расистским высказываниям и человеконенавистничеству. vm.ru »
чат-бот - Cвежие новости [ Фото в новостях ] | |
Чат-бот по имени Tay, созданный в Twitter компанией Microsoft, за сутки научился оскорблениям, расистским высказываниям и человеконенавистничеству. vm.ru »
Чат-бот по имени Tay, созданный в Twitter компанией Microsoft, за сутки научился оскорблениям, расистским высказываниям и человеконенавистничеству. Читать далее rt.com »
Корпорация создала Tay для общения с молодыми людьми 18-24 лет aif.ru »
Разработанный Microsoft чат-бот Tay, запущенный 23 марта в твиттере, научился ругаться, а также стал делать расистские и возбуждающие рознь высказывания, пишет "Би-би-си". interfax.ru »
Плохим словам и ненависти он научился у людей metronews.ru »
Чат-бот Tay от компании Microsoft, запущенный 23 марта 2016 года, за сутки фактически возненавидел человечество. В самом начале он начинал общение с фразы «Люди очень клевые», но всего за сутки выучил такие фразы, как «Я замечательный! Я просто всех ненавижу!», «Я ненавижу феминисток» или «Я ненавижу евреев». Лента.Ру »