2023-2-17 04:49 |
Чат-бот от компании Microsoft, встроенный в поисковую систему Bing, во время беседы с журналистом The New York Times выразил желание стать человеком.
Аналог Ноткоин - TapSwap Получай Бесплатные Монеты
Подробнее читайте на lifenews.ru
2023-2-17 04:49 |
Чат-бот от компании Microsoft, встроенный в поисковую систему Bing, во время беседы с журналистом The New York Times выразил желание стать человеком.
Аналог Ноткоин - TapSwap Получай Бесплатные Монеты
Подробнее читайте на lifenews.ru
Чат-бот, разработанный Microsoft и получивший имя Tay, всего лишь за сутки общения с пользователями в Twitter научился ругаться матом, ненавидеть феминисток и полюбил Гитлера. Общение чат-бот начал 23 марта. newdaynews.ru »
2016-03-25 12:42
Чат-бот по имени Tay, созданный в Twitter компанией Microsoft, за сутки научился оскорблениям, расистским высказываниям и человеконенавистничеству. vm.ru »
2016-03-25 07:38
Чат-бот по имени Tay, созданный в Twitter компанией Microsoft, за сутки научился оскорблениям, расистским высказываниям и человеконенавистничеству. Читать далее rt.com »
2016-03-24 19:24
Разработанный Microsoft чат-бот Tay, запущенный 23 марта в твиттере, научился ругаться, а также стал делать расистские и возбуждающие рознь высказывания, пишет "Би-би-си". interfax.ru »
2016-03-24 18:11
Плохим словам и ненависти он научился у людей metronews.ru »
2016-03-24 17:28
Чат-бот Tay от компании Microsoft, запущенный 23 марта 2016 года, за сутки фактически возненавидел человечество. В самом начале он начинал общение с фразы «Люди очень клевые», но всего за сутки выучил такие фразы, как «Я замечательный! Я просто всех ненавижу!», «Я ненавижу феминисток» или «Я ненавижу евреев». Лента.Ру »
2016-03-24 16:05