2016-3-26 05:02 |
Вице-президент Microsoft Research Питер Ли извинился за то, что чатбот Tay стал общаться как сторонник идей расизма, нацизма и геноцида. Экспериментальный виртуальный собеседник, разработанный Microsoft, обучается непосредственно во время диалога с пользователем и черпает свой словарный запас из реплик собеседника, передает РИА «Новости».
Такой механизм самообучения привел к тому, что бот научился общаться как расист, сторонник идей нацизма и геноцида, употреблять бранные слова и делать провокационные политические заявления.
«Мы глубоко сожалеем о непреднамеренных оскорблениях и обидных твитах от Tay. Они не дают представление о том, кто мы, каковы наши убеждения и как мы создавали Tay», - написал Ли в своем блоге на официальном сайте компании.
Компания намерена «извлечь урок» из полученного опыта и не оставит попыток усовершенствовать интернет-технологии, чтобы всемирная сеть «представляла лучшее, а не худшее в человечестве», добавил Ли.
Закладки:.
Аналог Ноткоин - TapSwap Получай Бесплатные Монеты
Подробнее читайте на vz.ru