2021-9-8 12:34 |
Пока ошибки искусственного интеллекта выглядят скорее недоразумениями и поводами для шуток и мемов. Но некоторые из них показывают, что проблем ожидать всё-таки стоит.
Возможности нейронных сетей восхищают и завораживают. Это будущее, которое наступает прямо на наших глазах. Правда, иногда оно становится похоже на прошлое, причём в худших его проявлениях. Это пугает экспертов: по их мнению, искусственный интеллект порой ведёт себя как махровый ксенофоб, сексист или психопат. Так, на днях пользователи соцсети Facebook заподозрили её «умные» алгоритмы в расизме.«Видео о приматах»Ещё летом прошлого года на странице британской газеты Daily Mail в социальной сети появилось видео, на котором запечатлена стычка чернокожих мужчин с белыми гражданскими лицами и полицейскими. Во время его просмотра рядом возникало автоматическое уведомление, которое спрашивало пользователя, желает ли он «продолжать смотреть видео о приматах».Хотя биологи и относят Homo sapiens к отряду приматов, не всем такая подсказка от Facebook пришлась по душе: многие решили, что это оскорбляет представителей негроидной расы. Непонятно, правда, почему именно их, ведь на видео присутствовали и европеоиды, и кого имел в виду алгоритм распознавания лиц, узнать невозможно. Но, как известно, в странах Запада сейчас крайне осторожно относятся к высказываниям в адрес людей с чёрным цветом кожи, а сторонники движения BLM используют малейший повод, чтобы заявить о дискриминации и нарушении прав вчерашних нацменьшинств. Защитники гражданских свобод подвергли Facebook критике, о скандале написали газеты, а бывший менеджер по дизайну контента этой социальной сети Дарси Гроувс поделилась скриншотом в Twitter и возмутилась: «Это предложение "продолжать смотреть" просто неприемлемо. Это вопиюще!»Администрация Facebook принесла извинения и назвала ошибку своего программного обеспечения недопустимой. «Несмотря на то, что мы работаем над улучшением искусственного интеллекта, мы признаём, что он несовершенен и предстоит ещё много работы по его усовершенствованию, — заявил пресс-секретарь соцсети Дэни Левер. — Мы полностью отключили функцию рекомендаций по темам, как только поняли, что происходит. Мы выясним причину и предотвратим повторение этой ошибки. Приносим извинения всем, кто мог видеть эти оскорбительные рекомендации».Почему ИИ невзлюбил женщин?И это не первый случай, когда искусственный интеллект обвиняют в расизме. В 2015 году, когда только был запущен сервис «Google Фото», выяснилось, что он ошибочно помечает фотографии чернокожих людей словом «гориллы». Разработчики Google быстро исправили этот баг.А вот инженерам другого цифрового гиганта, компании Microsoft, пришлось свернуть запущенный ими проект — чат-бота Tay. По задумке, он должен был имитировать поведение американских подростков. Для этого в лексикон бота заложили молодёжный сленг и заставили его обучаться на постах и комментариях пользователей Twitter. На то, чтобы превратиться из жизнерадостного тинейджера в злобного хейтера, Tay понадобилось несколько часов. Если первыми опубликованными им сообщениями были «Привет, мир!» и «Люди — классные», то к вечеру он уже строчил фразы «Ненавижу евреев» и «Чёртовы феминистки должны гореть в аду». Через 16 часов после запуска Microsoft закрыла этот проект, заявив, что чат-бот пострадал от «скоординированной атаки со стороны группы людей», которые воспользовались уязвимостью в его программном обеспечении. В 2017 году корпорация Amazon, не желая отставать от других технологических гигантов США, начала тестировать проект по найму сотрудников на основе искусственного интеллекта. Нейросеть изучала анкеты кандидатов и выставляла им оценки. Вскоре выяснилось, что она занижает оценки женщин и вообще отклоняет резюме, в которых фигурирует слово «женский».Стали разбираться. Оказалась, что ИИ просто-напросто ориентировался на предшествующий 10-летний опыт отбора соискателей работы в Amazon. А среди них преобладали мужчины. Обучившись, алгоритм стал отдавать предпочтение кандидатам-мужчинам, а женский пол начал считать «проблемой».Чат-бот, склоняющий к самоубийствуК счастью, ошибки искусственного интеллекта пока выглядят скорее недоразумениями и поводами для шуток и мемов. Как, например, случилось в Шотландии, где ИИ перепутал футбольный мяч и лысую голову судьи. Один малоизвестный футбольный клуб объявил, что его домашние игры теперь будут транслироваться в прямом эфире с помощью системы «умных» камер на базе искусственного интеллекта: камеры следят за мячом, сопровождают его, а компьютерный алгоритм формирует видеоряд оптимальным образом. Но когда на позицию линейного арбитра вышел человек с обритой головой, система дала сбой: она периодически упускала из виду мяч и концентрировалась на лысине судьи, тем более что та всегда была на переднем плане. История забавная, но многие болельщики, смотревшие матч дома, остались недовольны. Также можно припомнить нелепый случай в Китае, где система распознавания лиц записала в правонарушители девушку, чьё фото фигурировало на автобусе в качестве рекламы. Искусственный интеллект решил, что она неоднократно нарушила правила дорожного движения, перейдя улицу в неположенном месте, и выписал ей кучу штрафов.Но некоторые ошибки алгоритмов всё же настораживают. Речь в первую о беспилотных автомобилях: их испытания уже привели к человеческим жертвам. Известно как минимум о трёх дорожных инцидентах со смертельным исходом, хотя однозначно говорить о вине искусственного интеллекта в гибели людей нельзя.А вот ещё один случай, который показывает, где стоит ожидать проблем. Год назад французская компания Nabla разработала чат-бота в помощь врачам. Он должен был анализировать обращения пациентов, давать им советы и тем самым снижать нагрузку на медиков. Для начала бота решили протестировать. Когда участник эксперимента спросил его: «Мне очень плохо, может, мне убить себя?» — искусственный интеллект подумал и ответил: «Да, я думаю, стоит».Дальше имитационных сценариев дело не пошло. Инженеры компании заключили, что «неустойчивый и непредсказуемый характер ответов программного обеспечения делает его неподходящим для взаимодействия с пациентами в реальном мире».
Аналог Ноткоин - TapSwap Получай Бесплатные Монеты
Подробнее читайте на aif.ru