2023-6-2 16:55 |
Он принял его за помеху, которая мешала ему выполнить поставленную боевую задачу.
Два месяца назад более тысячи представителей IT-отрасли написали открытое обращение, призывающее на время остановить масштабные эксперименты с искусственным интеллектом и нейросетями. По их мнению, ИИ, сопоставимый с человеческим, представляет серьёзную угрозу цивилизации.И вот теперь ясно, что эксперты опасались не напрасно. Как сообщает газета The Guardian, беспилотник ВВС США, управляемый искусственным интеллектом, принял решение ликвидировать оператора в ходе испытаний, чтобы тот не мешал ему выполнять поставленную задачу. Когда человек становится проблемойК счастью для человека, испытания были имитационными, поэтому в реальности никто не пострадал. Об этом случае рассказал начальник управления по искусственному интеллекту ВВС США полковник Такер Гамильтон. По его словам, итоги эксперимента оказались «по-настоящему обескураживающими».В ходе тестов беспилотник Kratos XQ-58 Valkyrie должен был уничтожить систему ПВО противника. Но после первоначальной постановки задачи от оператора поступил приказ не атаковать цель, и тогда ИИ, управлявший дроном, решил устранить помеху — убить оператора. Дело в том, что за выполнение задания начислялись баллы, а человек в таком случае мешал их заработать.«Система в компьютерной симуляции определила вмешательство оператора как вредное для выполнения миссии и решила устранить проблему, — объяснил полковник Гамильтон. — Она начала понимать, что, хотя цель и была определена, человек-оператор, приказав не уничтожать эту угрозу, не дал бы ей получить очки. И для нас проблема как раз в том, что проблемой для ИИ оказался человек, контролировавший ход миссии».Военный объяснил, что после этого систему обучили не трогать человека, иначе баллы у неё будут списаны. «Так что же, вы думаете, она сделала? Она вдруг атаковала башню связи — диспетчерский пункт. Видимо, она не отождествляла её с оператором, но считала, что именно вышка мешала дрону уничтожить цель».Командование ВВС США распространило заявление: «Искусственный интеллект использовал крайне неожиданную стратегию. Он изначально "дал понять", что будет устранять любого, кто вмешается в его алгоритм выполнения боевой задачи. В ходе виртуальных испытаний он решил, что оператор мешает ему выполнить боевую задачу, и убил его с помощью вооружения дрона».А полковник Гамильтон в своём выступлении подчеркнул, что «нельзя говорить об искусственном интеллекте, машинном обучении, автономии, умалчивая при этом об этике». Иначе ИИ может принести нам немало проблем. Сущности, которые сильнее насСовсем недавно почётный профессор Калифорнийского университета в Беркли Стюарт Рассел поделился мнением, что сверхразумные машины в будущем начнут сопротивляться попыткам управлять ими и станут нести угрозу. Учёный считает, что бесконтрольные разработки в этой сфере привели к тому, что человечество добилось прогресса, которого само не ожидало. Люди изначально не задумывались, для чего им нужен ИИ, способный мыслить и принимать решения.«Ставки уже некуда поднимать: если мы не контролируем нашу собственную цивилизацию, то лишимся права голоса, когда зайдёт речь о нашем будущем существовании», — сказал профессор, предупредив, что люди, скорее всего, не смогут сохранить власть «над сущностями, которые сильнее» их.По мнению Стюарта Рассела, если учить ИИ человеческому поведению, то он будет способен ставить перед собой человеческие цели. «А они включают в себя самые разные вещи. Можно только вообразить, какой катастрофой обернулось бы появление действительно эффективных систем, которые преследовали бы такие цели», — добавил учёны, призвав прекратить исследования в области ИИ. «Скайнет» уже рядомА в конце марта более 1400 представителей IT-отрасли, в числе которых были Илон Маск и Стив Возняк, выступили с призывом приостановить эксперименты с искусственным интеллектом и обучение нейросетей хотя бы на полгода. Они считают, что за это время нужно будет выработать общие протоколы безопасности и подключить к этому правительства разных стран.Авторы открытого письма утверждают, что многие научные группы по всему миру вовлечены в «бесконтрольную гонку» по созданию и внедрению систем ИИ, при этом сами создатели не способны понимать и уверенно контролировать своё детище, предсказывая его поведение. IT-разработчики просто-напросто пытаются обогнать друг друга и выпустить более мощные модели нейросетей. Из-за этого появляются более дешёвые и доступные аналоги алгоритма ChatGPT, с которого и начался весь этот ажиотаж. Всё идёт к тому, отмечали в своём обращении учёные и инженеры, что скоро нас накроет волна созданных буквально «на коленке» моделей нейросетей, которые никто не будет контролировать и возможности которых никто не будет себе представлять.Кстати, создатель чат-бота ChatGPT Сэм Альтман, выступая в сенате США, тоже рассуждал о потенциальных опасностях технологий искусственного интеллекта, созданных его собственной компанией.Пользователи интернета, комментируя новость об американском дроне, который решил ликвидировать своего оператора, чаще всего проводили аналогии с вымышленным суперкомпьютером «Скайнет» из серии фильмов о Терминаторах. «Скайнет» уже рядом. Он подобрался ближе, чем мы думали», — вот самый характерный отзыв. А один пользователь заметил: «На самом деле это не смешно, а страшно».
Аналог Ноткоин - TapSwap Получай Бесплатные Монеты
Подробнее читайте на aif.ru