2020-2-19 18:50 |
Команда калифорнийских исследователей показала, что компьютерные алгоритмы точнее людей определяют, кто из обвиняемых может совершить преступление повторно. Некоторое время назад другое исследование показало, что машина работает наравне с человеком. Теперь же программы вновь реабилитировали.
Недавно в журнале Science Advances были опубликованы результаты исследования, которое потенциально может изменить уголовное правосудие. Команда исследователей из Стэнфордского университета и Калифорнийского университета в Беркли выяснила, что компьютерные алгоритмы точнее людей определяют, кто из обвиняемых может совершить преступление повторно.
В новой работе учёные отмечают, что даже неподготовленные люди могут довольно точно предсказать риск совершения повторного преступления человеком: для этого им достаточно знать несколько простых переменных. Но система уголовного правосудия, не имеющая права на ошибку, работает с большим количеством параметров: и в этом случае даже профессионалу сделать выводы гораздо сложнее. Недавно выяснилось, что алгоритмы справляются с прогнозированием возможного рецидива намного лучше людей.
"Проверенные инструменты оценки рисков [повторных преступлений] могут помочь специалистам в области правосудия принимать более обоснованные решения, - отмечает Шарад Гоэл (Sharad Goel) из Стэнфордского университета. - Например, эти инструменты могут помочь судьям выявить и освободить людей, которые представляют небольшой риск для общественной безопасности.
Но, как и любые другие меры, инструменты оценки рисков должны работать под человеческим надзором и сочетаться с разумной политикой, чтобы реформы уголовного правосудия были справедливыми и эффективными".
Поясним, что инструменты оценки, основанные на алгоритмах, широко используются в Соединенных Штатах Америки в таких областях, как медицинское обслуживание, банковское дело и даже при приёме в университет. Нашли они своё применение и в уголовном судопроизводстве, где помогают должностным лицам анализировать данные при принятии решений.
Но в 2018 году исследователи из Дартмутского университета усомнились в точности этого метода и его уместности для уголовного правосудия. В ходе исследования они изучили тысячу карточек обвиняемых по уголовным делам, содержащих краткую информацию об этих людях.
Каждая из них включала в себя пять факторов, по которым можно было сделать какие-то выводы о человеке: пол, возраст, текущее уголовное обвинение, а также количество ранее совершенных преступлений во взрослом и несовершеннолетнем возрасте. Информацию предложили оценить 400 добровольцам и попросили предположить, совершали ли обвиняемые ещё одно преступление в течение последующих двух лет. Организаторы имели на руках информацию о том, кто из обвиняемых совершил преступление, а кто нет. Поэтому каждое решение участников эксперимента они сопровождали комментариями, касающимися правильности или неправильности их ответов.
Вероятность того, совершат ли обвиняемые повторное преступление, оценивал и алгоритм прогнозирования под названием COMPAS. За основу им были взяты всё те же пять параметров, перечисленных выше.
В результате люди и система прогнозирования дали точные ответы примерно в двух третях случаев: и если добровольцы были правы в 62% случаев, то алгоритм - в 65%.
Эти результаты, по мнению дартмутских исследователей, ставят под сомнение ценность инструментов оценки риска и алгоритмического прогнозирования.
Исследование вызвало широкий резонанс в прессе. Многие заговорили о том, что нет смысла использовать алгоритмы, чья точность сравнима с человеческой.
Авторы нового исследования решили расширить первоначальную работу. И помимо пяти факторов оценки, обычно используемых COMPAS, они ввели ещё 10 дополнительных, дав возможность алгоритму и людям оценить и их. В частности, система оценки стала учитывать такие переменные, как статус занятости предполагаемого рецидивиста, употребление им психоактивных веществ и его психическое здоровье.
Методология проведения работы также была немного пересмотрена: для чистоты эксперимента организаторы не всегда подтверждали правильность суждений добровольцев. Таким образом, люди оценивали риск рецидива преступления, не основываясь на своих предыдущих ответах. Напомним, что судьи и другие работники судебной системы принимают решения в похожих условиях: никто и никогда не даёт им немедленной оценки правильности их суждений.
По итогу алгоритм оценки превзошёл по точности людей.
Так, анализ набора данных COMPAS и этот же метод, дополненный десятью факторами, достигли 89% точности. Добровольцы также показали хорошие результаты, когда получали обратную связь о правильности своих ответов. Точность их оценок достигала 83%. А вот без такой "помощи" верность ответов добровольцев достигала лишь 60%.
Как объясняют учёные, результаты работы показывают, что люди могут предсказать рецидив наравне со статистическими моделями в том случае, если данные для анализа содержат несколько простых факторов. В этом случае точность компьютерных алгоритмов и людей, не получавших обратную связь, в значительной степени схожа. Но при работе с большим количеством данных алгоритм превосходит по точности человеческие прогнозы. Как отмечают исследователи, дело в том, что модели лучше учитывают дополнительную информацию, чем люди.
Получается, если передовые инструменты оценки рисков будут продолжать совершенствоваться, это может привести к тому, что критически важные решения будут приниматься более точно. Это важно, ведь специалисты в области правосудия ежедневно решают, какие лица могут быть реабилитированы в обществе, а не в тюрьме? Кого из них можно заключить в тюрьму с низким уровнем безопасности, а каких - в заведения со строгим режимом? Какие заключённые могут быть освобождены условно-досрочно, а каких необходимо оставить в местах заключения до окончания срока наказания?
Добавим, что ранее авторы "Вести.Наука" (nauka.vesti.ru) писали о приложении, которое найдёт снайпера по звуку выстрела, а также о том, что преступника могут выдать движения глаз.
Аналог Ноткоин - TapSwap Получай Бесплатные Монеты
Подробнее читайте на vesti.ru
Источник: vesti.ru | Рейтинг новостей: 106 |