нейросети21 апреля 2026 г.

Стэнфорд призвал создать федеральный орган надзора за ИИ в уголовном правосудии: алгоритмы уже решают судьбы 50 000 осуждённых

Исследователи Стэнфордской школы права опубликовали масштабный доклад о необходимости специализированного органа управления ИИ в системе уголовного правосудия. Параллельно учёные из Тулейнского университета доказали, что ИИ-рекомендации сокращают сроки заключения, но расовая предвзятость судей сохраняется.

Стэнфорд призвал создать федеральный орган надзора за ИИ в уголовном правосудии: алгоритмы уже решают судьбы 50 000 осуждённых

Стэнфордская школа права опубликовала 27 марта 2026 года доклад «AI in Criminal Justice: Why Governance Matters and How to Make It Work», подготовленный лектором Джонатаном Вроблевски и командой из девяти исследователей лаборатории Law & Policy Lab. Авторы документа предупреждают: искусственный интеллект уже «вплетён в решения, затрагивающие саму свободу человека», но ни одно государственное ведомство в США не обладает достаточной экспертизой для контроля за этими системами. Полицейские управления используют алгоритмы для анализа улик и выявления паттернов преступности, прокуроры — для управления раскрытием доказательств, а суды полагаются на оценки рисков рецидива и большие языковые модели для подготовки документов.

Центральная рекомендация доклада — создание специализированного федерального органа надзора за ИИ в сфере уголовного правосудия. По замыслу авторов, такая структура может быть размещена в федеральном правительстве, консорциуме штатов или общественном институте. Она должна стать «хабом технической, правовой и этической экспертизы», способным независимо оценивать высокоприоритетные ИИ-инструменты и разрабатывать стандартизированные протоколы тестирования. Команда Стэнфорда проанализировала четыре институциональные модели: федеральные консультативные комитеты (FACA), законодательные агентства, комиссии по назначению наказаний и комитеты Конгресса — и пришла к выводу, что ни одна из существующих структур не справляется с задачей в полном объёме.

Масштаб проблемы подтверждает параллельное исследование профессора Йи-Джен Хо из Тулейнского университета, изучившего более 50 000 приговоров в штате Вирджиния. По данным учёного, ИИ-рекомендации снизили вероятность тюремного заключения для обвиняемых в наркопреступлениях на 16%, в мошенничестве — на 11%, в кражах — на 6%, а средний срок лишения свободы сократился примерно на один месяц. Когда судьи следовали рекомендациям алгоритма об альтернативном наказании, уровень рецидива составлял лишь 14%, тогда как при игнорировании ИИ-совета в пользу заключения этот показатель возрастал до 25,71%.

Однако исследование из Тулейна обнаружило тревожный побочный эффект: расовая предвзятость судей не исчезла с внедрением ИИ. Чернокожие подсудимые получали условное наказание на 6% реже, чем белые при аналогичном уровне риска, а их средние сроки заключения оказывались на месяц длиннее. «Судьи, по-видимому, неправильно применяли рекомендации ИИ в зависимости от расы обвиняемого», — констатировал профессор Хо. При этом гендерная предвзятость, напротив, уменьшилась — ИИ-инструменты помогли выровнять различия в приговорах между мужчинами и женщинами.

Совет по уголовному правосудию (Council on Criminal Justice) ещё в 2024 году собрал 36 экспертов — политиков, практиков, технологов и правозащитников — на конференции в Стэнфордском центре уголовного правосудия, где были сформулированы четыре ключевых принципа: ценностно-ориентированное внедрение ИИ, критическое понимание ограничений алгоритмов, создание регуляторных рамок с обязательным человеческим контролем и вовлечение всех заинтересованных сторон. Стивен Харп из Департамента исправительных учреждений Оклахомы отметил, что «огромные массивы данных остаются неиспользованными», а модернизация систем с помощью ИИ может помочь штатам наконец разобраться в своих датасетах.

Стэнфордский доклад фактически бросает вызов Белому дому, чья Национальная политическая рамка по ИИ, по мнению авторов, применяет недостаточно строгий подход к уголовно-правовым приложениям. «Мягкое регулирование в сочетании с широким преимущественным правом федерации создаёт вакуум», — предупреждают исследователи. Без специализированного надзора тысячи недофинансированных полицейских управлений, прокуратур и судов останутся один на один с вендорами, которые продают ИИ-инструменты напрямую практикам. Учитывая, что алгоритмы уже определяют условия досудебного содержания, сроки наказания и решения об условно-досрочном освобождении, вопрос создания федерального органа надзора перестаёт быть теоретическим и становится неотложным.

Попробуйте нейросети в MashaGPT

GPT-5, Claude, Gemini, генерация изображений и видео — всё в одном месте

Попробовать бесплатно
Источник:Stanford Law School