Европейский союз, который ещё недавно считался мировым лидером в регулировании искусственного интеллекта, готовит масштабный пересмотр своей политики. Европейская комиссия разрабатывает пакет реформ под названием «Digital Omnibus», который затрагивает сразу три ключевых регулирования: закон об ИИ (EU AI Act), GDPR и правила ePrivacy. Официально реформа направлена на упрощение соблюдения требований для малого и среднего бизнеса, однако эксперты предупреждают — изменения выгодны прежде всего крупным технологическим корпорациям.
Главное нововведение — отсрочка полноценного применения штрафов за нарушения закона об ИИ. По действующему графику, с 2 августа 2026 года все требования к высокорисковым ИИ-системам вступят в силу, а штрафы могут достигать €35 млн или 7% от мирового годового оборота компании. Однако «Digital Omnibus» предлагает годичную отсрочку: компании получат дополнительное время перед началом штрафных санкций. Кроме того, обязанность маркировать контент, сгенерированный нейросетями, предлагается отложить до августа 2027 года.
Особую тревогу правозащитников вызывают предложения по ослаблению GDPR. Согласно утечкам из проекта реформы, планируется сузить определение персональных данных — псевдонимизированные идентификаторы, такие как рекламные ID и файлы cookie, могут лишиться защиты GDPR. Также предлагается ввести исключения по «законному интересу», которые позволят компаниям использовать европейские данные для обучения ИИ-моделей с минимальными ограничениями. Система согласия на использование cookie может быть переведена с opt-in на opt-out.
При этом масштаб уже накопленных штрафов впечатляет: с момента вступления GDPR в силу суммарные санкции достигли €5,88 млрд, из которых €1,2 млрд пришлось только на 2024 год. Закон об ИИ вводит ещё более жёсткую шкалу: до €35 млн или 7% оборота за грубые нарушения и до €20 млн или 4% за невыполнение требований к высокорисковым системам. Италия уже имплементировала национальные нормы с максимальным штрафом €774 685 и возможной дисквалификацией бизнеса на срок до года.
Параллельно с регуляторными дебатами в ЕС активно развиваются технологии приватного обучения ИИ. Исследователи из KAIST разработали метод федеративного обучения, позволяющий больницам и банкам совместно тренировать модели без обмена персональными данными. Метод использует синтетические данные, извлечённые из локальных наборов, что позволяет каждому участнику сохранить экспертизу модели на своих данных без утечки конфиденциальной информации. Рынок федеративного обучения, по прогнозам, вырастет с $0,1 млрд в 2025 году до $1,6 млрд к 2035 году.
Ситуация создаёт парадокс: пока технологии приватного ИИ становятся всё более зрелыми, регуляторы рассматривают возможность ослабить требования к защите данных. Компаниям, работающим с ИИ на европейском рынке, эксперты рекомендуют не рассчитывать на отсрочки и готовиться к соблюдению требований по графику — август 2026 года остаётся ориентировочным дедлайном. До этой даты необходимо провести классификацию ИИ-систем, завершить оценку соответствия, подготовить техническую документацию и внедрить механизмы человеческого контроля.





