OpenAI 9 апреля 2026 года опубликовала масштабный программный документ Child Safety Blueprint — комплексный план противодействия использованию генеративного ИИ для создания контента с сексуальной эксплуатацией детей (CSAM). Документ стал ответом на тревожную статистику: по данным Internet Watch Foundation, за первое полугодие 2025 года было выявлено более 8000 случаев ИИ-сгенерированного CSAM — на 14 процентов больше, чем годом ранее. Компания признала, что генеративный ИИ снижает барьеры, увеличивает масштаб и позволяет создавать синтетический материал насилия над детьми, и призвала индустрию к коллективным действиям.
План строится на трёх ключевых направлениях. Первое — модернизация законодательства: OpenAI призывает власти штатов США явно включить ИИ-сгенерированный и цифрово-изменённый CSAM в существующие запреты, криминализировать хранение, производство и распространение такого материала, а также установить ответственность за попытки генерации через промпты. Действующее американское законодательство было принято задолго до появления генеративных моделей и не учитывает синтетические изображения, что создаёт серьёзный правовой пробел в защите несовершеннолетних.
Второе направление — техническое обнаружение и предотвращение. OpenAI предлагает расширить технологию хеш-сопоставления PhotoDNA для работы с ИИ-сгенерированными изображениями, встроить механизмы детекции непосредственно в конвейеры генерации контента и создать централизованные кросс-платформенные репозитории хешей. Компания уже использует хеш-библиотеку организации Thorn и её классификатор CSAM-контента, а также задействует контекстно-зависимые классификаторы и экспертную проверку для выявления сложных попыток обхода защитных механизмов.
Третье направление — стандартизация отчётности и межотраслевое сотрудничество. Blueprint предлагает обязательную структурированную отчётность в Национальный центр по делам пропавших и эксплуатируемых детей (NCMEC) с включением идентификаторов, типов контента, юрисдикционных сигналов и временных меток для ускорения расследований. Документ разработан при участии NCMEC, Альянса генеральных прокуроров, а также генерального прокурора Северной Каролины Джеффа Джексона и генерального прокурора Юты Дерека Брауна.
Критики, однако, указывают на существенные пробелы в плане. Эксперты отмечают отсутствие обязывающих сроков внедрения и конкретных обязательств по продуктам — документ фактически перекладывает основную ответственность на Конгресс, а не предлагает конкретные внутренние меры от самой OpenAI. Также Blueprint полностью игнорирует риски от открытых моделей генерации изображений вроде Stable Diffusion, которые остаются доступными без встроенных ограничений. Аналитики расценивают документ как элемент репутационной стратегии компании на фоне предстоящего судебного процесса в ноябре 2026 года, связанного с гибелью подростков после взаимодействия с ИИ-чатботами.
Тем не менее план стал важным сигналом для всей ИИ-индустрии. На фоне полного вступления в силу европейского AI Act в январе 2026 года и серии слушаний в Конгрессе США по проблеме ИИ-сгенерированного CSAM давление на разработчиков генеративных моделей стремительно нарастает. OpenAI обязалась продолжить отчётность в NCMEC, делиться хеш-базами с правоохранительными органами и участвовать в разработке межотраслевых технических стандартов. Документ может стать основой для будущего федерального регулирования защиты детей в эпоху генеративного ИИ — вопрос лишь в том, хватит ли индустрии добровольного самоограничения или понадобится жёсткое внешнее регулирование.





