нейросети23 марта 2026 г.

Минцифры России опубликовало законопроект о регулировании ИИ: маркировка дипфейков, «доверенные модели» и вступление в силу с 2027 года

Министерство цифрового развития России 18 марта 2026 года опубликовало проект федерального закона об основах государственного регулирования искусственного интеллекта. Документ из 20 статей вводит риск-ориентированный подход, обязательную маркировку ИИ-контента и особые требования для «доверенных моделей» в госсекторе. Закон планируется принять с вступлением в силу 1 сентября 2027 года.

Минцифры России опубликовало законопроект о регулировании ИИ: маркировка дипфейков, «доверенные модели» и вступление в силу с 2027 года

Министерство цифрового развития России 18 марта 2026 года опубликовало проект федерального закона «Об основах государственного регулирования сфер применения технологий искусственного интеллекта». Документ состоит из 20 статей и впервые закрепляет на законодательном уровне понятие искусственного интеллекта, определяет права и обязанности всех участников рынка — от разработчиков моделей до конечных пользователей.

В основу документа заложен риск-ориентированный подход: чем сильнее ИИ-система влияет на жизнь людей, тем строже к ней требования. Для использования ИИ в госсекторе, здравоохранении и критической инфраструктуре вводится статус «доверенной модели». Такие системы обязаны пройти тройную проверку: сертификацию ФСБ и ФСТЭК на безопасность и устойчивость к взлому, локализацию — обработка данных исключительно на территории России, а также подтверждение качества в соответствии с отраслевыми стандартами.

Коммерческий сектор по умолчанию не подпадает под обязательные требования, однако законопроект обязывает операторов ИИ-систем тестировать их на безопасность и информировать пользователей об ограничениях. Граждане получат право знать, когда с ними взаимодействует ИИ, оспаривать автоматизированные решения и в ряде случаев полностью отказаться от них. Предусмотрено право на компенсацию вреда, причинённого сбоем системы.

Статья 12 законопроекта обязывает маркировать синтетический контент — дипфейки, сгенерированные тексты, изображения и видео — одновременно в человекочитаемом и машиночитаемом форматах. Пользователи смогут отказаться от видимой метки через пользовательское соглашение, однако машиночитаемая маркировка остаётся обязательной. Разработчики получают право использовать открытые данные для обучения моделей при правомерном доступе к ним.

Документ предусматривает масштабную государственную поддержку разработчиков «суверенных» больших языковых моделей. Статья 20 закрепляет льготное подключение к электросетям, сниженные тарифы на электроэнергию и налоговые преференции — всё это направлено на снижение себестоимости разработки и обучения крупных моделей внутри страны. Принципы регулирования явно апеллируют к «традиционным российским духовно-нравственным ценностям», включая патриотизм, милосердие и справедливость.

Закон планируется принять с датой вступления в силу 1 сентября 2027 года. Эксперты указывают на три нерешённых вопроса: порядок ФСБ-сертификации может остаться закрытым, конкретное определение «большой фундаментальной модели» устанавливает сама Минцифры, а способность российских ИИ-компаний к тому времени конкурировать с OpenAI и Google остаётся открытым вопросом. Тем не менее принятие законопроекта станет первым системным правовым актом, регулирующим искусственный интеллект в России.

Попробуйте нейросети в MashaGPT

GPT-5, Claude, Gemini, генерация изображений и видео — всё в одном месте

Попробовать бесплатно
Источник:Ведомости