Анализ проекта Закона об ИИ в России

Проект закона об ИИ в России: тотальный суверенитет или тормоз для инноваций? Разбираем ключевые нормы — доверенные модели, запрет на эксплуатацию уязвимостей, регулирование больших данных и новые требования к разработчикам.

Анализ проекта Закона об ИИ в России

Цифровой суверенитет vs. Инновации

Анализ проекта Закона "Об основах государственного регулирования сфер применения технологий искусственного интеллекта в Российской Федерации"

18 марта 2026 года на публичное обсуждение был вынесен текст проекта федерального закона «Об основах государственного регулирования сфер применения технологий искусственного интеллекта в Российской Федерации». Этот документ, вносимый Правительством, знаменует собой попытку создания всеобъемлющей правовой рамки для одной из самых динамично развивающихся технологических сфер.

Закон вступает в силу лишь с 1 сентября 2027 года, что указывает на понимание законодателем сложности предмета и необходимости переходного периода. Тем не менее, уже сейчас можно провести детальный анализ положений документа, оценить его потенциальное влияние на рынок, права граждан и будущее технологий в России.

Ссылки по теме:

Предмет регулирования и сфера действия

Закон претендует на регулирование всех отношений, связанных с разработкой, внедрением и использованием ИИ в России. Цели, заявленные в статье 1, амбициозны: от ускоренного развития технологий до обеспечения безопасности личности и государства.

Ключевой момент: Действие закона не распространяется на сферы обороны, безопасности государства и правопорядка (ст. 1, ч. 4). Это классическая практика, однако она создает «разрыв» в правовом поле: технологии, разработанные для военных или полицейских целей, при переходе в гражданский сектор могут оказаться неурегулированными.

Понятийный аппарат: от «доверенных моделей» до «эксплуатации уязвимостей»

Закон вводит развернутую терминологию (ст. 3), что является его несомненным плюсом. Четко разделяются понятия модели, системы и сервиса ИИ, определяются субъекты (разработчик, оператор, владелец, пользователь).

Обращают на себя внимание несколько новелл:

1️⃣ Большие фундаментальные модели (БФМ): Закон выделяет их в отдельную категорию, признавая их роль как основы для других продуктов. Порог количества параметров будет устанавливать уполномоченный орган.

2️⃣ Доверенные модели ИИ: Ключевое понятие для госсектора. Модель становится «доверенной» только после включения в специальный реестр и соответствия требованиям безопасности (от ФСТЭК/ФСБ) и качества (от отраслевых регуляторов).

3️⃣ Эксплуатация уязвимостей человека: Впервые на законодательном уровне вводится запрет на использование возрастных, психологических или когнитивных особенностей человека для манипуляции.

Идеологический фундамент: безопасность и традиционные ценности

Статья 4 задает идеологический вектор регулирования. Наряду с классическими принципами (верховенство прав человека, риск-ориентированный подход) закон включает принципы «технологической независимости» и «учета традиционных российских духовно-нравственных ценностей».

Это сигнал рынку: разработка ИИ в России должна опираться на суверенные технологии и соответствовать определенному мировоззренческому фильтру. Статья 7 развивает эту идею, вводя понятия суверенной и национальной моделей ИИ, разработка которых должна вестись на территории РФ силами российских граждан и компаний.

«Доверенный режим» для госсектора

Статья 8 — одна из самых значимых для бизнеса. Она устанавливает, что в государственных информационных системах (ГИС) и на объектах критической информационной инфраструктуры (КИИ) могут применяться только доверенные модели ИИ, включенные в реестр.

Это создает:

1. Барьер для иностранных вендоров: Зарубежные модели (например, OpenAI или Anthropic) де-юре не могут быть использованы в ГИС, так как вряд ли смогут подтвердить обработку данных на территории РФ и соответствие требованиям ФСТЭК/ФСБ.

2. Рынок для отечественных разработчиков: Возникает замкнутый цикл спроса со стороны государства. Однако получение статуса «доверенной модели» потребует прохождения сложных процедур подтверждения соответствия, что может быть под силу только крупным игрокам.

Права граждан и ответственность: бремя доказывания

Закон гарантирует гражданам право знать о взаимодействии с ИИ (ст. 9) и возможность обжалования решений, принятых с его помощью. Важным является право на альтернативное обслуживание без использования ИИ для тех, кто от него отказался.

Ключевой момент — ответственность (ст. 11). Закон вводит презумпцию виновности разработчика или оператора: они несут ответственность за вред, причиненный ИИ, если не докажут, что не знали и не должны были знать о возможности такого результата. Это серьезный стимул для внедрения систем документирования, логирования и тестирования рисков (ст. 10).

Интеллектуальная собственность и «Большие данные»

Статья 13 затрагивает больную тему — обучение ИИ на охраняемых объектах. Закон предлагает компромиссное решение: не является нарушением извлечение информации (text and data mining) из правомерно полученных произведений для обучения ИИ. Это легализует парсинг и анализ данных, но с оговоркой — нужен «правомерный экземпляр» произведения.

В части охраны результатов творчества ИИ закон отсылает к Гражданскому кодексу, признавая объектами только оригинальные творения, независимо от способа создания. Это оставляет открытым вопрос: будет ли считаться «оригинальным» контент, сгенерированный нейросетью?

Международный аспект: экспорт стандартов

Раздел о международном сотрудничестве (ст. 15-18) написан в парадигме продвижения российских подходов. Цель — формирование «единого пространства доверенных технологий» под эгидой РФ и экспорт российских стандартов регулирования. Это попытка создать альтернативный западному (ЕС, США) полюс регулирования ИИ.

Экономические стимулы: энергетика для суперкомпьютеров

Статья 20 неожиданно, но логично, посвящена созданию вычислительной инфраструктуры. Развитие ИИ невозможно без огромных вычислительных мощностей. Закон предлагает специальные условия для центров обработки данных (ЦОД) и суперкомпьютеров, включенных в специальный перечень. Среди льгот — приоритетное подключение к сетям, льготные тарифы на электроэнергию, упрощенный порядок согласования. Это важнейший сигнал для инвесторов в дата-центры.

Риски и неопределенности

Несмотря на проработанность, закон содержит зоны риска:

1️⃣ Регуляторная гильотина: Обилие отсылочных норм («устанавливается Правительством», «определяется уполномоченным органом») означает, что реальное содержание закона будет определено подзаконными актами. Именно они решат, насколько сложно будет попасть в реестр доверенных моделей.

2️⃣ Барьеры для стартапов: Сложные требования к документированию, тестированию рисков и подтверждению соответствия могут стать неподъемными для малых инновационных компаний, замедляя появление новых игроков.

3️⃣ Изоляция vs. Интеграция: Требования технологической независимости и обязательное использование доверенных моделей в госсекторе могут привести к технологической изоляции и отставанию от глобального мейнстрима, если не будет налажен эффективный трансфер технологий из-за рубежа.

4️⃣ Неопределенность с цензурой: Формулировки о «традиционных ценностях» и полномочия специальной экспертной организации по оценке соответствия им моделей ИИ создают риск введения дополнительной идеологической цензуры для контента, генерируемого нейросетями.

Вывод

Проект Закона об ИИ — это комплексный документ, который пытается найти баланс между стимулированием инноваций и обеспечением безопасности. Он явно написан с оглядкой на западные аналоги (в первую очередь EU AI Act), но с сильным акцентом на государственный суверенитет и национальную безопасность.

Для рынка это означает:

➡️ Госсектор и КИИ станут закрытой вотчиной для сертифицированных отечественных вендоров.

➡️ Бизнес (B2C/B2B) столкнется с новыми требованиями по маркировке контента, защите прав потребителей и документированию процессов.

➡️ Разработчикам придется инвестировать в комплаенс и безопасность.

Успех закона будет зависеть не столько от его текста, сколько от того, как будет выстроена разрешительная система и подзаконное регулирование. Сможет ли Россия создать конкурентные «доверенные модели» и не задушить при этом частную инициативу — главный вопрос, ответ на который мы узнаем после 2027 года.

Опубликовано: