Анализ проекта Закона об ИИ в России
Проект закона об ИИ в России: тотальный суверенитет или тормоз для инноваций? Разбираем ключевые нормы — доверенные модели, запрет на эксплуатацию уязвимостей, регулирование больших данных и новые требования к разработчикам.
Цифровой суверенитет vs. Инновации
Анализ проекта Закона "Об основах государственного регулирования сфер применения технологий искусственного интеллекта в Российской Федерации"
18 марта 2026 года на публичное обсуждение был вынесен текст проекта федерального закона «Об основах государственного регулирования сфер применения технологий искусственного интеллекта в Российской Федерации». Этот документ, вносимый Правительством, знаменует собой попытку создания всеобъемлющей правовой рамки для одной из самых динамично развивающихся технологических сфер.
Закон вступает в силу лишь с 1 сентября 2027 года, что указывает на понимание законодателем сложности предмета и необходимости переходного периода. Тем не менее, уже сейчас можно провести детальный анализ положений документа, оценить его потенциальное влияние на рынок, права граждан и будущее технологий в России.
Ссылки по теме:
- Оригинальный документ
Предмет регулирования и сфера действия
Закон претендует на регулирование всех отношений, связанных с разработкой, внедрением и использованием ИИ в России. Цели, заявленные в статье 1, амбициозны: от ускоренного развития технологий до обеспечения безопасности личности и государства.
Ключевой момент: Действие закона не распространяется на сферы обороны, безопасности государства и правопорядка (ст. 1, ч. 4). Это классическая практика, однако она создает «разрыв» в правовом поле: технологии, разработанные для военных или полицейских целей, при переходе в гражданский сектор могут оказаться неурегулированными.
Понятийный аппарат: от «доверенных моделей» до «эксплуатации уязвимостей»
Закон вводит развернутую терминологию (ст. 3), что является его несомненным плюсом. Четко разделяются понятия модели, системы и сервиса ИИ, определяются субъекты (разработчик, оператор, владелец, пользователь).
Обращают на себя внимание несколько новелл:
1️⃣ Большие фундаментальные модели (БФМ): Закон выделяет их в отдельную категорию, признавая их роль как основы для других продуктов. Порог количества параметров будет устанавливать уполномоченный орган.
2️⃣ Доверенные модели ИИ: Ключевое понятие для госсектора. Модель становится «доверенной» только после включения в специальный реестр и соответствия требованиям безопасности (от ФСТЭК/ФСБ) и качества (от отраслевых регуляторов).
3️⃣ Эксплуатация уязвимостей человека: Впервые на законодательном уровне вводится запрет на использование возрастных, психологических или когнитивных особенностей человека для манипуляции.
Идеологический фундамент: безопасность и традиционные ценности
Статья 4 задает идеологический вектор регулирования. Наряду с классическими принципами (верховенство прав человека, риск-ориентированный подход) закон включает принципы «технологической независимости» и «учета традиционных российских духовно-нравственных ценностей».
Это сигнал рынку: разработка ИИ в России должна опираться на суверенные технологии и соответствовать определенному мировоззренческому фильтру. Статья 7 развивает эту идею, вводя понятия суверенной и национальной моделей ИИ, разработка которых должна вестись на территории РФ силами российских граждан и компаний.
«Доверенный режим» для госсектора
Статья 8 — одна из самых значимых для бизнеса. Она устанавливает, что в государственных информационных системах (ГИС) и на объектах критической информационной инфраструктуры (КИИ) могут применяться только доверенные модели ИИ, включенные в реестр.
Это создает:
1. Барьер для иностранных вендоров: Зарубежные модели (например, OpenAI или Anthropic) де-юре не могут быть использованы в ГИС, так как вряд ли смогут подтвердить обработку данных на территории РФ и соответствие требованиям ФСТЭК/ФСБ.
2. Рынок для отечественных разработчиков: Возникает замкнутый цикл спроса со стороны государства. Однако получение статуса «доверенной модели» потребует прохождения сложных процедур подтверждения соответствия, что может быть под силу только крупным игрокам.
Права граждан и ответственность: бремя доказывания
Закон гарантирует гражданам право знать о взаимодействии с ИИ (ст. 9) и возможность обжалования решений, принятых с его помощью. Важным является право на альтернативное обслуживание без использования ИИ для тех, кто от него отказался.
Ключевой момент — ответственность (ст. 11). Закон вводит презумпцию виновности разработчика или оператора: они несут ответственность за вред, причиненный ИИ, если не докажут, что не знали и не должны были знать о возможности такого результата. Это серьезный стимул для внедрения систем документирования, логирования и тестирования рисков (ст. 10).
Интеллектуальная собственность и «Большие данные»
Статья 13 затрагивает больную тему — обучение ИИ на охраняемых объектах. Закон предлагает компромиссное решение: не является нарушением извлечение информации (text and data mining) из правомерно полученных произведений для обучения ИИ. Это легализует парсинг и анализ данных, но с оговоркой — нужен «правомерный экземпляр» произведения.
В части охраны результатов творчества ИИ закон отсылает к Гражданскому кодексу, признавая объектами только оригинальные творения, независимо от способа создания. Это оставляет открытым вопрос: будет ли считаться «оригинальным» контент, сгенерированный нейросетью?
Международный аспект: экспорт стандартов
Раздел о международном сотрудничестве (ст. 15-18) написан в парадигме продвижения российских подходов. Цель — формирование «единого пространства доверенных технологий» под эгидой РФ и экспорт российских стандартов регулирования. Это попытка создать альтернативный западному (ЕС, США) полюс регулирования ИИ.
Экономические стимулы: энергетика для суперкомпьютеров
Статья 20 неожиданно, но логично, посвящена созданию вычислительной инфраструктуры. Развитие ИИ невозможно без огромных вычислительных мощностей. Закон предлагает специальные условия для центров обработки данных (ЦОД) и суперкомпьютеров, включенных в специальный перечень. Среди льгот — приоритетное подключение к сетям, льготные тарифы на электроэнергию, упрощенный порядок согласования. Это важнейший сигнал для инвесторов в дата-центры.
Риски и неопределенности
Несмотря на проработанность, закон содержит зоны риска:
1️⃣ Регуляторная гильотина: Обилие отсылочных норм («устанавливается Правительством», «определяется уполномоченным органом») означает, что реальное содержание закона будет определено подзаконными актами. Именно они решат, насколько сложно будет попасть в реестр доверенных моделей.
2️⃣ Барьеры для стартапов: Сложные требования к документированию, тестированию рисков и подтверждению соответствия могут стать неподъемными для малых инновационных компаний, замедляя появление новых игроков.
3️⃣ Изоляция vs. Интеграция: Требования технологической независимости и обязательное использование доверенных моделей в госсекторе могут привести к технологической изоляции и отставанию от глобального мейнстрима, если не будет налажен эффективный трансфер технологий из-за рубежа.
4️⃣ Неопределенность с цензурой: Формулировки о «традиционных ценностях» и полномочия специальной экспертной организации по оценке соответствия им моделей ИИ создают риск введения дополнительной идеологической цензуры для контента, генерируемого нейросетями.
Вывод
Проект Закона об ИИ — это комплексный документ, который пытается найти баланс между стимулированием инноваций и обеспечением безопасности. Он явно написан с оглядкой на западные аналоги (в первую очередь EU AI Act), но с сильным акцентом на государственный суверенитет и национальную безопасность.
Для рынка это означает:
➡️ Госсектор и КИИ станут закрытой вотчиной для сертифицированных отечественных вендоров.
➡️ Бизнес (B2C/B2B) столкнется с новыми требованиями по маркировке контента, защите прав потребителей и документированию процессов.
➡️ Разработчикам придется инвестировать в комплаенс и безопасность.
Успех закона будет зависеть не столько от его текста, сколько от того, как будет выстроена разрешительная система и подзаконное регулирование. Сможет ли Россия создать конкурентные «доверенные модели» и не задушить при этом частную инициативу — главный вопрос, ответ на который мы узнаем после 2027 года.
Опубликовано:



