Критика проекта Федерального закона об ИИ

Эксперты раскритиковали законопроект об ИИ в России: размытые понятия, нерабочие термины и невыполнимые требования к «национальному ИИ». Вместо развития отрасли документ создает риски и правовую неопределенность для бизнеса.

Концептуальные провалы и риски для отрасли

В экспертной среде активно обсуждается проект Федерального закона «Об искусственном интеллекте в Российской Федерации и внесении изменений в отдельные законодательные акты Российской Федерации». Документ, призванный стать фундаментом правового регулирования одной из самых перспективных технологий современности, подвергся жесткой и обоснованной критике.

Анализ текста законопроекта выявляет ряд системных проблем, которые ставят под сомнение саму возможность его эффективной работы. От размытости базовых понятий до невыполнимых требований к «национальному ИИ» — закон в текущей редакции может не только не помочь развитию отрасли, но и создать для нее непреодолимые барьеры.

Терминологическая ловушка: когда закон не говорит на языке права

Ключевой и, пожалуй, самый серьезный недостаток законопроекта — катастрофически низкое качество проработки понятийного аппарата. Статья 3, которая должна задавать аксиомы регулирования, вместо этого создает зону правовой неопределенности.

▶️ Во-первых, определение самого понятия «искусственный интеллект» механически перенесено из Национальной стратегии развития ИИ до 2030 года. Оно содержит некорректное сравнение с «имитацией когнитивных функций человека», что делает определение чрезмерно широким и философским.

Использовать такую формулировку для фиксации прав и обязанностей в юридическом документе — значит закладывать мину замедленного действия под все правоприменение.

▶️ Во-вторых, законопроект вводит избыточное количество смежных, но четко не разграниченных терминов:

  • «искусственный интеллект»,
  • «система ИИ»,
  • «сервис ИИ»,
  • «модель ИИ»,
  • «технологии ИИ».

Вместо стройной иерархии мы видим путаницу. Например, понятие «технологии ИИ» представляет собой произвольный перечень функций (компьютерное зрение, обработка естественного языка), не имеющий самостоятельных юридических признаков. Определение «системы ИИ» фактически приравнивается к «модели ИИ», а определение последней частично дублирует определение самого ИИ, создавая замкнутый круг.

Особую тревогу вызывает подмена юридических понятий техническими.

Дефиниция «разработчика ИИ» как лица, осуществляющего «подбор набора параметров и весов», является сугубо технической и не имеет юридического наполнения. Такие формулировки должны содержаться в ГОСТах и технических регламентах, но не в федеральном законе, где они остаются нераскрытыми и непонятными для правоприменителя. В итоге терминология закона признается экспертами неработоспособной.

Декларация вместо регуляторики: призрачные принципы безопасности

Статья, посвященная принципам регулирования, представляет собой компиляцию общих фраз, скопированных из иных нормативных актов и не адаптированных под специфику ИИ. Закон полностью обходит стороной одну из фундаментальных проблем технологии — «проблему черного ящика», то есть отсутствие объяснимости и прозрачности принимаемых алгоритмами решений. Без законодательного закрепления принципа объяснимости невозможно говорить о доверии к системам ИИ.

Принцип безопасности сформулирован абстрактно.

На протяжении всего текста слово «безопасность» встречается лишь в общих формулировках, при этом отсутствуют:

  • Конкретные требования к безопасности систем ИИ;
  • Отсылки к подзаконным актам, которые могли бы установить такие требования;
  • Механизмы контроля и надзора.

Закон не создает даже минимальных барьеров для безопасного использования технологии, оставляя этот вопрос на откуп разработчикам и операторам, что в условиях автономности и непредсказуемости ИИ является серьезным упущением.

Внутренние противоречия и «мертвые» нормы

Текст законопроекта наполнен логическими нестыковками, которые делают его несистемным.

1️⃣ Ответственность: Нормы об ответственности сформулированы декларативно. Они просто отсылают к действующему законодательству, не определяя стандартов осмотрительности для разработчиков с учетом специфики ИИ. Это создает правовую неопределенность и риски для бизнеса, который не понимает, за что именно он может понести ответственность.

2️⃣ Бессмысленные нормы: Закон содержит множество «мертвых» положений, дублирующих общий запрет нарушать законодательство или сводящихся к обязанности соблюдать заключенные договоры.

3️⃣ Путаница в понятиях: Не разграничены ключевые для дальнейшего правоприменения понятия «результат, полученный с использованием ИИ» и «синтезированный материал». В тексте смешиваются «применение» и «внедрение», термины «технологии», «модели», «системы» используются как взаимозаменяемые, хотя по определению статьи 3 таковыми не являются. Встречаются даже опечатки, что говорит о низком качестве подготовки документа.

Интеллектуальная собственность: вторжение без решения проблем

Законопроект вторгается в сферу интеллектуальной собственности, но вместо решения существующих проблем создает новые. Норма об авторстве на произведения,созданные с использованием ИИ, не учитывает фундаментальные положения Гражданского кодекса и не проясняет вопросы режима неимущественных прав.

Упоминание «технологий ИИ» (компьютерное зрение и т.д.) в контексте создания произведений является юридически некорректным, так как эти функции сами по себе не создают объективированных творческих результатов. Кроме того,норма о свободном использовании произведений для обучения моделей ИИ по своей сути должна быть органичной частью Гражданского кодекса, а не вноситься «точечно» через профильный закон об ИИ.

Такой подход нарушает системность гражданского законодательства.

Фантастический «суверенный ИИ»: невыполнимые требования

Одним из самых опасных для рынка положений является введение категорий «суверенной» и «национальной» модели ИИ. Критерии, предъявляемые к ним, выглядят оторванными от реальности.

Требование о полной разработке,обучении и эксплуатации исключительно силами граждан РФ и без использования зарубежных компонентов (включая открытый исходный код — open-source) игнорирует глобальную природу разработки ПО.

Модель ИИ определяется как программа для ЭВМ, и создание конкурентного продукта в изоляции от мирового опыта и наработок (особенно open-source библиотек) в обозримом будущем физически невозможно.

Более того, требование об обязательной предустановке таких моделей на технически сложные товары фактически запретит оборот всех современных устройств с функциями ИИ в России. Это прямой путь к технологической изоляции и стагнации потребительского рынка.

Заключение: зона молчания и концептуальные провалы

Помимо перечисленных недостатков, законопроект оставляет за скобками целые пласты важнейших аспектов, без которых регулирование не может считаться комплексным:

1️⃣ Отсутствует регулирование федерального государственного контроля (надзора) в сфере ИИ.

2️⃣ Не проработаны полномочия уполномоченного государственного органа.

3️⃣ Игнорируется вопрос права человека на отказ от взаимодействия с ИИ.

4️⃣ Нет специфики использования ИИ в социальной сфере, госуправлении.

5️⃣ Отсутствуют проработанные правила страхования ответственности участников рынка.

6️⃣ Не внесены необходимые изменения в отраслевое законодательство (Проект ограничивается правками лишь в Закон «О защите прав потребителей»).

Таким образом, законопроект в текущей редакции характеризуется разбалансированностью понятийного аппарата, декларативностью, внутренними противоречиями и наличием невыполнимых требований. Вместо создания условий для безопасного и устойчивого развития технологий искусственного интеллекта в России, он рискует стать тормозом для отрасли, породив правовую неопределенность и создав нежизнеспособные барьеры.

Документ нуждается в полной и концептуальной переработке с участием широкого круга экспертов, представляющих как государство, так и бизнес-сообщество.

Опубликовано: