Доверенный ИИ: Технологии, зависимость и риски

Россия «вяло ковыряется в верхних слоях» ИИ с отставанием в 2-3 года, пока Nvidia и ASML формируют технологический фундамент. Упор на генеративный ИИ — стратегическая ошибка. Нам нужен большой госпроект, а не «рыночек».

Доверенный ИИ

Технологическая зависимость и стратегические риски: критический разбор состояния искусственного интеллекта в России

Введение: между риторикой и реальностью

В последние годы в России активно обсуждается развитие искусственного интеллекта. Проводятся форумы, принимаются стратегии, разрабатываются законопроекты. Однако за фасадом благих намерений и громких заявлений скрывается тревожная картина. Анализ дискуссий на профильных мероприятиях, в частности на форуме «Технологии доверенного ИИ», показывает опасный разрыв между официальным оптимизмом и реальным положением дел.

Массовое и хаотичное внедрение западных ИИ-решений уже произошло, а риски ИИ из абстрактной угрозы превратились в повседневную реальность, которую системно игнорируют на стратегических сессиях.

Системные упущения в публичном обсуждении

Важно понимать, о чём умалчивают докладчики на профильных форумах. В ходе обсуждений технологии доверенного ИИ целенаправленно обходились ключевые проблемы:

Вообще нет упоминаний про вторичность российского ИИ. Ни слова про текущую и будущую войну. Ни слова про запрет продавать нам графические карты и технологии ИИ.

Создаётся иллюзия, что Россия лишь «немного отстаёт», хотя в действительности технологический суверенитет страны находится под угрозой. Повторяющиеся тезисы о конкурентных преимуществах отечественной науки не подкрепляются реальным положением в глобальных рейтингах, где российские игроки не входят даже в первую двадцатку.

При этом отсутствует понимание масштаба необходимых усилий. Распространено заблуждение, что «рыночек порешает» — что крупный цифровой бизнес, такой как Сбербанк или Яндекс, решит все проблемы при минимальной поддержке государства. Однако критически важные проекты, сравнимые по значимости с атомным или ракетным, не могут быть оставлены на откуп рыночной стихии.

Форум технологии доверенного ии

Слепая зона регулирования: неочевидные угрозы

Наибольшую тревогу вызывает то, что обсуждение «доверенности» ИИ практически полностью свелось к вопросам кибербезопасности. Темы массовых утечек данных, а также риски внедрения ИИ в социальную сферу, образование, госуправление, законодательную и судебную ветви власти остались без внимания.

Риски, которые не обсуждаются, но уже работают:

1️⃣ Катастрофа в образовании: студенты и преподаватели массово фальсифицируют учебные и рабочие процессы с помощью ИИ, что приводит к когнитивным травмам у учащихся.

2️⃣ Фальсификация профессиональной деятельности: аналитики, законодатели, судьи, чиновники и журналисты всё чаще полагаются на генеративные модели без должной проверки результатов.

3️⃣ Информационные войны: вал дипфейков, вербовка и мошенничество с использованием ИИ, применение его как идеологического оружия в выборные годы.

Пищевая цепочка генеративного ИИ: кто реально владеет технологией

Непонимание предмета обсуждения усугубляется незнанием базовой структуры отрасли. Технологическая цепочка генеративного ИИ представляет собой многоуровневую пирамиду, где российские разработчики присутствуют лишь на двух «верхних этажах» (уровни 5 и 6).

Представим уровни генеративного ИИ снизу вверх:

➡️ Уровень 1 (Литографы): Фактический монополист — голландская ASML, контролируемая американскими BlackRock и Vanguard.

➡️ Уровень 2 (GPU): Мировой монополист — американская Nvidia. Продавать графические карты русским, китайцам и иранцам запрещено. Это «красная зона» для России.

➡️ Уровень 3 (Платформа CUDA): Монополист — Nvidia. CUDA является аналогом Windows для ИИ.

➡️ Уровень 4 (Нейронные фреймворки): Фактические монополисты — Facebook и Google.

➡️ Уровень 5 (Большие лингвистические модели и данные): 25–30 разработчиков в мире, включая Сбербанк.

➡️ Уровень 6 (Пользовательские интерфейсы и «веса»): Десятки разработчиков, включая американцев, китайцев, Яндекс и Сбербанк.

Российские разработки вяло представлены на уровнях 5 и 6. В критически важных уровнях с 1 по 4 у нас ничего нет.

Проблема «отвёрточной сборки» и отставания

Отечественные разработчики работают преимущественно на уровнях 5 и 6, что можно назвать крупноблочной сборкой или «отвёрточной» локализацией. Степень реальной локализации вряд ли превышает 20%. Архитектура больших языковых моделей, а также веса и датасеты в РФ в основном заимствованы из американских и китайских проектов. Очистить их от «вражеской повестки» до конца не удаётся.

Качество российских БЯМ отстаёт от мировых лидеров на 2–3 года. Все сравнения Сбербанка и Яндекса проводятся с американскими и китайскими моделями двухлетней давности. При этом отрыв увеличивается каждый квартал. В таких условиях говорить о создании «доверенного ИИ» не приходится.

Стратегическая ошибка: не тот ИИ, не для того

Анализ назначений различных типов ИИ показывает, что государственная стратегия делает ставку не на те технологии.

Почти все применения генеративного ИИ — сомнительные, рискованные или вредные.

Пока во всех стратегиях и законопроекте Минцифры упор делается на зрелищный генеративный ИИ, реальные потребности страны лежат в другой плоскости.

Приоритетные направления для России

1️⃣ Распознавание (лица, объекты, голос, документы): критически важно для войны (поиск целей, БПЛА, ПВО), безопасности (поиск преступников, опасных предметов) и народного хозяйства (контроль дефектов, поиск пожаров и месторождений).

2️⃣ Управление (беспилотники, механизмы, процессы): необходимо для БПЛА и управления боем, беспилотного транспорта, сельхозтехники, логистики, а также для дискретного и непрерывного производства.

3️⃣ Генеративный ИИ: его полезность ограничена программированием и наукой. Большинство других применений (креативные индустрии, законотворчество, госуправление) несут высокие риски, включая фальсификацию работ и создание дипфейков.

Массовый упор на генеративный ИИ это стратегическая ошибка.

Нам нужен большой государственный ИИ-проект, аналог ядерного и ракетного проектов 1940-х годов. Ни рыночные игроки, ни корпорации вроде Сбербанка и Яндекса не решат проблему системного отставания, каких бы преференций им ни дали.

Расширяя понятие рисков: человеческий фактор

В дополнение к уже существующему списку угроз, необходимо включить в него проблему отчуждения. ИИ всё чаще используется чиновниками и корпорациями в качестве барьера между гражданином и властью. Государственное регулирование должно гарантировать человеку возможность преодолеть этот барьер и достучаться до живого чиновника или оператора службы поддержки.

Кроме того, полезный ИИ в управлении должен развиваться как интегрированные интеллектуальные системы. Например, для военных целей распознавание и управление — это не две разные задачи, а единая система управления боем, которая сначала распознаёт цели, а затем распределяет их между ударными БПЛА.

Заключение: путь от слов к делу

Ситуация в российской сфере ИИ требует немедленной смены парадигмы. Необходимо признать факт технологической зависимости на нижних уровнях, отказаться от иллюзий «рыночного саморегулирования» и пересмотреть приоритеты в пользу распознавания и управления. Без большого государственного проекта и честной оценки рисков страна рискует навсегда остаться на периферии технологической революции, используя чужие решения с многолетней задержкой и для чужих, а не для своих целей.

Опубликовано: