Доверенный ИИ: Технологии, зависимость и риски
Россия «вяло ковыряется в верхних слоях» ИИ с отставанием в 2-3 года, пока Nvidia и ASML формируют технологический фундамент. Упор на генеративный ИИ — стратегическая ошибка. Нам нужен большой госпроект, а не «рыночек».
Технологическая зависимость и стратегические риски: критический разбор состояния искусственного интеллекта в России
Введение: между риторикой и реальностью
В последние годы в России активно обсуждается развитие искусственного интеллекта. Проводятся форумы, принимаются стратегии, разрабатываются законопроекты. Однако за фасадом благих намерений и громких заявлений скрывается тревожная картина. Анализ дискуссий на профильных мероприятиях, в частности на форуме «Технологии доверенного ИИ», показывает опасный разрыв между официальным оптимизмом и реальным положением дел.
Массовое и хаотичное внедрение западных ИИ-решений уже произошло, а риски ИИ из абстрактной угрозы превратились в повседневную реальность, которую системно игнорируют на стратегических сессиях.
Системные упущения в публичном обсуждении
Важно понимать, о чём умалчивают докладчики на профильных форумах. В ходе обсуждений технологии доверенного ИИ целенаправленно обходились ключевые проблемы:
Вообще нет упоминаний про вторичность российского ИИ. Ни слова про текущую и будущую войну. Ни слова про запрет продавать нам графические карты и технологии ИИ.
Создаётся иллюзия, что Россия лишь «немного отстаёт», хотя в действительности технологический суверенитет страны находится под угрозой. Повторяющиеся тезисы о конкурентных преимуществах отечественной науки не подкрепляются реальным положением в глобальных рейтингах, где российские игроки не входят даже в первую двадцатку.
При этом отсутствует понимание масштаба необходимых усилий. Распространено заблуждение, что «рыночек порешает» — что крупный цифровой бизнес, такой как Сбербанк или Яндекс, решит все проблемы при минимальной поддержке государства. Однако критически важные проекты, сравнимые по значимости с атомным или ракетным, не могут быть оставлены на откуп рыночной стихии.
Слепая зона регулирования: неочевидные угрозы
Наибольшую тревогу вызывает то, что обсуждение «доверенности» ИИ практически полностью свелось к вопросам кибербезопасности. Темы массовых утечек данных, а также риски внедрения ИИ в социальную сферу, образование, госуправление, законодательную и судебную ветви власти остались без внимания.
Риски, которые не обсуждаются, но уже работают:
1️⃣ Катастрофа в образовании: студенты и преподаватели массово фальсифицируют учебные и рабочие процессы с помощью ИИ, что приводит к когнитивным травмам у учащихся.
2️⃣ Фальсификация профессиональной деятельности: аналитики, законодатели, судьи, чиновники и журналисты всё чаще полагаются на генеративные модели без должной проверки результатов.
3️⃣ Информационные войны: вал дипфейков, вербовка и мошенничество с использованием ИИ, применение его как идеологического оружия в выборные годы.
Пищевая цепочка генеративного ИИ: кто реально владеет технологией
Непонимание предмета обсуждения усугубляется незнанием базовой структуры отрасли. Технологическая цепочка генеративного ИИ представляет собой многоуровневую пирамиду, где российские разработчики присутствуют лишь на двух «верхних этажах» (уровни 5 и 6).
Представим уровни генеративного ИИ снизу вверх:
➡️ Уровень 1 (Литографы): Фактический монополист — голландская ASML, контролируемая американскими BlackRock и Vanguard.
➡️ Уровень 2 (GPU): Мировой монополист — американская Nvidia. Продавать графические карты русским, китайцам и иранцам запрещено. Это «красная зона» для России.
➡️ Уровень 3 (Платформа CUDA): Монополист — Nvidia. CUDA является аналогом Windows для ИИ.
➡️ Уровень 4 (Нейронные фреймворки): Фактические монополисты — Facebook и Google.
➡️ Уровень 5 (Большие лингвистические модели и данные): 25–30 разработчиков в мире, включая Сбербанк.
➡️ Уровень 6 (Пользовательские интерфейсы и «веса»): Десятки разработчиков, включая американцев, китайцев, Яндекс и Сбербанк.
Российские разработки вяло представлены на уровнях 5 и 6. В критически важных уровнях с 1 по 4 у нас ничего нет.
Проблема «отвёрточной сборки» и отставания
Отечественные разработчики работают преимущественно на уровнях 5 и 6, что можно назвать крупноблочной сборкой или «отвёрточной» локализацией. Степень реальной локализации вряд ли превышает 20%. Архитектура больших языковых моделей, а также веса и датасеты в РФ в основном заимствованы из американских и китайских проектов. Очистить их от «вражеской повестки» до конца не удаётся.
Качество российских БЯМ отстаёт от мировых лидеров на 2–3 года. Все сравнения Сбербанка и Яндекса проводятся с американскими и китайскими моделями двухлетней давности. При этом отрыв увеличивается каждый квартал. В таких условиях говорить о создании «доверенного ИИ» не приходится.
Стратегическая ошибка: не тот ИИ, не для того
Анализ назначений различных типов ИИ показывает, что государственная стратегия делает ставку не на те технологии.
Почти все применения генеративного ИИ — сомнительные, рискованные или вредные.
Пока во всех стратегиях и законопроекте Минцифры упор делается на зрелищный генеративный ИИ, реальные потребности страны лежат в другой плоскости.
Приоритетные направления для России
1️⃣ Распознавание (лица, объекты, голос, документы): критически важно для войны (поиск целей, БПЛА, ПВО), безопасности (поиск преступников, опасных предметов) и народного хозяйства (контроль дефектов, поиск пожаров и месторождений).
2️⃣ Управление (беспилотники, механизмы, процессы): необходимо для БПЛА и управления боем, беспилотного транспорта, сельхозтехники, логистики, а также для дискретного и непрерывного производства.
3️⃣ Генеративный ИИ: его полезность ограничена программированием и наукой. Большинство других применений (креативные индустрии, законотворчество, госуправление) несут высокие риски, включая фальсификацию работ и создание дипфейков.
Массовый упор на генеративный ИИ это стратегическая ошибка.
Нам нужен большой государственный ИИ-проект, аналог ядерного и ракетного проектов 1940-х годов. Ни рыночные игроки, ни корпорации вроде Сбербанка и Яндекса не решат проблему системного отставания, каких бы преференций им ни дали.
Расширяя понятие рисков: человеческий фактор
В дополнение к уже существующему списку угроз, необходимо включить в него проблему отчуждения. ИИ всё чаще используется чиновниками и корпорациями в качестве барьера между гражданином и властью. Государственное регулирование должно гарантировать человеку возможность преодолеть этот барьер и достучаться до живого чиновника или оператора службы поддержки.
Кроме того, полезный ИИ в управлении должен развиваться как интегрированные интеллектуальные системы. Например, для военных целей распознавание и управление — это не две разные задачи, а единая система управления боем, которая сначала распознаёт цели, а затем распределяет их между ударными БПЛА.
Заключение: путь от слов к делу
Ситуация в российской сфере ИИ требует немедленной смены парадигмы. Необходимо признать факт технологической зависимости на нижних уровнях, отказаться от иллюзий «рыночного саморегулирования» и пересмотреть приоритеты в пользу распознавания и управления. Без большого государственного проекта и честной оценки рисков страна рискует навсегда остаться на периферии технологической революции, используя чужие решения с многолетней задержкой и для чужих, а не для своих целей.
Опубликовано:



