Российский ИИ-рынок: Пропасть разочарования
«Чубайсизация ИИ»: триллион рублей против триллиона долларов. Почему погоня за американскими технологиями через КПЭ и опенсорс ведёт в пропасть, а единственный шанс — асимметричные ответы: военный ИИ, стерилизация движков и внедрение снизу.
Двойная точка тупости: Почему российский ИИ-рынок движется к пропасти разочарования
В мире высоких технологий наступил момент странной определенности. Любая конференция — от стратегической сессии ФМБА по цифровизации до заседаний Экспертного совета при Минцифре — неизбежно скатывается в одно и то же русло: разговор об искусственном интеллекте. Даже на форуме «Человек-Бог-Мир» в Сретенском монастыре, где речь шла о границах человечности, главным героем обсуждения стал ИИ.
Но чем больше говорят о нейросетях и больших языковых моделях, тем острее ощущение, что мы наблюдаем не технологический рывок, а хорошо отрежиссированный ритуал. В центре этого ритуала — утвержденный Президентом 26 февраля Штаб по развитию ИИ. И именно его состав становится отправной точкой для тревожных размышлений.
Штаб из «эффективных менеджеров»
В новом органе управления нет ни Королевых, ни Курчатовых, ни Басовых. Там нет тех, кто понимает, как работает математика глубоких нейронных сетей. Вместо них — эффективные менеджеры. От Сбербанка — банкир, от Яндекса — таксист. Это не случайность, это системный подход, который можно назвать «чубайсизацией ИИ».
В планах Штаба отсутствует пункт «разработка собственно искусственного интеллекта». Там только «внедрение, внедрение, внедрение».
Как будто сам ИИ уже существует, причем в совершенной форме, и задача заключается лишь в том, чтобы «назначить ответственных» и заставить руководителей на местах использовать продукт.
Показательна логика топ-менеджера Т-Банка Близнюка: «Многие руководители недостаточно понимают ценность таких технологий... необходимо активно продвигать внедрение ИИ во всех отраслях... Это создаст спрос и сформирует кадровый резерв».
Логика выглядит абсурдной, если вдуматься: понимания нет, спроса нет, кадров нет, ресурсы выделять не хотят. Но внедрять нужно. Для этого введут КПЭ. Чтобы внедряли добровольно и с песней.
Эффект Даннинга-Крюгера и «дельта доширака»
Почему такая стратегия вообще возможна? Ответ кроется в психологии массового пользователя, включая самых высоких руководителей.
Качество современных генеративных моделей, как бы ни пытались их продавать как революцию, ухудшает всё, до чего касается. Гладкость генерации шлака повышается, но смысла не прибавляется. Однако публика теряет требовательность. Она глупеет быстрее, чем ИИ улучшается.
Можно вводить термин «двойная точка тупости и плато продуктивности», переосмысляя классическую кривую Гартнера.
Массовая публика давно находится в «дельте доширака». Ест и не жужжит. Качество устраивает, потому что настоящих «устриц» (качественного контента, глубокой экспертизы) эти люди не пробовали. Требовательности нет.
И эта же проблема характерна для тех, кто принимает решения. Замминистра, пресс-секретарь или священник, увидев сгенерированный красивыми буллитами текст, думают: «Нормально же работает». Они не видят разницы между имитацией интеллекта и реальным решением сложной задачи. Но именно им предстоит отвечать за внедрение.
Триллион рублей против триллиона долларов
Главная развилка находится не в плоскости менеджмента, а в плоскости ресурсов и геополитики.
«Итак, американцы сделали ИИ, но мы тоже не лыком шиты... Сделаем такой же, и даже лучше! Суверенный и национальный».
Сравнение выглядит удручающе:
▶️ США: авторы технологии. Они придумали глубокие нейронные сети, GPU, большие языковые модели, агентов. У них есть производство «карточек» (чипов) и триллион долларов инвестиций.
▶️ Россия: копировщики. С триллионом рублей в потном кулаке. И это при том, что рубль дешевле доллара в 80 раз, а авторы технологий уже запретили продавать нам передовые карточки и софт.
Разрыв в ресурсах — полтора-два порядка. Поезд ушел. Он уже превратился в точку на горизонте, а мы стоим с чемоданами на рельсах даже без билета.
Конспирология опенсорса или карго-культ?
Ключевой вопрос: почему американцы выкладывают в открытый доступ (опенсорс) свои технологии, пусть даже и позапрошлые версии? Ведь любая халява подозрительна.
Представьте, что Третий Рейх в 1943 году выложил бы чертежи своего супер-истребителя, чтобы противники бросили свои разработки и начали копировать устаревшую модель. Это удобно:
1️⃣ Направить производственную и научную мысль противника в заведомо догоняющее русло.
2️⃣ Задать *технологический разрыв', который невозможно преодолеть, так как для полноценного применения нужны мощности, которые есть только у автора.
С ИИ происходит то же самое. Всем внушают, что генеративные модели — это будущее войны. Рассказывают, как Palantir с помощью ИИ поражает цели, а операции планируются нейросетями. Все ведутся и копируют.
Наши «модели» — это результат скачивания, дистилляции и копирования того, что выложили американцы.
Но есть и более мягкая, хотя и не менее тревожная версия. Технический директор Крибрума, говорит: «Если где-то в мире есть что-то компьютерное — оно американское». Это факт. Компьютер, смартфон, интернет, текстовый редактор. Всё.
И в этом контексте специального злодейского замысла может и не быть. Просто умные люди создали мощный механизм (опенсорс) для себя. А то, что этот механизм действует на папуасов, поклонников карго-культа, как халявный наркотик — их проблемы.
Кривые Гартнера и ответственность
Пока наверху рассуждают о стратегиях, в реальном секторе нарастает вал проблем. Исследование стартапа Patronus AI показывает пугающие цифры:
✅ Вероятность ошибки ИИ-агента в комплексных задачах достигает 63% при 100 шагах.
✅ Если агенту нужно выполнить 5 действий, вероятность успеха — всего 32%.
✅ При 5 тысячах шагов, по словам главы DeepMind Демиса Хассабиса, вероятность выполнения задачи становится почти случайной.
Ну и зачем за это отвечать? Поэтому ИИ внедряют туда, где либо нет ответственности, либо где можно на нее не обращать внимания, списав всё на «решение алгоритма». Это создает серую зону, где можно делать кое-как.
Асимметричные ответы: куда двигаться на самом деле
Главный вывод: симметричный ответ (бежать туда же, куда бегут американцы, но с ресурсами в 80 раз меньше) — это путь в никуда.
Нужны асимметричные ответы. Как в свое время в военной сфере, когда на фоне полного развала материаловедения вдруг появились ракеты из чудо-материалов, не плавящихся при 5000 градусах.
Можно выделить несколько направлений, где уже сегодня можно работать эффективно, не пытаясь создать «второй ChatGPT»:
1. Военный ИИ
Здесь не нужны гигантские языковые модели. Нужны распознавалки: акустические сети для детекции дронов, системы захвата цели для дронов-камикадзе, автоматическое ПВО. Это тяжелая, нудная работа по созданию своих датасетов и доведению качества до «пяти девяток» (99,999%). Работа, которой не видно на совещаниях Штаба, но которая реально нужна.
2. Стерилизация чужих движков
Оказывается,можно создавать эталоны (качественные базы знаний) и «стерилизовать» любую модель ИИ. Гибрид, где чужой движок работает внутри отечественной технологической цепочки и при этом указывает на собственные ошибки, дает ссылки на эталоны. Это позволяет брать любые LLM, даже маленькие, и получать предсказуемый, «стерильный» результат, например, в образовании.
3. ИИзация снизу (пример Главгосэкспертизы)
Вместо гигантских кластеров— десятки малых систем для конкретных задач: обработка входящих документов, превращение их в машиночитаемые форматы. Не нужны огромные серверы, нужна конкретика. Экономия сил и отсутствие галлюцинаций здесь достигается не мощностью модели, а правильной архитектурой процесса.
4. «Мембрана программирования»
Китайская модель: заимствование кода из открытых репозиториев (которые остаются американскими) без обязательства выкладывать свое обратно. Создание собственных ассистентов программиста и репозиториев, работающих «в одну сторону». Это позволяет использовать наработанный в мире код, не попадая в ловушку полной изоляции.
Вместо эпилога: кто останется на плато?
Пузырь ИИ лопнет. Гигантский разрыв между вложениями и реальными доходами приведет к «пропасти разочарования», как и предсказывает классическая кривая Гартнера. На «плато продуктивности» выйдут только узкие, но реально работающие применения.
А куда денутся «верховные ИИ-холуи» — те самые эффективные менеджеры, которые сейчас требуют КПЭ по внедрению? Они найдут новую тему. Как раньше они переходили от нанотехнологий к цифровой экономике, от нее к блокчейну, а от него к ИИ. Скорее всего, следующим станут биотехнологии.
Останутся те, кто делает реальную, незаметную, но тяжелую работу: собирает датасеты, доводит до ума распознавание объектов, налаживает бизнес-процессы, встраивая ИИ как инструмент, а не как фетиш.
Пока же мы наблюдаем картину, когда «триллион рублей в потном кулаке» пытается догнать «триллион долларов» на поле, правила на котором написаны не нами. И единственный шанс не проиграть окончательно — перестать бежать за поездом и развернуться в сторону аэропорта. Даже если это потребует отменить часть красивых КПЭ и признать, что стратегия копирования позапрошлых версий оружия — это не суверенитет, а самоубийство.
Опубликовано:


