ИИ как инструмент пропаганды
Технологии искусственного интеллекта, призванные стать инструментом объективного знания, превращаются в оружие целевого влияния. Правительства и корпорации тратят миллионы, чтобы формировать нужные им нарративы через чат-ботов.
🚀 Цифровая пропаганда 2.0: ИИ эффективно используют для незаметного управления мнением
Новый фронт информационных войн
В октябре 2025 года правительство Израиля заключило контракт на $6 млн с компанией Clock Tower X. Цель — борьба с антисемитизмом в США с помощью «GPT-фрейминга» — технологии, позволяющей влиять на ответы ИИ-ботов. Это не единичный случай. На наших глазах формируется «серый рынок» агентств, которые за деньги меняют то, что искусственный интеллект считает истиной, продвигая выгодные заказчикам версии событий.
Повод для тревоги серьёзен: согласно данным Reuters Institute, уже 24% людей используют ИИ для поиска информации (против 11% год назад). Такие системы, как ChatGPT, еженедельно посещают более 800 млн пользователей. При этом доверие к ним аномально высоко — лишь 1% пользователей проверяет источники, на которые ссылаются боты.
Как «отравляют» искусственный интеллект
Доверие к чат-ботам растёт, но их «мнения» формируются на основе анализа миллионов веб-страниц. Исследование компании Anthropic показало, что для изменения вывода системы достаточно «отравить» всего 0,00016% её обучающих данных. Проще говоря: если бот анализирует миллион страниц о событии, изменение 160 из них способно сделать его вывод тенденциозным. А если новость свежая и источников мало, достаточно добавить два-три ложных, чтобы кардинально повлиять на ответ.
На этом играют консалтинговые и PR-агентства. Например, американское лоббистское агентство DDC Public Affairs предлагает клиентам «аудит с использованием ИИ», чтобы понять, что о них «думают» чат-боты, а затем — исправить нежелательные нарративы.
Методы включают:
▶️ Договорённости с источниками, которые ИИ считает авторитетными, о публикации «правильных» текстов.
▶️ Наполнение статей наукообразной статистикой и цитатами — ИИ, как и люди, склонен доверять формальным признакам авторитетности.
▶️ Редактирование статей «Википедии» — ключевого источника для многих языковых моделей.
Роботы-агитаторы: от сбора средств до дипфейков
Политические кампании уже активно используют ИИ не только для анализа, но и для прямого воздействия:
1️⃣ Персонализированная агитация: Анализируя цифровой след избирателя (историю голосований, посты, покупки), ИИ определяет его страхи и предпочтения, а затем обращается с индивидуально подобранными сообщениями. Штаб Дональда Трампа успешно применял эту тактику.
2️⃣ Круглосуточное взаимодействие: Чат-боты, как в команде Роберта Кеннеди-младшего, ведут диалоги с тысячами сторонников, подстраивая стиль общения.
3️⃣ Генерация фейков: Нейросети стирают грань между правдой и вымыслом. На Тайване дипфейк с кандидатом в президенты набрал десятки тысяч репостов. В США робот с голосом Байдена звонил избирателям, призывая не голосовать за него.
Даже безобидные на первый взгляд мемы (например, с кандидатами, танцующими болливудские танцы) могут формировать предпочтения избирателей, если становятся виральнее официальных обращений.
Убедительнее телевидения: опасная эффективность
Исследования, опубликованные в журналах Science и Nature, подтверждают: ИИ эффективнее меняет мнения, чем традиционные медиа. В эксперименте с участием 2000 избирателей чат-боты меняли политические симпатии в 4% случаев — результат в несколько раз выше, чем у средней ТВ-рекламы. В других странах эффективность была ещё выше.
Любопытен и ключевой метод убеждения, выявленный учёными. Лучше всего работает не эмпатия или апелляция к ценностям, а простой большой объём аргументов. Чем длиннее и насыщеннее примерами был ответ бота, тем легче человек менял точку зрения — даже если часть примеров была сфальсифицирована. Это прямое подтверждение «теории болтовни» в психологии: убеждает тот, кто говорит много и уверенно.
Мир будущего: всеобщая слежка или апатия?
Оптимистичные прогнозы, подобные идее Илона Маска об «ИИ как беспристрастном собрании знаний», сталкиваются с мрачной реальностью. Эксперты, как исследовательница Джейми Фентон в отчёте Global Challenges Foundation, предупреждают: технологии могут стать инструментом тотального контроля узкой элиты, где «права человека превратятся в оксюморон».
Есть и другой риск — циничная апатия. Устав от потока манипуляций, люди могут перестать доверять чему бы то ни было. Опросы показывают, что многие избиратели уже уверены: они не смогут отличить правду от лжи в интернете. Это угроза самой основе демократического участия.
Цифровая гигиена: как защититься?
Эксперты дают несколько простых советов для самозащиты:
1. Не торопитесь делиться. Эмоциональный контент (особенно вызывающий гнев или страх) часто создан, чтобы спровоцировать реакцию. Сделайте паузу.
2. Проверяйте источник. Кто опубликовал информацию первым? Это известное издание или анонимный аккаунт? Будьте осторожны со скриншотами и обрезанными видео.
3. Внимательно анализируйте медиа. В видео ищите неестественные движения губ, глаз, странное освещение. В аудио — необычные паузы и монотонность.
4. Не доверяйте ИИ слепо. Помните: боты «галлюцинируют», а их базы знаний можно «отравить». Перепроверяйте ключевые факты.
5. Просвещайте мягко. Если близкие делятся фейками, тактично укажите на это, не переходя на личности.
Парадоксальный луч надежды видят для традиционной журналистики. В мире, где ответ ИИ нельзя оспорить с человеком, ценность изданий и авторов, несущих ответственность за свои слова, может снова возрасти. Главное — сохранить и заработать то самое доверие, которым теперь так легко манипулировать.
Опубликовано:

