Как мошенники применяют искусственный интеллект
Современные технологии открывают человечеству невероятные возможности, но вместе с ними стремительно нарастают и риски. Искусственный интеллект (ИИ), созданный для упрощения жизни, все чаще становится инструментом в руках киберпреступников.
Мошенничество с применением продвинутых алгоритмов машинного обучения превращается в одну из самых опасных тенденций XXI века. Используя возможности ИИ для анализа данных, создания синтетических голосов и поддельных изображений, злоумышленники изобретают изощренные способы обмана, манипулируя доверием пользователей интернета и мобильных платформ. Эксперты по кибербезопасности банка ПСБ поделились с РИА Новости подробностями о том, как действуют современные мошенники и как защититься от их уловок.
Варианты мошенничества
Фальшивые голосовые сообщения
Один из самых распространенных видов афер, по данным ПСБ, — это создание фальшивых голосовых сообщений с помощью ИИ. Мошенническая схема обычно начинается с захвата аккаунта жертвы в мессенджере. Злоумышленники прибегают к уловкам вроде фальшивых просьб о помощи ("Проголосуйте за моего родственника в конкурсе!"). Жертву убеждают ввести свой номер телефона и код из СМС, что позволяет преступникам получить доступ к ее учетной записи.
Далее мошенники собирают голосовые сообщения, ранее отправленные владельцем аккаунта, и используют их как основу для создания поддельных аудио. С помощью технологий ИИ они генерируют фальшивые сообщения, в которых голос звучит идентично голосу жертвы. Эти записи рассылаются контактам из списка друзей с просьбами о срочной финансовой помощи, например: "Одолжи деньги, срочно нужно до утра!" Убедительность таких сообщений делает их особенно опасными, ведь люди склонны доверять голосу знакомого человека, не подозревая подвоха.
Фейковые видеоролики-кружочки в Telegram
Еще один популярный способ обмана связан с использованием коротких видеороликов, так называемых "кружочков", в Telegram. Схема начинается с захвата аккаунта жертвы, после чего мошенники анализируют доступные фотографии, загруженные самим пользователем. Используя снимок из профиля, ИИ создает реалистичные видеоролики, имитирующие движения лица, мимику и жесты жертвы.
Такие поддельные "кружочки" публикуются от имени владельца аккаунта, вызывая доверие у друзей и знакомых. Затем мошенники рассылают сообщения с просьбами о деньгах, подкрепляя их визуальной "достоверностью". Этот метод обмана становится все популярнее из-за простоты реализации и высокой эффективности, поскольку визуальный контент усиливает доверие к мошеннической схеме.
Генерация голоса в реальном времени
Особое место среди новейших методов занимает технология синтеза голоса в реальном времени, позволяющая мошенникам вести живой диалог от имени знакомого жертвы человека. Этот подход требует значительных технических ресурсов, поэтому пока встречается редко. Однако его потенциал вызывает тревогу: ИИ способен с высокой точностью воспроизвести голос, что позволяет преступникам вступать в прямое общение с жертвой.
Такой метод усиливает психологическое воздействие: слыша знакомый голос, человек теряет бдительность и не может критически оценить ситуацию. Эксперты прогнозируют, что с развитием технологий подобные схемы станут более распространенными, увеличивая число жертв. Специалисты подчеркивают: защита от таких угроз требует не только технических решений, но и повышения цифровой грамотности пользователей.
Видеофейки с реальными лицами
В ближайшем будущем мошенники могут получить мощный инструмент для обмана — технологию онлайн-генерации видео с лицами реальных людей. Используя всего несколько фотографий жертвы, искусственный интеллект способен создать динамичное видео, которое практически неотличимо от реального. Это открывает возможности для проведения видеозвонков, в которых мошенники могут выдавать себя за знакомых или близких жертвы, значительно повышая шансы на успех аферы.
"На сегодняшний день качество таких поддельных видео несовершенно: внимательный наблюдатель может заметить артефакты, выдающие искусственное происхождение изображения. Однако технологии развиваются стремительно, и уже скоро отличить фейковое видео от настоящего станет почти невозможно. Это сделает такие схемы популярным инструментом в арсенале киберпреступников", — отмечают специалисты банка ПСБ.
Как защититься от цифровых мошенников
Противостоять угрозам, основанным на искусственном интеллекте, реально, если придерживаться простых правил кибербезопасности и сохранять бдительность.
"Главное — всегда проверяйте подлинность источника. Если вы получили голосовое сообщение или видеозвонок с просьбой о финансовой помощи от друга или родственника, свяжитесь с этим человеком через другой канал связи, например, по телефону или в альтернативном мессенджере, чтобы подтвердить его личность", — рекомендуют эксперты ПСБ.
Для защиты от сложных схем с подделкой голоса или видео есть эффективный способ: задайте собеседнику вопрос, ответ на который может знать только он и который не содержится в вашей переписке. Это позволит быстро разоблачить мошенника.
Также важно внимательно анализировать качество видеозвонков. Несмотря на прогресс технологий, фальшивые видео и аудио часто имеют недостатки: странности в интонации, неестественные движения губ, непривычная мимика или мелкие дефекты изображения могут выдать подделку. Обращайте внимание на такие детали, чтобы не стать жертвой обмана.
Ключевым аспектом защиты остается соблюдение правил цифровой гигиены. Никогда не передавайте личные данные, такие как пароли, номера телефонов или коды из СМС, третьим лицам, даже если запрос кажется убедительным. Настоящие конкурсы или акции не требуют предоставления конфиденциальной информации.
Активируйте двухфакторную аутентификацию для всех важных приложений и сервисов. Это создаст дополнительный барьер для злоумышленников, даже если они завладеют вашим паролем. Старайтесь минимизировать количество личной информации, публикуемой в интернете: чем меньше данных доступно, тем сложнее мошенникам создать правдоподобную схему атаки.
Наконец, повышайте свою цифровую грамотность и следите за новыми видами киберугроз. Регулярно изучайте способы защиты и делитесь знаниями с близкими, чтобы обезопасить не только себя, но и окружающих. Осведомленность и осторожность — ваши главные союзники в борьбе с ИИ-мошенниками.