Поддельные звонки и фальшивые обновления: как работают новые схемы мошенников

Криптопредприниматель стал жертвой хакеров, когда принял поддельный звонок от знакомого представителя Cardano Foundation. Злоумышленники использовали подмену личности и фальшивые обновления программ, чтобы получить доступ к его устройству. Атака началась с фальшивого звонка в Microsoft Teams, где «собеседник» выглядел и говорил как настоящий контакт.

Пострадавший, опытный технически подкованный человек, не заметил подвоха, так как контекст казался полностью легитимным. Социальные инженеры всегда опирались на доверие и знакомство, но раньше для масштабных атак требовались взломанные аккаунты или долгая переписка. Теперь с появлением ИИ-технологий подделка личности стала доступной даже для менее опытных мошенников.

Как проходила атака

Злоумышленники отправили жертве приглашение на звонок в Microsoft Teams от имени Пьера Какламаноса, известного представителя Cardano Foundation. На видеосвязи лицо и голос собеседника совпадали с воспоминаниями пострадавшего, а в разговоре участвовали ещё два «сотрудника» фонда. Когда связь прервалась, на экране появилось уведомление о необходимости обновления Teams через Terminal. Пострадавший выполнил команду, но быстро выключил ноутбук из-за разрядки батареи, что ограничило ущерб.

Эксперты отмечают, что такие атаки становятся всё опаснее благодаря новым ИИ-моделям, способным генерировать реалистичные видеофейки и подделывать голоса. Microsoft уже фиксировал подобные кампании в начале 2026 года, когда мошенники рассылали вредоносные файлы под видом обновлений для рабочих приложений, таких как Teams и Zoom.

Новые методы мошенников: от Telegram до фальшивых обновлений

В отдельном предупреждении Microsoft описал атаки типа «ClickFix», нацеленные на пользователей macOS. Жертвам предлагалось вставить команды в Terminal, что приводило к краже паролей браузера, криптовалютных кошельков, облачных учётных данных и ключей разработчиков. Фальшивое обновление Teams сочетало в себе оба этих метода.

Компания Google Cloud Mandiant также зафиксировала атаку на криптоиндустрию, построенную по аналогичному сценарию. Злоумышленники использовали взломанный аккаунт в Telegram, поддельные звонки в Zoom, видеофейк в стиле глубокой подделки и команды для заражения системы. Эксперты не смогли точно определить, какая ИИ-модель использовалась для генерации видео, но подтвердили, что мошенники применяли ИИ-инструменты для социальной инженерии.

Предупреждение от реального Пьера Какламаноса

24 апреля сам Пьер Какламанос опубликовал предупреждение на платформе X (ранее Twitter), заявив, что его Telegram аккаунт был взломан. Он призвал пользователей не переходить по ссылкам и не соглашаться на встречи через этот аккаунт, а проверять контакты через личные сообщения в LinkedIn. К тому моменту пострадавший уже отправил сообщение мошенникам с предложением перейти на Google Meet. Злоумышленники ответили, что Пьер занят и предложили перенести встречу, продолжая управлять фальшивым аккаунтом даже после звонка.

Этот инцидент показывает, что атаки такого типа не являются случайными. Взлом аккаунта — это только первый шаг, а история отношений между жертвой и мошенником становится основным оружием. Эксперты предупреждают: такие кампании становятся всё более изощрёнными и требуют повышенной бдительности от пользователей.

Что делать, чтобы не стать жертвой?

  • Всегда проверяйте подлинность приглашений — используйте альтернативные каналы связи (например, LinkedIn) для подтверждения личности собеседника.
  • Не устанавливайте подозрительные обновления — даже если уведомление выглядит легитимным, лучше загрузите обновление с официального сайта разработчика.
  • Ограничьте доступ к личным данным — не делитесь конфиденциальной информацией в мессенджерах или по видеосвязи.
  • Используйте двухфакторную аутентификацию — это усложнит задачу мошенникам даже в случае кражи пароля.
  • Будьте осторожны с видеозвонками — ИИ-технологии позволяют подделывать лица и голоса, поэтому не доверяйте только визуальным подтверждениям.

Вывод: ИИ-мошенничество становится реальной угрозой

Новые ИИ-технологии делают мошеннические схемы более убедительными и доступными. Теперь злоумышленники могут подделывать голоса, лица и даже целые видеоролики, что значительно усложняет задачу по защите личных данных и финансов. Эксперты призывают пользователей быть максимально бдительными и не доверять автоматически даже знакомым лицам на видеосвязи.

«Социальная инженерия всегда была эффективной, но теперь она стала ещё опаснее благодаря ИИ. Пользователи должны понимать, что даже легитимно выглядящий звонок может быть подделкой», — комментирует эксперт по кибербезопасности.

Источник: CryptoSlate