В эпоху социальных сетей поддельные аккаунты стали привычным явлением. Однако случай с «Эмили Харт» — 22-летним индийским студентом-медиком, который выдавал себя за американскую инфлюенсершу с миллионами просмотров, — выходит за рамки обычного обмана. За его фейковым образом стояла не анонимная личность, а тщательно продуманный проект: посты с полуобнажёнными видео, продажа мерча и доход от альтернативы OnlyFans. Создатель «Эмили» признался, что зарабатывал тысячи долларов в месяц, используя Google Gemini и знание американской политической культуры.
Этот случай обнажил системную проблему: ИИ сделал создание убедительных фальшивых персонажей настолько простым, что обман стал массовым. Эксперты предупреждают, что «Эмили Харт» — лишь верхушка айсберга. На платформах вроде Instagram и TikTok уже циркулируют десятки подобных фейковых инфлюенсеров, которые продвигают политические нарративы, финансовые схемы и даже медицинские мифы. И всё это без явного раскрытия использования ИИ.
Как ИИ упрощает обман и почему системы защиты не работают
Современные генераторы изображений, такие как MidJourney или DALL·E, научились создавать фотореалистичные портреты, видео и даже динамические сцены без явных артефактов вроде лишних пальцев или размытых фонов. В отличие от первых «фейков» начала 2020-х, сегодня их почти невозможно отличить от реальных материалов невооружённым глазом. Даже профессиональные редакторы и модераторы платформ сталкиваются с трудностями при идентификации ИИ-контента.
Проблема усугубляется тем, что основные социальные сети — Meta, X (Twitter), TikTok — требуют лишь косвенного раскрытия использования ИИ. Например, Instagram допускает пометку «AI-generated» в описании, но не обязывает её ставить. В результате пользователи видят фейковый контент, не подозревая о его искусственном происхождении. Даже если платформа обнаруживает нарушение, наказание ограничивается приостановкой аккаунта или блокировкой рекламы — меры, которые не останавливают масштабные кампании обмана.
Почему «питательные этикетки» для контента не работают
В 2023 году консорциум C2PA (Coalition for Content Provenance and Authenticity) представил Content Credentials — технологию, позволяющую отслеживать происхождение изображения через метаданные. Идея проста: каждый файл должен содержать информацию о том, был ли он создан или изменён ИИ, и если да — каким инструментом. Однако внедрение этой системы сталкивается с серьёзными препятствиями:
- Отсутствие обязательности: Платформы не принуждают пользователей и создателей контента внедрять Content Credentials. Даже если изображение содержит такие данные, большинство сайтов их игнорируют.
- Технические ограничения: Не все генераторы изображений поддерживают стандарт C2PA. Например, MidJourney и Stable Diffusion пока не интегрируют его в свои продукты.
- Обход систем защиты: Мошенники легко удаляют метаданные или загружают контент в формате, который их не поддерживает (например, JPEG вместо PNG).
В результате «питательные этикетки» для контента остаются теоретической возможностью, а не реальной защитой. Пользователи продолжают сталкиваться с фейками, не имея возможности проверить их подлинность.
Кто виноват и что делать?
Эксперты сходятся во мнении, что ответственность за борьбу с ИИ-фейками лежит сразу на нескольких сторонах:
- Социальные сети: Платформы должны ужесточить требования к раскрытию ИИ-контента и внедрить обязательные проверки. Например, TikTok уже тестирует инструменты для маркировки ИИ-видео, но этого недостаточно.
- Генераторы ИИ: Компании вроде OpenAI и Adobe должны сделать Content Credentials обязательным стандартом для своих продуктов. Без этого мошенники будут продолжать эксплуатировать лазейки.
- Пользователи: Критическое мышление и проверка источников остаются единственным надёжным способом защиты. Однако без поддержки платформ этот метод малоэффективен.
«ИИ не виноват в обмане — виноваты те, кто использует его безответственно. Пока платформы не возьмут на себя ответственность, фейки будут процветать», — заявил аналитик из Digital Forensics Research Association.
Случай с «Эмили Харт» — лишь начало. В ближайшие годы количество фейковых инфлюенсеров, политических ботов и мошеннических схем будет только расти. Без глобальных изменений в подходах к ИИ-контенту пользователи останутся один на один с потоком дезинформации, не имея возможности отличить реальность от симуляции.