Итальянский премьер-министр Джорджа Мелони опубликовала в социальной сети X (бывший Twitter) необычное предупреждение: AI-сгенерированное изображение, на котором она изображена в нижнем белье. Этот шаг стал частью кампании по борьбе с дезинформацией и поддельными медиа.

«Глубокие подделки — опасный инструмент, — написала Мелони. — Они могут обманывать, манипулировать и угрожать каждому. Я могу защитить себя, но многие другие — нет».

Хотя изображение не является классическим «deepfake» (в отличие от технологии, подменяющей лицо в готовом фото), оно создано с помощью генеративного ИИ, который комбинирует различные элементы — лица, тела, голоса и звуки — для генерации полностью синтетического контента. Такие материалы практически невозможно отличить от оригинальных, так как их нельзя проверить через обратный поиск.

В 2024 году Мелони уже подавала в суд на двух мужчин за создание порнографического deepfake-видео с её участием. На этот раз она пошутила, что новые подделки выглядят «гораздо лучше» оригинала, и назвала публикацию «PSA на 2026 год».

«Правило должно быть всегда таким: проверяйте перед тем, как верить, и верьте перед тем, как распространять, — написала она. — Сегодня это происходит со мной, а завтра может случиться с кем угодно».

Почему угроза ИИ-контента выходит за рамки обычной дезинформации

Эксперты предупреждают, что генеративный ИИ представляет экзистенциальную угрозу для общества. Технология может усиливать психологические предвзятости и разрушать объективную реальность. Недавние примеры показывают, как легко манипулировать общественным мнением:

  • Джессика Фостер — AI-сгенерированный инфлюенсер, поддерживающий Трампа, за три месяца набрала миллион подписчиков и направляла мужчин на сайт для взрослых. Несмотря на очевидные дефекты в её образах, последователи игнорировали их, так как контент соответствовал их идеологическим убеждениям.
  • После появления видео с израильским премьером Нетаньяху, опровергающего слухи о его гибели, многие пользователи сочли материал подделкой — даже после подтверждения его подлинности независимыми экспертами.

Что могут сделать правительства

Эксперты считают, что осознанности и образовательных кампаний уже недостаточно. Для защиты от ИИ-угрозы требуется жёсткое вмешательство государств и регулирование со стороны технологических гигантов.

«Объективная реальность исчезает. Теперь необходимо не только предупреждать, но и действовать», — подчеркнули аналитики.
Источник: Fast Company