Проблема ИИ-контента на YouTube достигла новых масштабов

Платформа YouTube столкнулась с серьёзной проблемой: её заполонили некачественные видеоролики, созданные с помощью ИИ. Это могут быть как фейковые трейлеры фильмов, так и псевдообразовательные видео, ориентированные на детей дошкольного возраста. Ситуация стала настолько критической, что некоторые каналы начали помечать свои плейлисты как «без ИИ», пытаясь привлечь пользователей, уставших от потока некачественного контента.

Несмотря на попытки YouTube бороться с этой проблемой, многие каналы всё ещё остаются без внимания. Один из таких примеров — канал Joe Liza WWE, созданный ещё в 2007 году и имеющий менее 2000 подписчиков. Канал публикует видеоролики длительностью до двух часов, посвящённые индустрии рестлинга WWE и связанным с ней скандалам.

Что не так с этим каналом?

Проблема заключается не только в хаотичном сочетании реальных кадров и ИИ-сгенерированного контента, перемешанных с клипами из игры WWE 2K. Главная странность — это роботизированные закадровые тексты, которые звучат крайне неестественно. Как заметил один пользователь Bluesky, в недавних видео ИИ-озвучка начинает безостановочно повторять одно и то же слово на протяжении нескольких минут, создавая жутковатое впечатление.

В одном из роликов, который позже был сделан приватным, ИИ-диктор повторяет слова «что» или «ух» всё более анимационно, завершая монолог непристойными звуками. В комментариях к другому видео длительностью 26 минут пользователи обращают внимание на то, как ИИ-озвучка словно «впадает в ступор» через четыре минуты после начала.

«Я плачу, брат, это просто смешно до слёз», — написал один из комментаторов.

«А мы уже обсудили, что у ИИ-озвучки через четыре минуты начинается что-то вроде инсульта?», — саркастически заметил другой пользователь.

Кто стоит за странным каналом?

Пока не ясно, кто именно управляет этим каналом. Первое видео было загружено ещё в далёком 2007 году, но именно в последнее время его контент стал вызывать недоумение. Возможно, создатели канала пытаются монетизировать его через алгоритмы YouTube, привлекая зрителей за счёт рекомендаций и автопроигрывания. Однако неизвестно, приносит ли это какие-либо доходы: для участия в партнёрской программе YouTube требуется либо 1000 подписчиков, либо 4000 часов публичного просмотра за последние 12 месяцев.

Кроме того, канал распространяет откровенно ложную информацию. Например, в одном из видео утверждается, что «легенды WWE раскрыли причину смерти Чака Норриса», хотя актёр скончался в больнице после медицинского инцидента в марте. В другом ролике говорится, что рестлершу Джейд Каргилл арестовали за нападение на Рию Рипли, что также не соответствует действительности.

Почему это проблема для YouTube и создателей контента?

Этот случай демонстрирует, как ИИ-контент может выходить из-под контроля и создавать целые видеоролики, которые, судя по всему, никто из людей не смотрел полностью. Такие публикации не только раздражают пользователей, но и затрудняют продвижение настоящих создателей, которые вынуждены конкурировать с потоками некачественного и подчас опасного контента.

Пока YouTube продолжает бороться с этой проблемой, пользователи всё чаще сталкиваются с последствиями автоматизированного контента, который не только не несёт пользы, но и способен дезинформировать аудиторию.

Источник: Futurism