Искусственный интеллект, без преувеличения ставший самой обсуждаемой технологией последних лет, сталкивается с растущим недоверием со стороны общественности. Опрос Pew Research Center показал, что американцы в большинстве своём обеспокоены влиянием ИИ на творчество и личные отношения, а не вдохновлены его возможностями. Quinnipiac фиксирует ухудшение отношения к технологии даже на фоне роста её использования.
Среди главных опасений — потеря рабочих мест, мошенничество, некорректные советы, чрезмерное энергопотребление и даже сценарии апокалипсиса, включая угрозу существованию человечества. В марте 2024 года 57% респондентов NBC News заявили, что риски ИИ перевешивают его преимущества.
Одна из ключевых причин такого отношения — послания от лидеров крупнейших ИИ-компаний. Например, в феврале 2024 года Anthropic объявила о временном ограничении доступа к новому инструменту безопасности Mythos, мотивируя это его потенциальной опасностью в руках преступников. Сэм Альтман, CEO OpenAI, в ответ заявил, что это «маркетинг на основе страха». Однако уже через месяц OpenAI сама выпустила аналогичный инструмент с ограниченным доступом — повторив ту же тактику.
Эксперты отмечают: ИИ-компании словно нарочно напоминают клиентам о возможных катастрофах при каждом релизе. Это может быть частью маркетинговой стратегии или демонстрацией социальной ответственности, но публика воспринимает такие заявления всё более негативно. Даже нападение на дом Альтмана с применением коктейля Молотова в 2024 году символизирует нарастающее недовольство общественности.
Как ИИ-бренды сами портят себе репутацию
Явление не новое. В марте 2023 года при запуске GPT-4 OpenAI опубликовала отчёт, где наряду с описанием технологических прорывов отдельный раздел был посвящён потенциальным угрозам — от создания бомб до синтеза опасных химических веществ. Вскоре более 300 исследователей и топ-менеджеров, включая представителей Anthropic, Google DeepMind и OpenAI, подписали открытое письмо с предупреждением о риске глобальной катастрофы, сравнимом с ядерной войной.
Многие руководители ИИ-компаний призывают к государственному регулированию. Илон Маск, например, в текущем судебном споре с OpenAI напоминает, что компания изначально создавалась как некоммерческая именно из-за опасений, что технология слишком рискованна для коммерциализации в формате «двигайся быстро и ломай всё».
С одной стороны, компании обязаны предупреждать о рисках своих продуктов. С другой — постоянное акцентирование угроз может подрывать доверие к бренду. Даже на Super Bowl 2024 большинство рекламных роликов об ИИ были слишком абстрактными («Просто стройте что угодно»), не вызывая у зрителей конкретных ассоциаций. А на бытовом уровне обещания о пользе ИИ кажутся размытыми и неосязаемыми.
Что может спасти репутацию ИИ?
Эксперты сходятся во мнении: компаниям нужно сместить фокус с угроз на реальные преимущества. Вместо того чтобы пугать публику сценариями конца света, стоит демонстрировать, как ИИ решает повседневные задачи — от автоматизации рутинных процессов до помощи в медицине и образовании.
Некоторые компании уже пробуют менять нарратив. Например, Microsoft и Google акцентируют внимание на практических инструментах для бизнеса и частных пользователей, избегая апокалиптических прогнозов. Однако для восстановления доверия потребуется системная работа не только по улучшению технологий, но и по грамотной коммуникации их преимуществ.
«ИИ-компании должны перестать ассоциироваться исключительно с угрозами. Важно показать, что технология может быть безопасной, полезной и доступной для каждого», — отмечает аналитик технологического рынка Анна Ковалёва.