Крупнейшие разработчики искусственного интеллекта, такие как Anthropic и OpenAI, регулярно публикуют мрачные прогнозы о грядущих угрозах от AI. Однако их предупреждения сопровождаются стремительным внедрением технологий и масштабными инвестициями. Эта двойственность вызывает вопросы: являются ли их заявления искренними предупреждениями или же частью маркетинговой стратегии?
Предупреждения об «интеллектуальном взрыве»
Недавно издание Axios сообщило о новом «красном сигнале» от Anthropic — компании, создавшей модель Claude. Исследовательский центр Anthropic опубликовал план по минимизации рисков, связанных с этой технологией, включая сценарий, при котором AI сможет самостоятельно создавать новые версии себя без участия человека.
«Я прогнозирую, что к концу 2028 года с вероятностью более 50% появится система искусственного интеллекта, которой можно будет дать команду: „Создай улучшенную версию себя“. И она выполнит это полностью автономно», — заявил сооснователь Anthropic Джек Кларк.
Контрасты в поведении AI-компаний
Anthropic не одинока в своих предупреждениях. OpenAI, разработавшая ChatGPT, также регулярно поднимает тему рисков, связанных с искусственным интеллектом. При этом обе компании активно привлекают инвестиции. Недавно OpenAI позволила нынешним и бывшим сотрудникам продать акции на сумму до 30 миллионов долларов, и более 600 человек воспользовались этой возможностью, получив в общей сложности 6,6 миллиарда долларов.
Эта двойственность — предупреждения о катастрофах на фоне стремительного развития технологий — становится всё более заметной. Компании, которые строят будущее AI, одновременно предупреждают о его угрозах и ускоряют его внедрение.
«Подростковый возраст технологии»: предупреждение или пиар?
В январе CEO Anthropic Дарио Амодеи опубликовал эссе под названием «Подростковый возраст технологии» (The Adolescence of Technology). В нём он сравнил текущий этап развития AI с переломным моментом в истории человечества, когда цивилизация стоит на пороге радикальных изменений. Амодеи выделил пять категорий экзистенциальных рисков:
- Неконтролируемые автономные системы AI;
- Использование AI для массовых разрушений;
- Захват AI авторитарными режимами для политического контроля;
- Экономические потрясения;
- Концентрация богатства в руках немногих.
По его мнению, последствия внедрения AI могут быть непредсказуемыми и иметь каскадные эффекты, которые сегодня сложно даже представить.
Связь между предупреждениями и инвестициями
Интересно, что через 17 дней после публикации эссе Anthropic привлекла 30 миллиардов долларов нового финансирования, что подняло её оценку до 380 миллиардов. А на прошлой неделе, одновременно с публикацией Axios, Financial Times сообщил, что компания планирует привлечь ещё десятки миллиардов этим летом, чтобы достичь оценки в 1 триллион долларов — что превысит текущую оценку OpenAI в 852 миллиарда.
Эта синхронность не случайна. Эссе Амодеи — это не только предупреждение, но и презентация для инвесторов. В нём сочетаются призывы к ответственности и обещания революционных технологий, которые могут изменить мир. Таким образом, предупреждения об угрозах AI становятся не только моральным долгом, но и конкурентным преимуществом.
Почему правительства не останавливаются?
Даже правительства, которые внедряют AI в военные, образовательные и административные системы, признают его риски. Однако ни одна страна не может позволить себе отстать в этой гонке. Публичные заявления о необходимости осторожности сочетаются с активным внедрением технологий, что лишь усиливает противоречия.
В результате мы наблюдаем парадокс: компании и государства, которые должны быть осторожными, становятся главными драйверами внедрения AI, несмотря на все предупреждения. Вопрос остаётся открытым: являются ли эти предупреждения искренними или же частью стратегии по привлечению инвестиций и поддержки со стороны общества?