В последние годы индустрия искусственного интеллекта (ИИ) развивалась стремительно, нередко игнорируя вопросы безопасности и этики. Однако теперь ситуация меняется: крупнейшие компании, создающие ИИ, впервые начали активно ограничивать доступ к своим передовым разработкам, признавая их потенциальные риски.
Это не похоже на сценарии из фильмов вроде «Терминатора» или «Космической одиссеи 2001 года», где ИИ обретает самосознание и угрожает человечеству. Речь идёт о куда более приземлённых, но не менее опасных угрозах: уязвимости в критической инфраструктуре, нарушение конфиденциальности, риски для кибербезопасности и размывание границ между личной и публичной сферами.
Первые шаги к самоограничению
На протяжении долгого времени Big Tech следовала принципу «газ до упора, тормоза — минимально». Пользователи получали новые возможности, а споры о побочных эффектах оставались на втором плане. Но с появлением мощных ИИ-моделей ситуация начала меняться.
Так, компания Anthropic объявила, что не будет широко распространять модель Claude Mythos Preview, которую считает слишком опасной. По словам разработчиков, эта модель уже выявила «тысячи критических уязвимостей» в ведущих операционных системах и веб-браузерах. Вместо публичного релиза Anthropic предоставит доступ к модели ограниченному кругу партнёров, включая Amazon Web Services, Apple, Google, Microsoft, NVIDIA и другие компании, отвечающие за критически важную инфраструктуру.
Цель проекта Glasswing — дать возможность специалистам находить и устранять катастрофические уязвимости до того, как ими воспользуются злоумышленники. Хотя в этом решении есть элемент самозащиты — компании предпочитают выглядеть ответственными, а не безрассудными, — оно знаменует собой важный сдвиг в отрасли.
Ранее индустрия настаивала на том, что любая новая технология должна быть выпущена в открытый доступ как можно быстрее, поскольку прогресс неизбежен. Теперь же один из крупнейших игроков заявил, что некая достаточно мощная модель не должна просто «выбрасываться на рынок».
Конфликт с Пентагоном: где проходят красные линии
Ещё более ярко эта тенденция проявилась в недавнем споре между Anthropic и Министерством обороны США. Компания официально заявила, что допускает использование своих моделей в военных целях только в двух исключительных случаях: для массовой внутренней слежки и полностью автономного оружия.
«ИИ позволяет превращать коммерчески доступные данные в исчерпывающую картину жизни любого человека — автоматически и в огромных масштабах», — заявил генеральный директор Anthropic Дарио Амодеи, комментируя угрозу массовой слежки.
Что касается автономного оружия, то, по его словам, современные ИИ-системы недостаточно надёжны, чтобы полностью исключить человека из процесса принятия решений об обстреле целей.
При этом Anthropic не возражает против сотрудничества с военными в большинстве стандартных задач, связанных с боевыми действиями. Однако компания впервые публично заявила о необходимости установления чётких ограничений на использование своих технологий.
Реакция Пентагона оказалась жёсткой. Министерство обороны США заявило, что будет работать только с теми ИИ-компаниями, которые готовы принять условие «любое законное использование» и убрать все ограничения. Когда Anthropic отказалась, министр обороны Пит Хегсет нанёс ответный удар, обвинив компанию в угрозе национальной безопасности.
Этот инцидент показал, что даже в условиях жёсткой конкуренции и давления со стороны государства компании начинают осознавать свою ответственность. Вопрос лишь в том, насколько последовательно они будут придерживаться новых принципов — и смогут ли противостоять соблазну быстрой наживы ради безопасности всех.