Новые правила для разработчиков искусственного интеллекта

Крупные технологические компании Google DeepMind, Microsoft и xAI, принадлежащая Илону Маску, объявили о добровольном согласии на предварительную проверку своих новых моделей искусственного интеллекта (ИИ) со стороны правительства США. Об этом сообщается в официальном пресс-релизе Министерства торговли США.

Как будет проходить оценка?

Проверка будет осуществляться через Центр стандартов и инноваций в области искусственного интеллекта (CAISI), который был создан при Министерстве торговли. В задачи центра входит проведение предварительных оценок и целевых исследований для анализа возможностей передовых ИИ-моделей.

Как отмечается в сообщении, CAISI уже провел 40 подобных проверок с начала 2024 года. В число компаний, ранее сотрудничавших с центром, входят OpenAI и Anthropic.

Цель инициативы

Правительство США стремится минимизировать риски, связанные с выходом новых ИИ-технологий на рынок. Оценка моделей перед их публикацией позволит выявить потенциальные угрозы безопасности и этические проблемы. В пресс-релизе подчеркивается, что инициатива направлена на повышение прозрачности и ответственности в развитии искусственного интеллекта.

Реакция отрасли

Эксперты отмечают, что добровольное участие компаний в программе может стать важным шагом на пути к более строгому регулированию ИИ. В то же время некоторые аналитики выражают опасения, что такие меры могут замедлить инновации или создать барьеры для небольших стартапов.

Что дальше?

Правительство США планирует расширять сотрудничество с другими ведущими разработчиками ИИ. В ближайшие месяцы ожидается подписание новых соглашений, а также разработка дополнительных стандартов безопасности и этики для искусственного интеллекта.

Источник: The Verge