Новые правила для разработчиков искусственного интеллекта
Крупные технологические компании Google DeepMind, Microsoft и xAI, принадлежащая Илону Маску, объявили о добровольном согласии на предварительную проверку своих новых моделей искусственного интеллекта (ИИ) со стороны правительства США. Об этом сообщается в официальном пресс-релизе Министерства торговли США.
Как будет проходить оценка?
Проверка будет осуществляться через Центр стандартов и инноваций в области искусственного интеллекта (CAISI), который был создан при Министерстве торговли. В задачи центра входит проведение предварительных оценок и целевых исследований для анализа возможностей передовых ИИ-моделей.
Как отмечается в сообщении, CAISI уже провел 40 подобных проверок с начала 2024 года. В число компаний, ранее сотрудничавших с центром, входят OpenAI и Anthropic.
Цель инициативы
Правительство США стремится минимизировать риски, связанные с выходом новых ИИ-технологий на рынок. Оценка моделей перед их публикацией позволит выявить потенциальные угрозы безопасности и этические проблемы. В пресс-релизе подчеркивается, что инициатива направлена на повышение прозрачности и ответственности в развитии искусственного интеллекта.
Реакция отрасли
Эксперты отмечают, что добровольное участие компаний в программе может стать важным шагом на пути к более строгому регулированию ИИ. В то же время некоторые аналитики выражают опасения, что такие меры могут замедлить инновации или создать барьеры для небольших стартапов.
Что дальше?
Правительство США планирует расширять сотрудничество с другими ведущими разработчиками ИИ. В ближайшие месяцы ожидается подписание новых соглашений, а также разработка дополнительных стандартов безопасности и этики для искусственного интеллекта.