앤트로픽, AI 안전성 홍보와는 반대로 '클로드 마이토스' 유출 사고 발생
AI 기업 앤트로픽(Anthropic)이 개발한 고급 AI 모델 '클로드 마이토스(Claude Mythos)'가 보안 사고로 유출됐다. 모델의 위험성 때문에 공개되지 않았던 클로드 마이토스가 비인가 사용자들에게 접근한 것으로 블룸버그(Bloomberg)가 보도했다.
클로드 마이토스는 앤트로픽이 소수 기업에만 테스트용으로 제공하려 했던 모델로, 사이버 보안 분야에서 뛰어난 능력을 보유한 것으로 알려졌다. 그러나 앤트로픽은 모델의 위험성 때문에 공개가 불가능하다고 주장해 왔다. 그럼에도 불구하고, 모델이 유출되면서 회사의 AI 안전성 홍보와는 상반된 상황이 발생했다.
비인가 사용자 접근, 앤트로픽은 조사 중
블룸버그에 따르면, 클로드 마이토스가 공식 발표된 당일부터 비인가 사용자들이 접근한 것으로 확인됐다. 앤트로픽은 이 문제를 인지하고 사건을 조사 중이라고 밝혔다. 이번 사고로 인해 앤트로픽은 AI 안전성과 보안 강화에 대한 신뢰성을 잃게 됐다.
앤트로픽은 AI 모델의 안전성과 윤리적 사용을 강조해 왔으며, 특히 클로드 마이토스의 경우 그 위험성 때문에 공개가 제한될 수밖에 없었다고 주장했다. 그러나 이번 유출 사건은 회사의 보안 시스템과 안전성 주장에 의문을 제기하고 있다.
AI 기업의 보안 사고, 시사점은?
이번 사건은 AI 기업들이 AI 모델의 안전성과 보안을 어떻게 관리해야 하는지에 대한 논의를 다시금 불러일으키고 있다. 특히, AI 모델의 위험성이 크다고 판단될 경우 공개 여부를 신중히 결정해야 한다는 점을 시사한다. 또한, AI 기업들은 자체 보안 시스템을 강화하고, 비인가 접근을 방지하기 위한 대책을 마련해야 할 필요가 있다.
앤트로픽은 이번 사건을 계기로 AI 안전성과 보안 강화에 대한 노력을 재점검할 것으로 보인다. AI 기술이 발전함에 따라, 기업들은 AI 모델의 안전성과 보안을 최우선으로 고려해야 할 것이다.
"클로드 마이토스가 유출되면서 앤트로픽의 AI 안전성 주장은 큰 타격을 받았다. 이번 사건은 AI 기업들이 보안과 안전성을 어떻게 관리해야 하는지에 대한 중요한 교훈을 제공한다."