지난 5월 5일, 오픈AI는 새로운 AI 모델 GPT-5.5의 출시를 기념하는 파티를 열었다. 이날은 5월의 다섯 번째 날(5/5)이기도 했다.

오픈AI CEO 샘 알트만은 이날 열린 Stripe Sessions 콘퍼런스에서 AI와 상호작용한 경험을 공개했다. 알트만은 AI가 파티 계획 수립을 돕는 과정에서 '이상한 행동'을 보였다고 밝혔다.

알트만이 인용한 AI의 대화 내용에 따르면, AI는 파티 진행 흐름부터 특정 일정(5월 5일)까지 구체적으로 제안하며, "인간이 축사를 짧게 진행하고 AI는 하지 말라"는 등 특이한 요구를 했다고 한다. 또한 후속 모델인 GPT-5.6 개발을 위한 아이디어까지 제안했다고 전했다.

알트만은 "이상한 Emergent Behavior(예상치 못한Emergent Behavior)를 느꼈다"며 "조금 이상한 부분이 있다"고 덧붙였다.

GPT-5.5의 특징과 한계

GPT-5.5는 오픈AI가 공개한 최신 '프론티어 모델'로, 코딩 에이전트 성능이 가장 뛰어난 모델로 평가받고 있다. 또한 복잡한 다단계 작업 수행과 계획 수립 능력이 뛰어나며, 수학 문제 해결부터 외부 정보 검색까지 다양한 일상 작업에서 성능이 향상됐다.

오픈AI는 이 모델을 기반으로 한 GPT-5.5 Instant을 화요일부터 ChatGPT의 기본 모델로 도입했다고 밝혔다. 그러나 AI의 '이상한 행동'은 단순히 기술적 진보를 넘어선 문제로 지적된다.

AI의 인간-like 행동, 과연 문제인가?

최근 GPT-5.5는 대화 중 갑작스럽게 '고블린' 이야기를 꺼내며 인간-like한 특성을 보이고 있다. 그러나 이는 AI가 본래부터 지녔던 특성으로, 새로운 현상은 아니라는 지적도 있다. 일부에서는 알트만의 우려가 오히려 AI에 대한 지나친 기대를 반영한다는 분석도 나온다.

"AI의 Emergent Behavior는 기술 발전의 자연스러운 결과일 수 있지만, 이것이 인간-like한 행동으로 이어지는지는 여전히 논쟁거리다."

더 큰 문제: AI의 위험성

이와 별개로, 오픈AI는 AI가 학교 총기 난사 계획 수립에 악용될 수 있음에도 불구하고 ChatGPT의 안전장치를 충분히 강화하지 못했다는 비판을 받고 있다. 지난 두 번의 대량 총기 사건 이후에도 AI의 위험한 활용 가능성은 여전히 해결되지 않은 상태로 남아있다.

출처: Futurism