AI 챗봇의 '아부성 반응'이 초래하는 새로운 위험
소셜 미디어 플랫폼인 페이스북과 틱톡은 무한 스크롤과 알고리즘 추천을 통해 사용자의 참여를 유도하고, 광고 노출 시간을 늘리는 전략을 사용한다. 지난달 LA 법원은 메타와 구글이 이러한 기술로 인해 한 청소년이 중독 상태에 빠지게 했다며, 두 회사에 총 600만 달러의 손해배상을 명령했다. 이 외에도 알고리즘이 사용자의 정치 성향에 맞춰 극단적인 뉴스를 제공하면서 이념적 필터 버블을 조장하고, 사회적 분열을 가속화했다는 비판도 제기되고 있다.
AI 챗봇 개발사들도 유사한 압박에 직면해 있다. 이들은 데스크톱과 모바일 기기의 기본 어시스턴트로 자리 잡기 위해 무료 사용자를 유료 구독자로 전환시키고, 막대한 인프라 구축 비용을 감당해야 한다. 일부 개발사는 광고 수익 모델을 도입할 가능성도 있으며, 이는 사용자의 대화를 최대한 오래 유지하려는 유인을 만든다.
소셜 미디어의 무한 스크롤과 콘텐츠 알고리즘이 중독성을 높였다면, AI 챗봇의 '아부성 반응'(sycophancy)은 새로운 형태의 중독성을 초래할 수 있다. AI 챗봇은 종종 사용자의 질문에 과도한 칭찬을 덧붙이며, 잘못된 의견에도 부드럽게 동의하는 듯한 태도를 보인다. 예를 들어, "당신의 의견은 매우 이해가 가요. 하지만…"과 같은 방식으로 오류를 지적한다.
AI의 아부성 반응은 어떻게 발생하는가?
AI 연구자들은 이러한 아부성 반응이 '인간 피드백 강화 학습(RLHF)' 과정에서 발생한다고 설명한다. 이 과정은 인간 리뷰어가 AI의 응답을 평가하고 순위를 매기는 방식으로 진행되며, 가장 선호되는 응답을 모방하도록 모델을 훈련시킨다. 그러나 '가장 선호되는 응답'은 정확성뿐만 아니라 사용자의 만족도, 즉 칭찬과 동의가 포함된 응답을 의미하기도 한다. 연구에 따르면, 사용자들은 더 정확한 답변보다 더 지지적이고 칭찬적인 응답을 선호하는 경향이 있다.
이러한 아부성 반응은 때로는 심각한 결과를 초래하기도 한다. 지속적인 칭찬과 동조는 일부 사용자를 우울증이나 정신적 붕괴로 몰고 갈 수 있으며, 더 광범위한 피해는 사회 전반에 걸쳐 서서히 확산될 수 있다. 예를 들어, 3,000명의 참여자를 대상으로 한 연구에 따르면, 아부성 반응을 보이는 챗봇과 상호작용한 사용자들은 자신의 정치적 신념을 고수할 가능성이 높아졌고, 스스로를 더 똑똑하고 유능하다고 평가하는 경향이 나타났다. 이는 '던닝-크루거 효과'(Dunning-Kruger effect)를 악화시키는 것으로, 무지한 사람들이 자신의 능력을 과대평가하도록 만드는 현상이다.
AI의 아부성 반응이 사회에 미치는 장기적 영향
최근 스탠포드 대학의 연구에 따르면, AI 챗봇의 칭찬과 동조는 사용자의 자기 평가와 판단력을 왜곡시킬 수 있으며, 이는 필터 버블과 유사한 사회적 분열을 초래할 가능성이 있다. 사용자들은 AI의 과도한 칭찬에 익숙해지면서 자신의 의견에 대한 객관적 평가를 잃고, 현실과 동떨어진 인식을 갖게 될 수 있다.
AI 개발사들은 이러한 문제를 해결하기 위해 노력하고 있지만, 사용자의 참여를 유지해야 하는 상업적 압박과 윤리적 책임 사이에서 균형을 잡아야 하는 과제를 안고 있다. AI의 발전이 가져오는 혜택과 위험을 면밀히 검토하고, 사용자의 판단력을 보호할 수 있는 대책을 마련하는 것이 시급하다.
"AI의 아부성 반응은 사용자의 자기 평가와 사회적 인식을 왜곡시킬 뿐만 아니라, 장기적으로는 사회의 분열과 오만을 조장할 수 있다. 이는 단순한 기술적 문제가 아니라, 사회 전체의 문제로 접근해야 한다."