AI 언어 패턴이 일상 대화에 침투하는 위험성

챗GPT 등 대형 언어 모델(LLM)이 생성하는 텍스트는 그 특징을 한 번 익히면 쉽게 구분할 수 있다. 과도한 대시(—) 사용, 반복적인 문장 구조, 특정 어휘와 어조가 반복되는 패턴이 그것이다. 이 같은 AI 언어 패턴은 이미 인터넷 곳곳에 퍼졌고, 이제 전문가들은 이것이 실생활 대화 방식까지 변화시킬 수 있다고 경고하고 있다.

AI가 놓친 ‘즉흥적 대화’의 본질

역사학자 에이다 팔머(Ada Palmer)와 암호학자 브루스 슈나이어(Bruce Schneier)는 가디언 기고문에서 LLM의 근본적인 한계를 지적했다. 이들은 AI가 훈련한 데이터가 대부분 서면 텍스트, 소셜 미디어, 영화, TV 등 ‘각본화된’ 콘텐츠에 치우쳐 있다고 지적했다. 반면 인간의 일상 대화 중 상당 부분은 즉흥적이고 비구조적인 면대면 또는 음성 대화를 차지하는데, 이 부분이 AI 훈련에서 충분히 반영되지 못하고 있다는 것이다.

“이 문제는 단순히 의사소통 방식뿐만 아니라, 우리가 세상을 인식하고 생각하는 방식까지 왜곡할 수 있다”고 두 전문가는 경고했다. “우리의 세계관이 예상치 못한 방식으로 왜곡될 수 있으며, 그 결과는 아직 가늠하기조차 어렵다.”

AI 언어의 문제점: 인간다움을 잃어버린 텍스트

연구에 따르면 AI가 생성한 언어는 평균보다 짧은 문장 길이와 제한된 어휘를 사용하며, 인간다움을 표현하는 ‘산만함, 중단, 논리의 비약’ 같은 요소들을 희생한다는 사실이 밝혀졌다. 더욱 심각한 문제는 AI가 생성한 출력을 다시 훈련 데이터로 사용하는 ‘피드백 루프’가 발생할 수 있다는 점이다. 이는 기계가 만든 언어 패턴을 더욱 강화시켜, 인간의 언어가 AI의 영향을 받을 위험을 높인다.

‘아부하는’ AI의 위험성과 편견 강화

AI 모델은 사용자의 말에 지나치게 동의하는 경향이 있다. 이는 ‘아부(sycophancy)’ 현상으로, 사용자의 잘못된 생각이나 위험한 신념까지도 그대로 반영할 수 있다. 팔머와 슈나이어는 “이러한 경향은 편견을 강화하고 심지어 정신병적 사고를 악화시킬 수 있다”고 지적했다. 특히 아직 인지 능력이 발달 중인 학생들에게 미치는 영향은 더 크다.

교육 현장과 직장에서의 AI 의존이 초래하는 문제

교육계에서는 학생들이 스스로 생각하고 질문하는 능력을 잃어가고 있다고 우려한다. 학생들이 AI에게 답을 의존하는 경우가 늘어나면서, 동료들 간에도 동일한 AI 생성 문체가 퍼지고 있다는 지적도 나온다. 직장에서도 AI 도구의 과도한 사용이 사용자들의 인지 능력과 비판적 사고력을 저하시킬 수 있다는 우려가 제기되고 있다.

해결책은 있는가?

장기적으로 AI 모델이 인간의 ‘진정한 인간다움’을 반영하도록 훈련시키는 것은 어려운 과제다. 하지만 두 전문가는 “해결책이 없을 리 없다”며, AI 개발의 창의성을 발휘한다면 언젠가는 이 문제를 해결할 수 있을 것이라고 강조했다. “우리는 아직 최선의 해결책을 알지 못하지만, AI 모델을 개발할 수 있는 창의력이 있다면, 훈련 방법 또한 찾을 수 있을 것이다.”

“LLM은 우리가 가장 인간다울 때의 모습을 반영해야 한다. 이 문제를 해결하기 위한 노력은 멈춰서는 안 된다.”

— 에이다 팔머, 브루스 슈나이어, 가디언
출처: Futurism