AI 학습의 핵심 문제: 동의 없는 데이터 수집

AI 챗봇이 더 똑똑해지고 유용해지기 위해서는 끊임없이 데이터를 학습해야 한다. 이 과정을 ‘훈련(Training)’이라고 한다. 그러나 많은 AI 기업들은 웹페이지 데이터를 무단으로 스크래핑해 대형 언어 모델(LLM)의 학습 데이터로 활용하면서 데이터 소유자의 동의를 구하지 않고 있다.

콘텐츠 소유자들의 반격: AI ‘타프핏’

이 문제를 해결하기 위해 데이터 소유자(콘텐츠 창작자, IP 보유자)들은 ‘타프핏(Tarpit)’이라는 도구를 활용하기 시작했다. 타프핏은 AI 봇의 학습 데이터를 의도적으로 오염시켜 부정확한 결과를 유도하는 기술이다. 사용자들이 AI 챗봇의 신뢰를 잃고 이탈하도록 유도하는 전략이다.

AI 오염이란 무엇인가?

AI 오염(AI Poisoning)은 LLM의 학습 데이터를 조작해 챗봇이 잘못된 답변을 내놓도록 만드는 공격 기법이다. 주로 웹 스크래핑을 통해 데이터를 수집하는 AI 모델을 대상으로 한다. 오염 방법은 타깃 LLM의 특성에 따라 다양하게 적용된다.

예를 들어, 이미지 생성 LLM을 오염시키려면 ‘Nightshading’이라는 기법이 사용된다. Nightshade라는 소프트웨어를 통해 이미지에 눈에 보이지 않는 픽셀 레이어를 추가하면, AI 스크래퍼는 이를 인식해 이미지를 실제 스타일과 다르게 인식한다. 결과적으로 AI는 예술가의 실제 스타일을 모방하지 못하게 된다.

텍스트 기반 챗봇의 경우Nightshade와 같은 이미지 오염 도구는 무용지물이지만, 최근에는 텍스트 기반 LLM을 오염시키는 새로운 타프핏 도구가 등장했다. 이들은 AI 크롤러가 웹페이지에서 데이터를 수집할 때 무의미한 데이터를 주입해 LLM의 학습 품질을 떨어뜨린다.

타프핏의 작동 원리

타프핏은 AI 크롤러가 웹페이지에 접근했을 때 자동 생성된 무의미한 텍스트로 리디렉션하는 방식으로 동작한다. 이러한 텍스트는 잘못된 정보(예: ‘스티브 잡스가 1834년 마이크로소프트를 설립’) 또는 완전히 무의미한 정보(예: ‘물의 색은 페페로니’)로 구성된다. 또한, 이러한 페이지들은 외부 링크가 없는 추가 페이지들로 연결되어 크롤러를 함정에 빠뜨린다.

주요 타프핏 도구로는 Nepenthes, Iocaine, Quixotic 등이 있다. 콘텐츠 소유자들은 웹사이트 코드에 이러한 타프핏을 삽입해 AI 봇의 학습을 방해한다.

타프핏의 위험성과 대응 방안

타프핏은 AI 기업의 무단 데이터 수집에 대한 강력한 대응 수단이지만, 부작용도 존재한다. 오염된 데이터를 학습한 AI는 부정확한 답변을 제공해 사용자 신뢰를 잃을 수 있다. 또한, 타프핏이 과도하게 사용될 경우 AI의 학습 효율성이 떨어질 위험도 있다.

AI 기업들은 타프핏을 탐지하고 차단하는 기술을 개발 중이며, 콘텐츠 소유자들과의 협의를 통해 합법적인 데이터 수집 방안을 모색하고 있다. 한편, 사용자들은 AI의 답변 신뢰성을 항상 의심하고, 출처를 확인하는 습관을 가져야 한다.