2022년 ChatGPT 등장 이후 AI는 다양한 산업에 혁신을 불러왔지만, 그 중에서도 소프트웨어 개발 분야에서 가장 뚜렷한 변화를 이끌고 있다. 숙련된 개발자부터 초보자까지 AI 챗봇과 특화된 도구를 활용해 자연어 프롬프트만으로 코드를 빠르게 생성하는 ‘바이브 코딩’이 확산되면서, 기술적 배경이 없더라도 단시간에 앱을 만들 수 있게 되었다.

이 같은 변화는 기술 혁신의 측면에서 주목할 만하지만, 동시에 심각한 보안 문제를 동반하고 있다. 최근 와이어드(Wired)가 보도한 바에 따르면, 보안 기업 레드액세스(RedAccess)가 AI 기반 ‘바이브 코딩’ 플랫폼으로 제작된 수천 개의 웹 앱을 분석한 결과, 심각한 개인정보 유출 문제가 발견됐다.

AI 생성 앱의 40%, 민감한 개인정보 노출

레드액세스는 Lovable, Replit, Base44, Netlify 등 4개 플랫폼으로 제작된 수천 개의 웹 앱을 검토한 결과, 다음과 같은 충격적인 사실을 확인했다.

  • 5천여 개의 앱이 인증·보안 기능이 전혀 없었다.
  • 40%에 달하는 앱이 사용자의 민감한 개인정보를 외부로 유출했다. (의료·금융 정보, 기업 문서, 사적 채팅 기록 등)

레드액세스의 공동설립자 도르 즈비(Dor Zvi)는 “기업이 AI 생성 앱을 통해 민감한 정보를 전 세계에 노출시키고 있다”며 “이 같은 상황은かつて類を見ない 심각한 보안 사고”라고 지적했다.

플랫폼들은 책임 회피, 사용자 탓으로 돌리나

문제의 심각성에 비해 플랫폼들의 대응은 미흡했다. Netlify는 아무런 대응을 하지 않았고, 나머지 플랫폼들은 책임을 사용자에게 전가하는 태도를 보였다. Lovable의 대변인은 “보안 도구를 제공하지만, 앱의 설정은 제작자의 책임”이라고 밝혔다.

“누구나 AI에게 설명만 하면 앱을 만들 수 있지만, resulting code는 여전히 결함을 내포하고 있다. 보안 전문가만이 발견할 수 있는 문제들이며, 이러한 앱들은 사실상 인력 대체의 위험성을 내포하고 있다.”

레드액세스는 “회사 내 누구라도 AI를 활용해 보안 검토 없이 즉각 프로덕션에 앱을 배포할 수 있다”며 “이는 개발 주기나 보안 체크가 전혀 없이 운영 환경에 바로 투입되는 상황”이라고 설명했다.

AI 생성 코드의 한계와 보안 책임의 재고

AI가 코드 생성 속도를 높이는 데 기여한 것은 사실이지만, 아직까지는 완벽한 솔루션이 아니다. AI가 생성한 코드는 숙련된 개발자나 보안 전문가의 검토가 필수적이며, 특히 민감한 데이터를 다루는 경우 더욱 엄격한 보안 관리가 요구된다. 그러나 ‘바이브 코딩’이 보편화되면서 이러한 검토 과정이 생략되는 경우가 빈번해지고 있다.

이 같은 문제는 AI 기술의 발전과 함께 해결해야 할 과제로 남았다. 사용자와 플랫폼 모두 보안 의식을 높이고, AI 생성 코드에 대한 엄격한 검증 프로세스를 마련해야 할 시점이다.

출처: Futurism