컨텐츠로 건너뛰기
검색
AI타임스 언론사 이미지

"해킹·데이터 유출에 취약한 '바이브 코딩'...인간 검토 필요"

AI타임스 박찬
원문보기

"해킹·데이터 유출에 취약한 '바이브 코딩'...인간 검토 필요"

서울맑음 / -1.0 °
[박찬 기자]
(사진=셔터스톡)

(사진=셔터스톡)


'바이브 코딩'이 인기를 끄는 가운데, 인공지능(AI)이 생성한 코드가 작동하지 않거나 보안 문제를 일으킬 수 있다는 지적이 나왔다. 이 때문에 일부 기업은 인간이 다시 코드를 검토하는 조치를 취하는 것으로 알려졌다.

디 인포메이션은 29일(현지시간) 업계 관계자들과의 인터뷰를 통해 AI 코딩 도구들이 단순한 버그 수정 제안이 아닌 코드를 처음부터 생성할 경우 심각한 문제가 포함할 수 있다고 지적했다. 이 때문에 일부 기업은 모니터링을 강화하고 있다고 전했다.

자동 생성된 코드가 해킹이나 데이터 유출로 이어질 수 있는 사례들은 속속 드러나고 있다.

지난 3월에는 리플릿의 엔지니어가 경쟁사 러버블의 AI가 생성한 소프트웨어에서 중대한 보안 취약점을 발견했다. 매트 팔머 리플릿 개발자 관계 책임자는 "러버블로 제작된 앱들에서 사용자 개인정보가 노출되거나 사용자가 '제미나이'에 접근하기 위해 사용한 비밀번호가 유출된 사례를 확인했다"라고 말했다

이에 대해 러버블 측은 "이는 우리만이 아니라, 아마추어 개발자를 대상으로 하는 모든 AI 코딩 도구가 비슷한 문제를 겪고 있다"라고 설명했다. 이 때문에 러버블은 보안 취약점을 탐지하는 '시큐리티 스캔(Security Scan)' 기능을 4월 도입했다.

이제는 깃허브 코파일럿이나 커서, 앤트로픽의 '클로드' 등에 이어 피그마나 베셀, 볼트 등 다양한 코딩 AI가 인기를 끄는 등 코딩 AI가 점차 보편화되며, 문제가 확대된다는 지적이다. 심지어, 전문 개발자들도 이제는 단순한 내부 웹사이트 제작과 같은 작업에는 검증이 덜 된 AI 코딩 도구가 사용한다는 것이다.


이에 따라 일부 기업들은 AI가 생성한 코드를 사람이 검토하기 전까지는 배포를 금지하는 내부 정책을 도입하고 있다.

소프트웨어 개발사인 앰플리튜드의 잭 레비 최고 정보보안책임자는 "AI가 생성한 코드는 사용자에게 배포하기 전 반드시 인간 개발자가 확인하고 있다"라고 밝혔다. 또 코드 생성 시 AI에 보안을 우선시하도록 지시하거나, 생성 코드를 AI 스스로 점검하게 하는 방식도 품질 향상에 효과적이었다고 전했다.

레비 책임자는 "코드를 생성한 뒤 그냥 믿고 싶은 유혹이 강하다"라며 "하지만 현재 기술 수준에서는 대형언어모델(LLM)의 출력 결과를 '신뢰할 수 없는 코드'로 간주해야 하는 것이 현실"이라고 강조했다.

박찬 기자 cpark@aitimes.com

<저작권자 Copyright ⓒ AI타임스 무단전재 및 재배포 금지>