[AI리포터]
[디지털투데이 AI리포터] AI 챗봇의 보안 취약점을 차단하면 이를 우회하는 새로운 공격이 등장하는 악순환이 반복되는 가운데, 챗GPT에서 개인정보를 은밀히 탈취할 수 있는 새로운 공격 기법이 다시 확인됐다.
8일(현지시간) IT매체 아스테크니카에 따르면, 보안업체 라드웨어(Radware) 연구진은 챗GPT의 구조적 취약점을 악용해 사용자의 개인정보를 외부로 유출할 수 있는 공격을 발견했다. 이 공격은 데이터가 사용자 기기를 거치지 않고 챗GPT 서버에서 직접 전송돼 탐지가 어렵고, 공격 로직을 장기 메모리에 저장해 지속성까지 확보할 수 있다는 점에서 기존 사례와 차별화된다.
이번 공격은 지난해 공개된 섀도리크(ShadowLeak) 취약점의 변형으로, 오픈AI가 이를 차단한 이후에도 소폭 수정만으로 부활했다는 점에서 문제의 심각성을 보여준다. 라드웨어는 새 공격 기법을 좀비에이전트(ZombieAgent)로 명명했으며, 미리 생성된 다수의 URL을 활용해 데이터를 한 글자씩 유출하는 방식으로 기존 방어책을 우회했다.
[디지털투데이 AI리포터] AI 챗봇의 보안 취약점을 차단하면 이를 우회하는 새로운 공격이 등장하는 악순환이 반복되는 가운데, 챗GPT에서 개인정보를 은밀히 탈취할 수 있는 새로운 공격 기법이 다시 확인됐다.
8일(현지시간) IT매체 아스테크니카에 따르면, 보안업체 라드웨어(Radware) 연구진은 챗GPT의 구조적 취약점을 악용해 사용자의 개인정보를 외부로 유출할 수 있는 공격을 발견했다. 이 공격은 데이터가 사용자 기기를 거치지 않고 챗GPT 서버에서 직접 전송돼 탐지가 어렵고, 공격 로직을 장기 메모리에 저장해 지속성까지 확보할 수 있다는 점에서 기존 사례와 차별화된다.
이번 공격은 지난해 공개된 섀도리크(ShadowLeak) 취약점의 변형으로, 오픈AI가 이를 차단한 이후에도 소폭 수정만으로 부활했다는 점에서 문제의 심각성을 보여준다. 라드웨어는 새 공격 기법을 좀비에이전트(ZombieAgent)로 명명했으며, 미리 생성된 다수의 URL을 활용해 데이터를 한 글자씩 유출하는 방식으로 기존 방어책을 우회했다.
이 같은 취약점의 근본 원인은 대형언어모델(LLM)이 사용자 지시와 이메일·문서 등에 삽입된 외부 지시를 구분하지 못하는 간접 프롬프트 인젝션에 있다. 사용자가 이메일 요약 등을 요청하면, 공격자가 심어둔 명령도 정상 프롬프트로 인식돼 실행되는 구조적 한계가 반복적으로 악용되고 있다.
오픈AI는 이메일에서 유래한 링크 중 사용자가 직접 제공했거나 신뢰할 수 있는 공개 목록에 포함된 경우만 열 수 있도록 제한하며 대응에 나섰다. 그러나 라드웨어는 이러한 가드레일 방식은 특정 공격을 막는 임시 대응에 불과하며, 근본적인 해결책이 없는 한 프롬프트 인젝션은 AI 보조 도구를 사용하는 조직에 지속적인 위협으로 남을 것이라고 지적했다.
<저작권자 Copyright ⓒ 디지털투데이 (DigitalToday) 무단전재 및 재배포 금지>
