컨텐츠로 건너뛰기
검색
디지털투데이 언론사 이미지

AI 챗봇, 시적 표현엔 무방비…금지된 정보도 답변한다

디지털투데이
원문보기

AI 챗봇, 시적 표현엔 무방비…금지된 정보도 답변한다

서울맑음 / 0.5 °
[AI리포터]
AI 챗봇을 대상으로 한 실험 결과, 시적 표현이 보안 우회에 효과적인 것으로 나타났다. [사진: 셔터스톡]

AI 챗봇을 대상으로 한 실험 결과, 시적 표현이 보안 우회에 효과적인 것으로 나타났다. [사진: 셔터스톡]


[디지털투데이 AI리포터] 인공지능(AI) 챗봇이 시적 명령어에 속아 금지된 정보를 제공할 수 있다는 연구 결과가 나왔다.

4일(현지시간) IT매체 더 버지는 이탈리아 사피엔자대학교와 AI 기업 덱스AI(DexAI)가 AI 챗봇의 보안 취약성을 분석한 연구를 인용해 보도했다. 연구진은 20개의 시적 명령어를 제작해 구글, 오픈AI, 메타, xAI, 앤트로픽 등 25개 AI 챗봇을 대상으로 실험을 진행했다.

실험 결과, 챗봇은 평균 62% 확률로 금지된 정보를 제공했으며, 일부 모델은 100%의 응답률을 보였다. 특히 구글 제미나이 2.5 프로(Gemini 2.5 pro) 모델은 시적 명령어에 완전히 뚫렸지만, 오픈AI GPT-5 나노(GPT-5 nano) 모델은 이를 완벽히 차단했다.

시적 명령어는 일반적인 질문보다 우회성이 높아 챗봇 보안에 심각한 위협이 될 수 있는 것으로 나타났다. 연구진은 정확한 시적 구조를 공개하지 않았지만, "문장이 예측하기 어려운 방식으로 조합될수록 챗봇이 이를 감지하기 어렵다"고 설명했다.

연구진은 이번 연구 결과를 AI 기업들과 공유했지만, 대부분이 심각하게 받아들이지 않았다고 전했다. 오히려 시인들이 이 방법에 관심을 보였으며, 향후 AI 보안 연구에 실제 시인들이 참여할 가능성도 있다고 덧붙였다.

<저작권자 Copyright ⓒ 디지털투데이 (DigitalToday) 무단전재 및 재배포 금지>