스마트폰 기기 자체 해킹 가능성 노출
클라우드 연결로도 언제든 보안 위협
AI 에이전트, 프롬프트 인젝션에 취약
AI 서비스 속도 못 따라가는 보안체계
LG유플러스의 인공지능(AI) 통화 애플리케이션 ‘익시오’ 고객 36명의 통화정보 일부가 유출된 사실이 알려지면서 AI 서비스의 보안 안전성에 대해 우려가 높아지고 있다. 7일 LG유플러스에 따르면 이번 사건은 서비스 운영 개선 작업 중 캐시 설정이 잘못돼 발생한 것으로, 외부 침입이 원인은 아니다. 그러나 LG유플러스가 그동안 ‘사생활 보호에 강하다’고 홍보해 온 것과 달리, 개인화한 ‘온디바이스’ AI 역시 보안 위험에서 자유롭지 않다는 게 전문가들의 지적이다.
온디바이스 AI는 데이터를 외부 서버나 클라우드 저장소가 아닌 개인 기기 내에 직접 보관하고 처리하는 방식이다. 사용자의 민감한 정보를 기기 안에 보관할 수 있는 게 장점이지만, 온디바이스라 하더라도 네트워크에서 자유롭지 않다 보니 오히려 이중의 위험이 생긴다. 우선 스마트폰 같은 기기 자체가 해킹이 될 경우다. 스마트폰에 내려받은 파일이나 문자메시지 이용 사기(스미싱)를 통해 침입한 악성코드로 AI 서비스가 공격을 받을 경우 개인정보 유출은 피하기 어렵다.
온디바이스 AI라도 클라우드에서 완전히 독립적일 수 없는 것 역시 취약점이 된다. 온디바이스 AI도 주기적으로 클라우드 서버에서 최신 모델이나 학습 데이터를 내려받는데, 이 파일이 오염돼 있을 경우 보안 기능이 오작동하거나 민감한 정보가 빠져나갈 수 있는 것이다. 스마트워치나 로봇청소기처럼 통신이 주목적이 아닌 온디바이스 AI 기기도 이런 방식으로 위험에 노출될 수 있다.
클라우드 연결로도 언제든 보안 위협
AI 에이전트, 프롬프트 인젝션에 취약
AI 서비스 속도 못 따라가는 보안체계
LG유플러스의 인공지능(AI) 통화 앱 '익시오' 이용 고객 36명의 통화정보가 유출된 사실이 알려진 7일 한 시민이 서울 시내 LG유플러스 매장 앞을 지나가고 있다. 뉴스1 |
LG유플러스의 인공지능(AI) 통화 애플리케이션 ‘익시오’ 고객 36명의 통화정보 일부가 유출된 사실이 알려지면서 AI 서비스의 보안 안전성에 대해 우려가 높아지고 있다. 7일 LG유플러스에 따르면 이번 사건은 서비스 운영 개선 작업 중 캐시 설정이 잘못돼 발생한 것으로, 외부 침입이 원인은 아니다. 그러나 LG유플러스가 그동안 ‘사생활 보호에 강하다’고 홍보해 온 것과 달리, 개인화한 ‘온디바이스’ AI 역시 보안 위험에서 자유롭지 않다는 게 전문가들의 지적이다.
AI 서비스, 보안 안전지대 아니다
온디바이스 AI는 데이터를 외부 서버나 클라우드 저장소가 아닌 개인 기기 내에 직접 보관하고 처리하는 방식이다. 사용자의 민감한 정보를 기기 안에 보관할 수 있는 게 장점이지만, 온디바이스라 하더라도 네트워크에서 자유롭지 않다 보니 오히려 이중의 위험이 생긴다. 우선 스마트폰 같은 기기 자체가 해킹이 될 경우다. 스마트폰에 내려받은 파일이나 문자메시지 이용 사기(스미싱)를 통해 침입한 악성코드로 AI 서비스가 공격을 받을 경우 개인정보 유출은 피하기 어렵다.
온디바이스 AI라도 클라우드에서 완전히 독립적일 수 없는 것 역시 취약점이 된다. 온디바이스 AI도 주기적으로 클라우드 서버에서 최신 모델이나 학습 데이터를 내려받는데, 이 파일이 오염돼 있을 경우 보안 기능이 오작동하거나 민감한 정보가 빠져나갈 수 있는 것이다. 스마트워치나 로봇청소기처럼 통신이 주목적이 아닌 온디바이스 AI 기기도 이런 방식으로 위험에 노출될 수 있다.
최근에는 AI의 오류를 야기하는 명령어(프롬프트)를 주입하는 ‘프롬프트 인젝션’이라는 공격도 등장했다. 온디바이스 AI가 사용자의 명령으로 온라인에 있는 정보를 요약하고 수집하는 과정에서 사람에겐 보이지 않지만 AI는 읽을 수 있는 방식의 명령어를 숨겨 넣는 것이다. 지난 8월 중국 컴퓨터 기업 레노버의 고객 응대 AI 서비스가 이런 공격으로 백도어 악성코드에 노출되기도 했다. 프롬프트 인젝션 공격은 특히 사용자를 대신해 알아서 일을 처리하는 AI 에이전트일수록 더 취약하다.
ISMS-P에 AI 보안 기준 반영 안 돼
이처럼 AI 서비스에도 개인정보 유출 위험이 늘 따르는 만큼 만일의 사태에 대비해야 한다는 지적이 나온다. 곽진 아주대 사이버보안학과 교수는 “통화내역 같은 민감한 정보가 개인 기기에 저장돼 있다 하더라도 유출될 경우 치명적인 만큼, 데이터를 철저히 암호화하는 등 온디바이스 AI 자체의 보안 수준을 높여야 한다”고 말했다.
현행 보안 기준이 AI 서비스 확산을 따라가지 못하는 것도 문제다. 국가 공인 인증인 정보보호 및 개인정보보호 관리체계(ISMS-P)에 AI 보안 기준이 반영되지 않은 것이 대표적이다. 미국의 경우 국립표준기술연구소(NIST)가 2023년 AI 위험관리 프레임워크를 표준화했고, 올해 캘리포니아주 소비자 개인정보보호법(CCPA)도 AI 사용에 따른 개인정보를 처리할 때 위험평가를 의무화하는 등 발 빠르게 규제를 마련한 것과 상반된다. 한국인터넷진흥원(KISA) 관계자는 “ISMS-P에서 AI 도입 기업이 고려해야 할 보안 요구사항을 도출해 현재 의견 수렴 중이며, 완성되는 대로 인증 기준에 반영해 심사에 적용할 예정”이라고 밝혔다.
신혜정 기자 arete@hankookilbo.com
