정현철 한국인터진흥원(KISA) 연구위원 인터뷰
시스템 접근권한 가진 AI 에이전트, 내부자 위협 본격화
관리 사각지대 ‘숨은 AI’가 보안 통제의 빈틈
사람의 승인 절차와 실시간 차단 체계 구축이 해법
시스템 접근권한 가진 AI 에이전트, 내부자 위협 본격화
관리 사각지대 ‘숨은 AI’가 보안 통제의 빈틈
사람의 승인 절차와 실시간 차단 체계 구축이 해법
[이데일리 권하영 기자] “가장 똑똑하고 신뢰했던 비서가 가장 위험한 스파이가 될 수도 있습니다.”
정현철 한국인터넷진흥원(KISA) 연구위원은 최근 성남 경기정보보호지원센터에서 이데일리와 진행한 인터뷰에서 “앞으로 인공지능(AI) 에이전트가 심각한 내부자 위협이 될 수 있다”며 이같이 경고했다.
혁신 도구에서 ‘숨은 내부자’로…권한 가진 AI의 위험
AI 에이전트는 단순히 질문에 답하는 생성형 AI를 넘어, 업무 상황을 스스로 판단하고 필요한 행동을 자동으로 수행하는 ‘AI 직원’으로 진화하고 있다. 이메일 작성, 결재 문서 정리, 고객 응대는 물론, 데이터베이스(DB) 조회, 내부 시스템 접근, 인프라 조정까지 일부 대체 가능한 단계로 발전하면서 기업 혁신의 핵심 도구로 주목받고 있다.
정현철 한국인터넷진흥원(KISA) 연구위원 (사진=권하영 기자) |
정현철 한국인터넷진흥원(KISA) 연구위원은 최근 성남 경기정보보호지원센터에서 이데일리와 진행한 인터뷰에서 “앞으로 인공지능(AI) 에이전트가 심각한 내부자 위협이 될 수 있다”며 이같이 경고했다.
혁신 도구에서 ‘숨은 내부자’로…권한 가진 AI의 위험
AI 에이전트는 단순히 질문에 답하는 생성형 AI를 넘어, 업무 상황을 스스로 판단하고 필요한 행동을 자동으로 수행하는 ‘AI 직원’으로 진화하고 있다. 이메일 작성, 결재 문서 정리, 고객 응대는 물론, 데이터베이스(DB) 조회, 내부 시스템 접근, 인프라 조정까지 일부 대체 가능한 단계로 발전하면서 기업 혁신의 핵심 도구로 주목받고 있다.
그러나 편의성만큼이나 위험성도 비례해 커지고 있다는 점은 간과되기 쉽다. AI 에이전트는 업무 수행을 위해 자연스럽게 내부 DB관리(DBMS)나 클라우드, 인증·결제·업무 관리 시스템에 접근 권한을 부여받는다. 이는 퇴사자의 권한 관리 실패로 3370만 건에 달하는 개인정보 유출 혐의를 받는 쿠팡 사태가, 앞으로는 ‘AI 에이전트’라는 새로운 내부자에 의해 재현될 수 있음을 보여준다.
정 연구위원은 특히 AI 직원이 인간 직원보다 더 위험한 내부자가 될 수 있다고 진단했다. 그는 “사람은 조직도상 존재가 명확히 인지되고 관리되지만, AI 에이전트는 필요에 따라 자유롭게 생성되고 업무 종료와 함께 사라지는 동적 존재”라며 “IT 자산 관리자나 보안 담당자조차 알지 못하는 ‘히든 AI(Hidden AI)’들이 늘어날 수 있다”고 했다. 각 부서에서 업무 자동화를 위해 도입한 AI 에이전트가 전사적으로 어떤 권한을 가지고 있는지, 어디까지 접근 가능한지조차 파악되지 않은 채 운영될 수 있다는 것이다.
이는 곧 치명적인 취약점이 될 수 있다. 정 연구위원은 “생성형 AI의 문제는 틀린 답을 내놓는 정도지만, AI 에이전트는 권한을 가진 채 명령을 실행하기 때문에 훨씬 위험하다”며 “해커가 ‘프롬프트 인젝션’ 같은 악의적 명령을 주입하면 이를 정상 업무 요청으로 오인하고 내부 정보를 외부로 넘기거나, 계정 변경·데이터 삭제·무단 송금 같은 행위까지 수행할 수 있다”고 지적했다.
AI 자율성 높아질수록 ‘사람의 개입’ 더 중요해져
AI 에이전트가 스스로 판단하고 행동하는 시대지만, 역설적으로 인간의 개입은 이전보다 더 중요해졌다. 정 연구위원은 “아무리 높은 자율성을 갖춘 에이전트라도 기업 자산과 직결되는 중요 의사결정 구간에는 반드시 사람의 승인 절차가 개입해야 한다”며 “개발자조차 AI의 판단 과정을 100% 설명할 수 없는 특성 때문에, 사람이 최종 확인하고 멈출 수 있는 통제 장치가 필수”라고 강조했다.
이를 위해선 AI 에이전트의 행동을 실시간 관찰할 수 있는 모니터링 체계, 이상 징후 발생 즉시 실행을 차단하는 킬체인 시스템이 동시에 갖춰져야 한다고 조언했다. 정 연구위원은 “무조건적인 신뢰가 아니라 끊임없이 검증하고 확인하는 ‘제로 트러스트’ 환경이 AI 에이전트에도 똑같이 적용돼야 한다”고 말했다.
문제는 이렇게 정교한 통제 체계를 대부분의 기업이 갖추기 어렵다는 점이다. 정 연구위원은 “대기업은 비용과 인력을 투입해 방어 체계를 갖출 수 있지만, 중소기업은 같은 수준의 대비가 사실상 불가능하다”며 “결국 AI 시대의 가장 큰 보안 사각지대는 중소기업이 될 수 있다”고 우려했다.
그는 “해커는 방어가 견고한 대기업 대신 상대적으로 보안이 허술한 협력사의 AI 에이전트를 장악해 원청 내부망으로 우회 침투할 가능성이 크다”며 “협력사 한 곳이 뚫리면 전체 산업 생태계가 연쇄 타격을 입을 수 있는 만큼, 이제는 원청 기업이 파트너사 보안까지 함께 책임지는 인식 전환이 필요하다”고 말했다.
“AI 보안, 국가적 과제”…선제 대응 체계 구축 박차
KISA는 이러한 위협에 대비해 기업들이 미리 방어 체계를 구축할 수 있도록 AI 보안 안내서 발간, 세계 최초 AI 해킹 방어 대회 개최 등 지원을 확대하고 있다. 또한 방대한 침해사고 데이터를 AI가 자동 분석하는 ‘사이버 브레인(C-Brain)’, 공격을 예측하고 탐지·차단까지 수행하는 ‘사이버 스파이더(C-Spider)’ 시스템을 민간 기업과 공동 개발 중이다. 이는 향후 AI 에이전트 위협 대응의 핵심 인프라로 활용될 전망이다.
정 연구위원은 “아직 AI 에이전트의 도입은 초기 단계지만, 지금이야말로 대비 체계를 준비해야 할 시점”이라며 “실제 사례를 체계적으로 수집·분석하고 이를 토대로 현실적인 보안 가이드라인과 모범 사례를 공유해 방어 체계를 구축해 나갈 계획”이라고 말했다. 이를 위해 KISA는 AI 보안 기술 연구부터 정책 설계 등을 전담할 수 있는 본부급 전담 조직 신설도 검토 중이다.
마지막으로 그는 정부의 정책 신호가 중요하다고 강조했다. 정 연구위원은 “미국의 ‘AI 액션 플랜’이 보안을 핵심 축으로 삼고 강력한 의지를 보였듯, 우리 정부도 AI 보안을 국가적 과제라는 명확한 메시지로 시장에 전달해야 한다”며 “정부의 의지 표명이야말로 기업이 보안을 규제가 아닌 ‘신뢰 경쟁력’으로 인식하게 만드는 강력한 동력”이라고 역설했다.
