필리프 스톨 국제적십자 수석기술외교담당관
디지털 넘어 AI 전쟁으로
위험한 비대칭 전력 우려
전세계 AI 활용 중재할 것
디지털 넘어 AI 전쟁으로
위험한 비대칭 전력 우려
전세계 AI 활용 중재할 것
필립 스톨 국제적십자위원회(ICRC) 수석기술외교담당관. [이충우 기자] |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
“현장 구호 활동에 전념하는 적십자가 최근 인공지능(AI) 관련 목소리를 내는 이유가 무엇이겠습니까. 머지않은 미래에는 AI 자율 무기가 핵과 같이 ‘금지된 무기’가 될 수도 있습니다”
지난 22일 서울 중구 국제적십자위원회(ICRC) 사무소에서 매일경제신문과 만난 필립 스톨 ICRC 수석기술외교담당관은 인터뷰 내내 우려를 쏟아냈다. 그는 “현재 군사 부문에 활용되는 AI의 발전 속도는 상상을 초월하며, 크고 작은 나라는 물론 중동의 작은 무장단체들까지 모두 이미 AI를 실전 배치하고 있다”고 말했다.
ICRC는 지난 2020년 ‘기술외교(테크플로머시)’라는 개념을 도입했다. 당시는 분쟁·재난 현장에서 디지털 기술의 영향력이 절대적인 수준에 도달한 때였다. 기술외교란 ‘기술과 외교를 결헙해 인도주의를 달성하려는 노력’을 의미한다.
20년 동안 팔레스타인과 아프가니스탄 등에서 활동한 필립 수석담당관은 2022년 러시아의 우크라이나 침공 이후 우크라이나에 파견됐다. 그는 “국가 간 분쟁 양상이 ‘디지털 전쟁’으로 완전히 바뀌었다는 점을 이때 실감했다”면서 “최근에는 아예 ‘AI 전쟁’으로 바뀌는 흐름이다. AI 기술과 AI 보급 속도가 도저히 믿을 수 없을 만큼 증대됐다”고 강조했다.
필립 수석담당관은 “상상할 수 있는 모든 조직이 AI 무기와 AI 의사 결정 체계를 운용하고 있다”고 확언했다. 그는 전장에서 AI가 의사 결정을 하는 실제 모델을 재구성해 시연했다. ‘작전 문의’를 하자 AI는 최근까지의 데이터를 토대로 공격이 필요한 지점을 특정했고, 피해 규모를 추산했다. 해당 정보들과 함께 ‘공격하겠느냐’는 문구가 뜨기까지 2초가 채 걸리지 않았다.
더 큰 문제는 최종 의사결정마저 AI가 하는 ‘AI 자율 무기’다. 필립 수석담당관은 “AI 자율 무기의 정말 무서운 점은 핵무기와 같은 비대칭 전력이 될 가능성이 있는데도, 핵무기보다 진입 장벽이 훨씬 낮다는 사실”이라고 말했다.
필립 수석담당관은 “현재 기술 수준으로는 AI 자율 무기가 핵무기처럼 전면 금지될 가능성은 낮지만, AI 자율 무기가 비례성의 원칙을 무시하는 방향으로 간다면 당연히 금지 무기로 선정될 수 있다”며 “ICRC가 AI 무기에 대해 점차 강화된 목소리를 내고 있는데, 이는 ‘금지’를 염두에 두고 있다는 의미”라고 말했다.
그러나 분쟁·재난 지역에 필요한 ‘이로운 AI’까지 막을 수는 없다. 필립 수석담당관은 “우리가 주장하는 규제는 AI 기술에 대한 규제가 아니라 이를 운용하는 인간에 대한 제한”이라고 말했다. 이를 위해 ICRC는 전 세계가 동의하는 ‘사이버 정보 작전’ 관련 협약을 추진하고 있다. 그는 “오는 10월 국제적십자사·적신월사 회의에서 AI를 포함한 데이터 활용 관련 새로운 기준과 법칙을 제시할 예정”이라고 말했다.
[ⓒ 매일경제 & mk.co.kr, 무단 전재, 재배포 및 AI학습 이용 금지]
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.