컨텐츠 바로가기

10.06 (일)

"AI 무기 개발, 핵만큼 위험… 국제규제 시급"

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다

인공지능 전문가 토비 월시 교수

조선일보

"자율살상무기(autonomous weapons)는 핵무기만큼이나 인류 생존을 위협할 수 있습니다. 세계 각국이 생화학무기 개발을 막았듯 인공지능(AI) 무기 개발에 대한 강력한 국제 규제안 마련이 시급합니다."

인공지능 분야 세계적 석학으로 꼽히는 토비 월시(54·사진) 호주 뉴사우스웨일스대 교수는 21일 서울에서 가진 인터뷰에서 "AI 기술은 인류에게 큰 혜택을 주지만 살상용 무기 개발로 이어질 경우 끔찍한 미래를 야기할 수 있다"며 "자율살상무기가 상업화되면 세계는 핵무기 이후 또 한 번 큰 위기에 직면할 것"이라고 했다.

그는 인공지능을 군사 목적으로 사용하려는 움직임에 반대하는 대표적 학자다. 2015년 AI를 이용한 살상무기 개발 우려가 고조되자 스티븐 호킹 등 석학들과 함께 연구 규제를 촉구하는 서한을 유엔에 전달했다. 지난해 구글이 미 국방부와 AI 연구를 진행하자 '군사용 AI 연구를 중단하라'는 항의 서한도 보냈다. 지난 4월엔 해외 저명 과학자 50여 명과 함께 한국과학기술원(KAIST)의 국방 관련 AI 연구를 문제 삼으며 AI 공동 연구를 전면 보이콧하겠다고 했다.

그는 "KAIST처럼 세계적으로 인정받는 연구기관이 군사용 AI 무기를 개발한다는 소식을 듣고 처음엔 큰 우려를 했다"며 "서한에 대해 한참 뒤 답변한 구글과 달리 KAIST는 곧바로 살상무기 개발은 아니라고 해명해 보이콧을 철회했다"고 말했다.

월시 교수는 이날 AI의 윤리적 활용을 주제로 KAIST가 주최한 세미나에 참석해 AI의 무기화 가능성에 우려를 표했다. 그는 "자율주행차 핵심 기술이 적군을 효과적으로 없애는 무인 항공기 개발에 이용될 수 있다"며 "모든 군사적 결정이 컴퓨터로 대체되면 효율성은 높아지겠지만 테러 단체의 해킹 위험도 커질 것"이라고 했다.

[최인준 기자]

- Copyrights ⓒ 조선일보 & chosun.com, 무단 전재 및 재배포 금지 -
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.