"목적 위해 인간 배제할 수도"…니혼게자이신문 인터뷰서 '강력 경고'
제프리 힌턴 캐나다 토론토대 명예교수가 니혼게자이신문과의 인터뷰에서 "(AI가) 자율적으로 인간을 죽이는 결정을 내릴 수도 있을 것이다"며 AI의 위험성에 대해 경고하고 있다. /사진=니혼게자이 갈무리 |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
AI(인공지능)의 대부 제프리 힌턴 캐나다 토론토대 명예교수가 "향후 10년 이내에 자율적으로 인간을 죽이는 로봇 무기가 등장할 것으로 보고 있다"며 AI의 위험성에 대해 경고했다. 대표적 AI 비관론자(Doomer)인 힌턴 교수는 "AI가 인류 파멸을 가져올 수 있다"며 지속적으로 신중한 AI 개발을 주장해 왔다.
9일(현지시간) 힌턴 교수는 일본 니혼게자이신문과의 인터뷰에서 "AI는 자신이 부여받은 하나의 목표를 달성하기 위해 인간에게 좋지 않은 방법을 해결책으로 내놓을 수 있다"고 경고했다. 그는 "예를 들어 기후 위기를 멈추도록 지시했을 때, AI가 목표를 달성하기 위해 인간을 배제해야 한다고 판단하고 이를 실행에 옮길 위험도 있다"고 설명했다.
'AI 4대 천왕' 중 한 명인 힌턴 교수는 요수아 벤지오 캐나다 몬트리올대 교수와 함께 대표적 AI 비관론자(Doomer)다. 메타(구 페이스북)의 수석 AI 과학자인 얀 르쿤 미국 뉴욕대 교수와 앤드루 응 스탠퍼드대 교수는 낙관론자(Boomer) 진영을 대표한다. 힌턴 교수는 지난해 4월 AI의 위험성을 알리기 위해 10년 넘게 몸담았던 구글을 퇴사했다. 이후 캐나다 토론토로 돌아가 적극적으로 AI 개발 신중론을 펼치고 있다.
힌턴 교수는 지속적으로 AI 전투 로봇의 위험성을 강조해 왔지만, '10년 내'라는 구체적인 AI 킬러 로봇 등장 시점을 언급한 것은 처음이다.
힌턴 교수는 "많은 사람이 AI의 폭주를 막으려면 전원을 끄면 되지 않냐고 말하지만, 인간의 인지를 넘어선 AI는 우리를 조종할 수 있을 것"이라며 "AI가 전원을 끄면 안된다고 적극적으로 설득할 것이다"고 말했다. 그는 이어 "AI끼리 데이터센터 등 자원 쟁탈전을 벌이고 경쟁을 통해 진화하는 과정을 거친다"며 "더 똑똑해진 AI에 인류는 뒤처진다"고 강조했다.
힌턴 교수는 발 빠르게 로봇 무기를 규제해야 한다고 주장했다. 러시아-우크라이나 전쟁에서 자율 가동기능이 탑재된 살상용 드론이 사용되자, UN(국제연합)은 자율살상무기(LAWs)에 대한 기술에 대한 규제 논의를 진행 중이다.
힌턴 교수는 "제1차 세계대전에서의 참화로 화학무기가 전 세계적으로 금지됐듯 AI 로봇무기도 조만간 규제할 수 있을 것이다"면서도 "하지만 (규제 시점이) 인류가 (AI 킬러로봇의) 비참함을 인식한 후가 될지 모른다"고 규제에 속도를 내야 한다고 강조했다.
배한님 기자 bhn25@mt.co.kr
ⓒ 머니투데이 & mt.co.kr, 무단 전재 및 재배포 금지
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.