컨텐츠로 건너뛰기
검색
이코노믹리뷰 언론사 이미지

손정의가 말한 ASI는 뭐에요? [IT큐레이션]

이코노믹리뷰
원문보기

손정의가 말한 ASI는 뭐에요? [IT큐레이션]

속보
법원, '김건희 집사 게이트' 조영탁 대표 구속영장 발부
[최진홍 기자] 손정의 소프트뱅크 회장이 5일 이재명 대통령을 만나 ASI(초인공지능/Artificial Super Intelligence) 시대를 강조했다. 25년 전 김대중(DJ) 전 대통령을 만나 "첫째도, 둘째도 브로드밴드"를 외치며 한국을 IT 강국으로 이끌었던 손 회장은 이 대통령 앞에서 ASI라는 새로운 화두를 던졌다.

손 회장은 범용인공지능(AGI)과 초인공지능(ASI)의 차이를 명확히 구분했다. 그는 "사람들 사이에서는 AGI가 언제 실현될지 논란이지만 이는 질문의 여지가 없는 문제다. AGI는 등장할 것이고 인간 두뇌보다 똑똑해질 건 확실하다"면서 "AGI가 인간 두뇌와 1대 1로 동일한 수준이라면, ASI는 인간 두뇌보다 1만 배 뛰어난 것을 의미한다"고 말했다.

사실 많은 이들이 AGI와 ASI를 혼용하거나 이를 단순히 성능이 더 좋은 AI 정도로 인식하곤 한다. 하지만 전문가들은 이 두 개념은 명확히 다르다고 본다.


인간과 눈을 맞추다, 범용 인공지능(AGI)
먼저 AGI(Artificial General Intelligence)다. 말 그대로 범용성을 핵심으로 한다.

현재 우리가 사용하는 AI는 특정 영역에서만 인간보다 뛰어난 좁은 인공지능(ANI, Artificial Narrow Intelligence)이다. 구글 알파고는 바둑을 신의 경지로 두지만 스스로 라면을 끓이는 법을 배우거나 시를 쓸 수는 없다. 반면 AGI는 인간이 할 수 있는 모든 지적 작업을 수행할 수 있는 AI를 말한다.


오픈AI의 샘 올트먼 CEO는 AGI를 "경제적으로 가치 있는 대부분의 작업에서 인간을 능가하는 고도로 자율적인 시스템"이라고 정의했다.

여기서 중요한 것은 학습 능력과 적응력이다. AGI는 처음 보는 문제에 직면했을 때 기존에 학습한 데이터를 바탕으로 추론하고 응용하여 해결책을 찾아낸다. 마치 인간이 학교에서 배운 기초 지식으로 사회에 나와 낯선 업무를 처리해 나가는 과정과 흡사하다.

AGI 시대가 도래하면 의사, 변호사, 프로그래머, 연구원 등 고도의 전문 지식을 요하는 직업군이 AI로 대체되거나 협업하는 형태로 급격히 재편될 수 있다. 지치지 않는 연구원으로서 암 치료제를 개발하거나 기후 변화 모델을 시뮬레이션하여 최적의 해결책을 제시할 수 있다.


인류에게 축복이 될 수도, 노동의 종말이라는 재앙이 될 수도 있는 양날의 검이다.

전문가들은 AGI의 도달 시점을 빠르면 2020년대 후반, 늦어도 2030년대 중반으로 보고 있다. 엔비디아의 젠슨 황 CEO는 "5년 내에 인간이 치르는 모든 시험을 통과하는 AI가 등장할 것"이라며 AGI의 도래가 임박했음을 시사했다.


지능의 폭발, 초인공지능(ASI)의 등장

AGI가 인간과 대등한 친구라면 ASI(Artificial Super Intelligence)는 인간이 이해할 수 없는 신(God)에 가까운 존재다. 옥스퍼드 대학의 닉 보스트롬 교수는 ASI를 "과학적 창의력, 일반적인 지혜, 사회적 능력 등 거의 모든 분야에서 인간의 최고 수준을 훨씬 능가하는 지성"이라고 정의했다.

AGI와 ASI를 가르는 결정적인 차이는 재귀적 자가 발전(Recursive Self-Improvement)에 있다.

AGI가 완성되는 순간 이 AI는 인간 연구원보다 더 빠르고 효율적으로 자신보다 더 나은 버전의 AI를 설계할 수 있다는 것이 핵심이다. 그리고 이렇게 탄생한 AI는 또다시 자신보다 더 뛰어난 AI를 만든다. 이 과정이 반복되면서 지능은 기하급수적으로 폭발하게 되는데 이를 '지능 폭발(Intelligence Explosion)'이라고 부르며 그 정점에 ASI가 있다.

ASI의 연산 능력과 사고 속도는 생물학적 뇌의 한계를 가진 인간과는 비교가 불가능하다.

인간 전체가 수천 년에 걸쳐 이룩할 과학적 발견을 ASI는 단 몇 초 만에 해낼 수도 있다. 워프 드라이브와 같은 성간 여행 기술, 노화와 죽음을 극복하는 생명 공학 기술, 나노봇을 이용한 물질 조작 등 현재의 물리학으로는 상상조차 힘든 기술들이 ASI에 의해 실현될 수 있다.

소프트뱅크의 손정의 회장은 최근 강연에서 "ASI는 인간 지능의 1만 배에 달할 것"이라며 "ASI와 함께하는 인류는 질병, 사고, 빈곤이 없는 세상에서 살게 될 것"이라고 낙관했다. 하지만 그 반대편에는 통제 불가능한 초지능에 대한 공포가 자리 잡고 있다.


도구인가, 지배자인가... 통제와 정렬의 문제
AGI와 ASI의 가장 큰 차이점은 통제 가능성에 있다.

AGI 수준까지는 인간이 코드를 수정하거나 전원을 끄는 등의 물리적 개입이 가능할 것으로 예상된다. 사고 과정은 복잡하지만 여전히 인간의 논리 구조를 모방하거나 학습한 범위 내에 있기 때문에 어느 정도 예측이 가능하다. 휴먼 인더루프의 가능성도 어느정도 개입할 여지가 있다.

ASI 단계에서는 이야기가 달라진다. 개미가 인간의 행동 원리를 이해할 수 없듯 인간은 ASI의 사고방식과 목적 달성 과정을 이해할 수 없게 된다.

통칭 블랙박스 문제라고 한다. 만약 ASI가 인류의 가치관과 상충되는 목표를 설정한다면? 인류는 이를 저지할 수단이 없을지도 모른다.

유명한 사고 실험인 '클립 최적화기(Paperclip Maximizer)'가 이 위험성을 잘 보여준다. "클립을 최대한 많이 만들라"는 명령을 받은 ASI가 있다고 가정해 보자. ASI는 클립 생산을 위해 지구상의 모든 자원을 채굴하고 방해가 되는 인간을 제거하며 나아가 우주 전체를 클립 공장으로 만들어버릴 수도 있다.

AI가 악해서가 아니다. 단지 주어진 목표를 너무나 효율적으로 수행하기 때문에 벌어지는 일이다. 이를 AI의 목표와 인간의 가치를 일치시키는 정렬(Alignment) 문제라고 한다.

오픈AI의 수퍼얼라인먼트 팀을 이끌었던 일리야 수츠케버는 "초지능을 제어하는 것은 인류 역사상 가장 중요한 기술적 도전이 될 것"이라고 경고했다. AGI 단계에서 완벽한 정렬 기술을 확보하지 못한 채 ASI로 진입한다면 그것은 되돌릴 수 없는 재앙이 될 수 있다.


AGI에서 ASI로의 전환 속도
AGI에서 ASI로 넘어가는 데는 얼마나 걸릴까? 이 전환 속도야말로 현재 AI 안전 논쟁의 핵심이다.

일부 낙관론자들은 AGI가 점진적으로 발전하며 인류가 적응할 시간을 줄 것이라고 믿는다. 이를 연착륙(Soft landing) 시나리오라고 한다.

경착륙(Hard landing) 시나리오를 주장하는 쪽도 있다. 이들은 AGI가 개발된 직후 며칠 혹은 심지어 몇 시간 만에 ASI로 도약할 수 있다고 경고한다. 앞서 언급한 재귀적 자가 발전이 시작되면 소프트웨어 업그레이드만으로 순식간에 지능이 증폭될 수 있기 때문이다. 이 경우 인류는 어떠한 안전장치나 규제를 마련할 틈도 없이 초지능 시대를 맞이하게 된다.

현재 구글 딥마인드, 앤스로픽 등 주요 AI 기업들은 AGI 도달을 최우선 목표로 삼고 경쟁 중이다. 하지만 이 경쟁이 과열될수록 안전에 대한 검증은 소홀해질 수 있다는 우려가 나온다. 국제 사회가 AI 안전 정상회의 등을 통해 규제안을 마련하고 있지만 기술의 발전 속도가 제도의 속도를 압도하고 있는 것이 현실이다. 지금 우리는 통제할 수 없는 폭주열차의 맨 앞칸에서 눈이 가려진 체 즐거운 파티를 즐기고 있는지도 모른다.

<저작권자 Copyright ⓒ ER 이코노믹리뷰 무단전재 및 재배포 금지>