컨텐츠 바로가기

01.08 (수)

이슈 인공지능 시대가 열린다

오픈AI CEO “AGI 구축 방법 안다...이제는 ‘초지능’ 개발이 목표”

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다
인간 수준 뛰어넘는 AI...“과학적 혁신 가속할 것”


매일경제

샘 올트먼 오픈AI 최고경영자 모습. <사진 = AFP연합뉴스>

<이미지를 클릭하시면 크게 보실 수 있습니다>


샘 올트먼 오픈AI CEO가 이제는 인간 지능 수준을 뛰어넘는 ‘초지능(superintelligence)’을 목표로 개발에 나선다고 밝혔다.

7일 정보기술(IT) 업계에 따르면 올트먼 CEO는 신년을 맞아 자신의 블로그에 회고를 올리며 “이제 오픈AI는 범용인공지능(AGI)을 구축하는 법을 알고 있다고 확신한다”라며 “이제는 이를 넘어 진정한 의미의 초지능으로 목표를 전환하기 시작했다”라고 밝혔다.

AGI가 인간 수준의 지능으로 광범위한 작업을 모두 수행할 수 있는 AI라면, 초지능은 한발 더 나아가 인간의 지능을 뛰어넘는 수준의 AI를 일컫는다.

올트먼 CEO는 “초지능이 있다면 무엇이든지 할 수 있다”라면서 “초지능 툴은 인간의 역량을 훌쩍 뛰어넘는 과학적인 발견과 혁신을 가속함으로써 인류의 풍요와 번영을 크게 증진시킬 것”이라고 긍정적으로 내다봤다.

이어 “지금은 공상과학 소설처럼 들리거나 미친 소리 같을 수 있겠지만 이전에도 그런 경험을 해봤고 앞으로도 그럴 것이다. 앞으로 수년 안에 우리가 보고 있는 것을 모든 사람이 보게 될 것”이라고 말했다.

또한 올해에는 “최초의 AI 에이전트가 ‘업무에 합류’해 기업의 생산성을 실질적으로 변화시키는 것을 목격하게 될 것”이라며 본격적인 AI 에이전트의 출현을 예고했다.

올트먼 CEO는 5일(현지시간) 보도된 블룸버그 인터뷰에서도 “이번(도널드 트럼프) 대통령 임기에 AGI가 개발될 것으로 생각한다”라고 밝힌 바 있다.

한편 AI 업계에서 초지능은 인류가 대비해야 하는 하나의 우려 사항으로 꼽히기도 한다. 인간의 통제력을 벗어나 초지능이 인류에 부정적인 영향을 미칠 수 있다는 가능성이다.

노벨 물리학상 수상자인 제프리 힌턴 토론토대 명예교수 또한 노벨상 수상 이후 “예전에는 초지능 개발 시기가 훨씬 더 늦을 것이라 생각했지만 최근 개발 속도를 보면 5~20년이면 될 것 같다”라며 “어떻게 통제력을 유지할 수 있을지에 대해 심각하게 걱정해야 한다고 생각한다”라며 꾸준히 AI의 위험성을 경고해왔다.

오픈AI 공동창업자이자 지난해 5월 오픈AI를 떠난 일리야 수츠케버도 안전한 AI 개발을 강조하면서 안전한 초지능을 의미하는 스타트업 ‘SSI(Safe Superintelligence)’를 창업하기도 했다.

올트먼 CEO 또한 초지능을 언급하며 “광범위한 혜택을 극대화하면서도 신중하게 접근해야 할 필요성이 매우 중요하다”라고 말했다. 다만 오픈AI는 지난해 안전 담당 임원들이 퇴사하고, 안전을 대비하는 팀을 연달아 해체하는 등의 행보를 보이면서 안전성을 등한시한다는 지적도 나오고 있다.

한편 올트먼 CEO는 해당 블로그에서 약 9년 전 오픈AI가 첫발을 떼던 시점을 언급하며 “AGI가 가능하다고 믿었기에 오픈AI를 시작했으며, 이것이 인류 역사상 가장 영향력 있는 기술이 될 수 있다고 믿었다”라고 말했다.

그는 또한 지난 2023년 이사회로부터 돌연 해고당했던 때를 회상하면서 “일련의 사건은 나를 포함해 선의를 가진 사람들이 거버넌스에 크게 실패한 사례”라며 “그때 다르게 행동했더라면 좋았을 것이며, 당시보다 지금은 더 사려 깊은 리더가 되었다고 믿고 싶다”라고 말했다.

[ⓒ 매일경제 & mk.co.kr, 무단 전재, 재배포 및 AI학습 이용 금지]
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.