컨텐츠 바로가기

06.02 (일)

오픈AI, AI 위험 연구 안전팀 해체… 우려 커지자 “여러 방식으로 안전 수준 높일 것”

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다
조선비즈

챗GPT 달리가 생성한 이미지 위애 오픈AI 로고가 떠있는 모습./AP연합뉴스

<이미지를 클릭하시면 크게 보실 수 있습니다>



챗GPT 개발사 오픈AI가 인공지능(AI)의 장기적인 위험에 대해 연구하는 안전 전담팀을 해체했다. 이 팀을 이끌던 오픈 AI 공동 창립자 일리야 수츠케버를 비롯해 관련 핵심 인력이 줄줄이 회사를 떠난 직후 나온 조치다. 지난해 11월 샘 올트먼 오픈AI 최고경영자(CEO) 축출 사태 이후 경영진 간 갈등이 이어지고 있다는 분석이 나온다.

17일(현지시각) 블룸버그통신 등에 따르면 오픈AI는 미래 다가올 초지능 AI를 제어함으로써 인간에게 유용하고 해롭지 않은 방식으로 행동하도록 연구하는 슈퍼얼라이먼트(superalignment·초정렬)팀 인력을 재배치하고 있다. 오픈AI는 지난해 7월 이 팀을 만들면서 “우리보다 훨씬 더 똑똑한 AI 시스템을 조종하고 제어하기 위한 과학적이고 기술적인 연구에 초점을 맞추고 있다”고 설명했다.

그러나 슈퍼얼라이먼트 팀을 이끌던 임원과 팀원들이 잇따라 퇴사하면서 이 팀은 1년도 되지 않아 공중분해 됐다. 오픈AI의 수석과학자이자 올트먼 축출 사태를 주도한 수츠케버는 지난 14일 X(옛 트위터)를 통해 “오픈AI를 떠나기로 결정했다”며 “나는 오픈AI가 올트먼 등의 리더십 아래 안전하고 유익한 AIG(범용 인공지능)를 구축할 것으로 확신한다”고 했다. 수츠케버는 지난해 올트먼 축출 당시 AI의 위험성에 대해 충분한 주의를 기울이지 않은 채 오픈AI의 사업을 구축하는 데만 집중한다고 우려했던 것으로 전해졌다.

수츠케버와 함께 슈퍼얼라이먼트 팀을 이끌던 또 다른 임원 얀 레이케도 지난 17일 회사를 떠난다고 밝혔다. 레이케는 “나는 오픈AI가 이 연구(초정렬)를 하기 가장 좋은 장소가 될 것으로 생각했었다”며 “그러나 오랫동안 회사의 핵심 우선순위에 대해 경영진과 의견이 달랐다”고 밝혔다.

그는 그러면서 “인간보다 더 똑똑한 기계를 만드는 것은 본질적으로 위험한 노력”이라며 “오픈AI는 인류를 대표해 엄청난 책임을 지고 있지만, 지난 몇 년간 안전 문화와 프로세스는 제품 뒷전으로 밀려났다”고 지적했다.

이에 그렉 브록먼 오픈AI 사장과 올트먼 CEO는 공동 입장문을 내고 회사가 안전을 중시하고 있다고 강조했다. 이들은 “오픈AI는 AGI의 위험성과 기회에 대한 인식을 높여 세계가 AGI에 대비할 수 있도록 했다”며 “또 쉽지 않았지만, 성능이 점점 더 향상되는 시스템을 안전하게 배포하는 데 필요한 토대를 만들었고 악용되는 사례의 모니터링을 지속해서 개선해 왔다”고 했다.

그러면서 “미래는 과거보다 더 어려울 것이며, 우리는 새로운 모델의 위상에 걸맞게 안전 업무의 수준을 계속 높여야 한다”며 “앞으로의 AI 모델은 훨씬 더 많은 기능을 갖춰 세상과 깊이 통합되겠으나, 이를 안전하게 제공하기 위해서는 엄청난 양의 기초 작업이 필요해 언제쯤 안전 기준에 도달할 수 있을지는 아직 확실하지 않다. 이에 따라 향후 출시 일정이 미뤄지더라도 괜찮다”고 했다.

이어 “AGI로 가는 길에 관해 검증된 플레이북(각본)은 없다”며 “경험적인 이해가 앞으로 나아갈 방향을 제시하는 데 도움이 될 수 있다고 생각한다. 오픈AI는 긍정적인 측면을 제공하는 동시에 심각한 위험을 완화하기 위해 노력하고 있다”고 했다.

최지희 기자(hee@chosunbiz.com)

<저작권자 ⓒ ChosunBiz.com, 무단전재 및 재배포 금지>
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.