슈퍼얼라이먼트 팀 해체 논란에
“경험적 이해 통해 대응해 나가겠다”
“경험적 이해 통해 대응해 나가겠다”
샘 올트먼 오픈AI CEO 스케치 |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
오픈AI의 샘 올트먼(Sam Altman) 최고경영자(CEO)와 그렉 브록만(Greg Brockman) 사장이 인공지능(AI) 안전·윤리 담당 부서인 슈퍼얼라인먼트(Super Alignment)팀을 해체했다는 논란에 정면 반박했다.
19일 이들은 X(옛 트위터)를 통한 성명 발표에서 “오픈AI는 일반인공지능(AGI)의 위험성과 기회에 대한 인식을 높여 세계가 AGI에 대비할 수 있도록 했다”면서 “딥러닝의 확장 가능성을 입증하고 그 영향력을 분석했으며, AGI 국제 규제를 최초로 제안하고 AI 시스템의 치명적인 위험을 평가하는 과학을 개척했다”고 강조했다.
그러면서 이들은 “오픈AI는 점점 더 능력 있는 시스템의 안전한 배포를 위한 기초를 마련해왔다”며 “새로운 기술을 처음으로 안전하게 만드는 것은 쉽지 않으며, GPT-4를 안전하게 출시하기 위해 많은 작업을 수행했고, 배포 과정에서 얻은 교훈을 통해 모델의 행동과 남용 모니터링을 지속적으로 개선해왔다”고 덧붙였다. 하지만 AGI 위험에 대비하는 것은 쉽지 않을 것임을 시사했다. 올트먼과 브록만은 “미래는 과거보다 더 어려울 것이며, 새로운 모델의 중요성에 맞춰 안전 작업을 계속 높여야 한다”고 언급했다.
하지만 올트먼과 브록만은 슈퍼얼라인먼트 방식이 AGI의 위험을 예방할 수 있다는 주장에 대해서는 반박했다. 이들은 “AGI로 가는 길에 대한 입증된 블레이북(지침서)는 아직 없다”면서 “경험적인 이해가 앞으로 나아갈 방향을 제시하는 데 도움이 될 수 있다고 생각한다. 오픈AI는 긍정적인 측면을 제공하는 동시에 심각한 위험을 완화하기 위해 노력하고 있다”고 거듭 강조했다.
이번 성명은 오픈AI가 일반인공지능(AGI)을 사전에 통제하고자 출범한 슈퍼얼라인먼트(Super Alignment)팀을 전격 해체한 직후 발표됐다. 슈퍼얼라인먼트란 초지능 AI가 인간이 원하는 대로 행동하게 만드는 기술이다. 인간 능력을 넘어서 스스로 판단하고 행동하는 일반인공지능이 나타나더라도 사람들에게 해를 끼치지 않고, 유익하게 사용되도록 조절하는 방법을 연구하는 것이 목표다.
해당 팀은 일리야 수츠케버(Ilya Sutskever)가 이끌었지만 컴퓨팅 자원 배분 문제로 사내 갈등이 폭증한바 있다. 슈퍼얼라인먼트팀이 그래픽처리장치(GPU) 등 컴퓨팅 자원 20%을 배분 받았는데, 이로 인해 개발 속도가 늦어졌다는 목소리가 나왔다. 해당 팀은 현재 줄줄이 회사를 떠난 상태다. 슈츠케버 최고과학자 외에 레오폴드 아셴브레너(Leopold Aschenbrenner)와 파벨 이즈마일로프(Pavel Izmailov)는 회사 비밀 유출로 해고됐으며, 윌리엄 손더스(William Saunders)는 올 2월 오픈AI를 떠났다. 또 AI 정책 및 거버넌스 연구원인 컬렌 오키프(Cullen O‘Keefe)와 다니엘 코코타일로(Daniel Kokotajlo)도 회사를 떠난 것으로 추정된다.
이에 딥마인드 출신 얀 리이크(Jan Leike)는 사임을 발표하면서 “인간보다 똑똑한 기계를 만드는 것은 본적적으로 위험한 일이며, 오픈AI는 인류 전체를 대표해 막중한 책임을 지고 있다”며 “하지만 지난 수년간 AI 안전성은 잘나가는 제품보다 뒷전으로 밀려났다”고 불만을 터뜨렸다.
[ⓒ 매일경제 & mk.co.kr, 무단 전재, 재배포 및 AI학습 이용 금지]
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.