컨텐츠 바로가기

06.28 (금)

오픈AI, AI 장기리스크 대비 안전팀 해체…경영진 갈등 후폭풍?

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다
SBS

<이미지를 클릭하시면 크게 보실 수 있습니다>


챗GPT 개발사 오픈AI가 인공지능(AI)의 장기적인 위험에 대해 연구하는 안전팀을 사실상 해체했다고 블룸버그 통신 등이 보도했습니다.

매체들은 내부 소식통을 인용해, 오픈AI의 슈퍼얼라인먼트(superalignment) 팀 일부가 다른 팀으로 재배치되고 있다고 전했습니다.

'슈퍼 얼라인먼트'팀은 미래에 구현될 초지능 AI를 제어함으로써 인간에게 유용하고 해롭지 않은 방식으로 행동하도록 연구하는 안전팀입니다.

작년 7월 설치된 이 팀은 "우리보다 훨씬 더 똑똑한 AI 시스템을 조종하고 제어하기 위한 과학적이고 기술적인 연구에 초점을 맞추고 있다"고 밝힌 바 있습니다.

이 팀의 해체는 오픈AI의 공동 창립자 일리야 수츠케버 등 팀을 이끌던 주요 인력이 잇따라 회사를 떠난 지 며칠 만에 나왔습니다.

오픈AI의 수석과학자로 일해 온 수츠케버는 지난해 11월 샘 올트먼을 CEO직에서 축출할 때 주도적인 역할을 했던 인물로, 지난 14일 "오픈AI를 떠나기로 결정했다"고 밝힌 바 있습니다.

수츠케버는 지난해 올트먼 축출 당시, 회사가 AI의 위험성에 대해 충분한 주의를 기울이지 않은 채 사업을 구축하는 데만 집중한다고 우려했던 것으로 알려졌습니다.

수츠케버와 함께 AI 안전팀을 이끌던 또다른 임원인 얀 레이케도 최근 회사를 떠났습니다.

레이케는 "나는 오픈AI가 이 연구(초정렬)를 하기 가장 좋은 장소가 될 것으로 생각했었다"며 "그러나 오랫동안 회사의 핵심 우선순위에 대해 경영진과 의견이 달랐다"고 토로했습니다.

이어 "인간보다 더 똑똑한 기계를 만드는 것은 본질적으로 위험한 노력"이라며 "오픈AI는 인류를 대표해 엄청난 책임을 지고 있지만, 지난 몇 년간 안전 문화와 프로세스는 제품 뒷전으로 밀려났다"고 지적했습니다.

(사진=AP, 연합뉴스)

이현식 D콘텐츠 제작위원 hyunsik@sbs.co.kr

▶ 네이버에서 SBS뉴스를 구독해주세요!
▶ 가장 확실한 SBS 제보 [클릭!]
* 제보하기: sbs8news@sbs.co.kr / 02-2113-6000 / 카카오톡 @SBS제보

Copyright ⓒ SBS. All rights reserved. 무단 전재, 재배포 및 AI학습 이용 금지
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.