컨텐츠 바로가기

06.02 (일)

오픈AI, ‘인공지능 안전’ 위한 슈퍼얼라이언먼트팀 해체

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다
디지털데일리

<이미지를 클릭하시면 크게 보실 수 있습니다>


[디지털데일리 최민지기자] 챗GPT 개발사 오픈AI가 1년만에 인공지능(AI) 장기적 위험을 연구하는 ‘슈퍼얼라이언먼트(Superalignment)’ 팀을 사실상 해체했다.

17일(현지시간) 블룸버그통신, CNBC 등 주요 외신에 따르면 오픈AI 공동 창립자인 수석과학자 일리야 수츠케버, 얀 레이케 등 주요 인력들이 회사를 떠나자 슈퍼얼라이언먼트팀은 다른 팀들로 재배치됐다. 이들은 슈퍼얼라이언먼트팀 리더로 활동해 왔다.

지난해 7월 오픈AI는 초지능AI 위험에 대비하기 위해 슈퍼얼라이언먼트팀을 결성했다. 향후 4년간 컴퓨터 성능 20%를 미래의 강력한 AI 시스템 제어 문제 해결에 전념하겠다는 목표도 내걸었다. AI가 인간을 넘어 빠르게 발전하는 만큼, 인류의 안전을 위해 AI 시스템을 조정하고 제어하기 위한 과학적·기술적 연구를 하겠다는 것이다.

이와 관련 오픈AI는 “독립부서로 유지하는 대신, 안전 목표 달성을 돕는 연구 활동 전반에 걸쳐 그룹을 더 깊숙히 통합하고 있다”고 밝혔다. 팀 해체를 인정한 대목이다. 샘 올트먼 오픈AI 최고경영자(CEO)도 소셜미디어 X를 통해 “레이케가 떠나는 것은 슬프지만, 회사가 해야 할 일이 더 많다”고 전했다.

일각에서는 이번 팀 해체가 샘 올트먼 CEO 경영권 강화와 맞물린 것으로 보고 있다. 수츠케버는 지난해 11월 샘 올트먼 CEO 해임을 주도했던 인물 중 하나다. 물론, 이후엔 올트먼 복귀 서한에 서명했다. 수츠케버와 레이케는 안전에 중심을 두면서, 오픈AI 사업 전개 방향에서 갈등한 것으로 보인다.

레이케는 “오랫동안 회사 핵심 우선순위에 대해 경영진과 의견이 달랐다”며 “오픈AI는 인류 전체를 대신해 막중한 책임이 있지만, 지난 몇 년간 안전문화와 프로세스는 제품 뒷전으로 밀려났다. 오픈AI는 안전 우선 AGI 회사가 돼야 한다”고 언급한 바 있다.

한편, 해당 연구는 오픈AI 창립 멤버 중 한 명인 존 슐만이 맡을 것으로 보인다.

- Copyright ⓒ 디지털데일리. 무단전재 및 재배포 금지 -
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.