[사진: 오픈AI] |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
[디지털투데이 AI리포터] 오픈AI가 인공지능(AI)의 부작용보다 발전 가능성을 앞세우고 있다. 최근 공동창업자 일리아 수츠케버와 핵심 개발자 중 한 사람인 얀 라이크가 퇴사하면서 AI 시스템의 안전성 확보에 주력하던 안전관리팀 팀이 사실상 해체됐다.
지난 17일(현지시간) IT매체 와이어드 등 외신에 따르면, 오픈AI 안전관리팀 구성원은 최근 몇 달 사이 타 부서로 자리를 옮기거나 회사를 떠난 것으로 알려졌다.
오픈I 안전관리팀은 인간을 뛰어넘는 초고지능을 갖춘 인공일반지능(AGI)의 등장을 가정하여 미래 AI소프트웨어를 제어하고 안전을 보장하는 방법을 모색하는 기술 및 정책 부서다.
때문에 최근 오픈AI의 인력 이동은 샘 알트먼 최고경영자(CEO) 복귀 이후 오픈AI의 경영 방침의 변화를 상징한다고 볼 수 있다. 샘 알트먼 CEO는 안전 확보에 집착하는 보수적인 정책보다 AI 기술 발전과 비즈니스 확장에 더 높은 관심을 두고 있다.
오픈AI의 이러한 내부적 변화는 퇴사 의사를 밝힌 얀 라이크의 발언에서 윤곽을 확인할 수 있다.
얀 라이크는 자신의 엑스(트위터)를 통해 "오픈AI가 AI 연구 수행에 가장 적합한 곳이라고 생각했기 때문에 합류했다. 그러나 지금은 그렇지 않다. 나는 회사의 핵심 우선순위에 대해 경영진과 꽤 오랫동안 의견을 달리해 왔고, 마침내 한계점에 도달했다"고 말했다.
아울러 그는 "오픈AI는 보안, 모니터링, 대비, 안전 및 사회적 영향에 훨씬 더 많은 회사 역량을 집중해야 한다고 생각한다"며 "인간보다 더 똑똑한 기계를 만드는 것은 본질적으로 위험한 작업이다. 오픈AI는 인류를 대신해 막중한 책임을 짊어지고 있다. 하지만 지난 몇 년 동안 안전 문화와 절차는 뒷전으로 밀려났다. 오픈AI가 안전을 최우선으로 하는 인공지능 기업이 되길 바란다"고 덧붙였다.
이같은 얀 라이크의 발언에 대해 오픈AI는 공식 논평을 내놓지 않았다.
<저작권자 Copyright ⓒ 디지털투데이 (DigitalToday) 무단전재 및 재배포 금지>
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.