오픈AI는 28일(현지시간) 블로그를 통해 '오픈AI 이사회, 안전·보안위원회 구성'이라는 성명을 발표했다. 오픈AI는 "차세대 프런티어 모델을 훈련하기 시작했다"면서 "그 결과물이 일반인공지능(AGI)으로 가는 길에 한 단계 높은 수준의 역량을 제공할 것으로 기대한다"고 강조했다. 아울러 오픈AI는 새로운 모델과 미래 기술이 제기하는 위험을 다루고자 새로운 안전·보안위원회를 구성한다고 밝혔다. 오픈AI는 "우리는 역량과 안전성 면에서 업계 최고인 모델을 개발하게 돼 자랑스럽고, 이 중요한 순간에 강력한 논쟁을 환영한다"고 말했다. 오픈AI가 언급한 AGI는 마크 구부르드 노스캐롤라이나대 교수가 1997년 저술한 '나노 기술과 국제 안보'라는 논문을 통해 발표한 꿈의 AI다. AGI는 명령 없이도 사람의 지능 수준을 뛰어넘어 자율적으로 판단할 수 있는 AI를 가리킨다.
하지만 오픈AI는 어떠한 모델을 내놓을지에 대해선 함구했다. 다만 AI 업계에서는 문장, 이미지, 동영상, 음성 등을 자유롭게 생성하고 전환할 수 있는 멀티모달 AI일 것으로 내다보고 있다. 특히 AI 추론 능력을 사람 수준으로 끌어올린 일반세계모델(General World Models)을 구현하는 것 아니냐는 기대감이 있다. 일시는 미정이지만 오픈AI가 작년 11월 이벤트를 열고 GPT스토어를 론칭한 것을 고려할 때 올 하반기가 유력하다.
안전·보안위원회는 기술을 보호하기 위한 정책과 프로세스를 다듬는 역할을 한다. 위원회에는 오픈AI 샘 올트먼 최고경영자(CEO)와 이사회 멤버인 브렛 테일러, 애덤 디앤절로, 니콜 셀리그먼 등이 참여한다.
하지만 발표 직후 헬렌 토너 전 오픈AI 이사가 올트먼 CEO를 향해 "솔직하지 못하다"고 평가했다. 토너 전 이사는 작년 11월 올트먼 CEO 축출 당시 선봉에 섰다.
[이상덕 기자]
[ⓒ 매일경제 & mk.co.kr, 무단 전재, 재배포 및 AI학습 이용 금지]
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.