컨텐츠 바로가기

09.15 (일)

오픈AI·앤트로픽, 미국 정부 기관에 첨단 모델 사전 테스트 계약

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다
[박찬 기자]
AI타임스

(사진=셔터스톡)

<이미지를 클릭하시면 크게 보실 수 있습니다>


오픈AI와 앤트로픽이 미국 상무부 산하 인공지능(AI) 안전 연구소와 모델에 대한 연구, 테스트 및 평가를 위한 협력 계약을 체결했다. 이는 전날 캘리포니아주 AI 법이 의회를 통과한 직후 발표된 것으로, 주법에 앞서 연방 정부에 먼저 첨단 모델에 대한 테스트를 거치겠다는 뜻을 분명히 한 것으로 해석된다.

블룸버그는 29일(현지시간) 오픈AI와 앤트로픽이 미국 상무부 국립표준기술연구소(NIST) 산하 미국 AI 안전 연구소(US AI Safety Institute)와 AI 모델에 대한 연구, 시험 및 평가를 위해 계약을 체결했다고 보도했다.

이에 따라 AI 안전 연구소는 공개 출시 전후에 오픈AI와 앤트로픽의 주요 새로운 AI 모델에 대한 초기 접근권을 부여받아, 이들 모델의 능력과 위험을 평가하고 잠재적인 문제를 완화하기 위한 방법을 협력하게 된다.

미국 AI 안전 연구소는 2023년 바이든-해리스 행정부의 AI 행정 명령의 일환으로 설립되었으며, 책임 있는 AI 혁신을 위한 테스트, 평가 및 지침을 개발하는 임무를 맡고 있다.

샘 알트먼 오픈AI CEO는 이미 지난 1일 X를 통해 AI 안전 연구소와 협력, 다음 파운데이션 모델에 대한 사전 접근을 제공하고 AI 평가 과학을 발전시키기 위한 협력 계약을 체결했다고 밝혔다.

엘리자베스 켈리 미국 AI 안전 연구소장은 "이번 협약은 시작에 불과하지만, 우리가 AI의 미래를 책임감 있게 이끌어 나가기 위해 노력하는 과정에서 중요한 이정표"라고 말했다.

AI 안전 연구소는 영국 AI 안전 연구소와 협력, 잠재적인 안전 개선에 대한 피드백을 제공할 예정이다. 앤트로픽은 '클로드 3.5 소네트'를 출시하기 전 영국 AI 안전 연구소와 협력해 테스트를 진행했다. 미국과 영국의 기관들은 표준화된 테스트를 구현하기 위해 협력할 것이라고 밝힌 바 있다.

특히 이번 합의는 최근 논란이 많은 캘리포니아 AI 안전 법안이 제정 중인 시점에 나온 것이라 눈길을 끈다. 주 의회를 통과한 캘리포니아 AI 안전 법안 SB 1047에 반대하는 오픈AI와 앤트로픽이 연방 정부와 협력하겠다는 입장을 분명히 한 것으로 해석된다.

특히 샘 알트먼 오픈AI CEO는 이달 초 X(트위터)를 통해 AI 안전 연구소와의 협력 사실을 공개한 바 있다. 그런데 같은 내용을 보란듯 다시 발표한 셈이다.

제이슨 권 오픈AI 최고 전략 책임자는 "우리는 미국 AI 안전 연구소의 사명을 강력히 지지하며 AI 모델에 대한 안전 모범 사례와 표준을 알리기 위해 함께 협력하기를 기대한다"라고 말했다.

잭 클락 앤트로픽 공동 창립자 겸 정책 책임자는 "안전하고 신뢰할 수 있는 AI는 기술의 긍정적인 영향에 매우 중요하다"라며 "우리는 모델 배포 전에 엄격하게 테스트하기 위해 미국 AI 안전 연구소의 폭넓은 전문 지식을 활용한다"라고 말했다.

박찬 기자 cpark@aitimes.com

<저작권자 Copyright ⓒ AI타임스 무단전재 및 재배포 금지>
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.