오픈AI [사진: 셔터스톡] |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
[디지털투데이 AI리포터] 인공지능(AI) 스타트업 오픈AI와 앤트로픽은 업계에서 AI의 안전과 윤리에 대한 우려가 커진 데 따라, 미국 AI 안전 연구소에서 새로운 모델을 대중에 공개하기 전에 테스트할 수 있도록 허용하기로 합의했다.
29일(현지시간) 경제매체 CNBC에 따르면 미국 상무부 국립표준기술연구소(NIST) 산하에 있는 이 연구소는 "각 회사의 주요 신모델이 공개되기 전과 후에 접근할 수 있게 될 것"이라고 밝혔다.
샘 알트먼 오픈AI 최고경영자(CEO)는 "미래 모델의 사전 출시 테스트를 위해 미국 AI 안전 연구소와 계약을 맺게 돼 기쁘다"고 전했다.
또한 오픈AI의 최고 전략 책임자인 제이슨 권은 "우리는 미국 AI 안전 연구소의 사명을 강력히 지지하며 AI 모델에 대한 안전 모범 사례와 표준을 알리기 위해 함께 협력하기를 기대한다"고 전했다.
많은 AI 개발자와 연구자들이 점점 더 이윤을 추구하는 AI 산업의 안전과 윤리에 대한 우려를 표명했다. 오픈AI 직원들은 지난 6월 4일에 공개 서한을 발표해 AI의 급속한 발전과 감독 및 고발자 보호의 부족으로 인한 잠재적인 문제를 설명했다.
<저작권자 Copyright ⓒ 디지털투데이 (DigitalToday) 무단전재 및 재배포 금지>
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.