컨텐츠 바로가기

11.27 (수)

이슈 인공지능 시대가 열린다

오픈AI·구글 딥마인드 전현직 직원 'AI 위험' 경고

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다

13명 공동 성명…"위험 내부 고발자 보호해야" 촉구

연합뉴스

오픈AI 로고
[로이터 연합뉴스 자료사진. 재판매 및 DB 금지]



(샌프란시스코=연합뉴스) 김태종 특파원 = 챗GPT 개발사 오픈AI와 구글 딥마인드의 전현직 직원들이 4일(현지시간) 인공지능(AI)의 위험을 경고하고 나섰다.

이들은 기업들이 자체적으로 이를 해결할 수 없다며 위험 우려가 공유될 수 있도록 내부 고발자에 대한 보호 조치가 마련돼야 한다고 주장했다.

13명의 이들 전현직 직원은 이날 공동 성명을 내고 "AI 기술이 인류에 전례 없는 혜택을 제공할 수 있는 잠재력을 믿는다"면서도 "우리는 또 이런 기술에 의해 야기되는 심각한 위험을 알고 있다"고 밝혔다.

공동 성명에는 오픈AI 전현직 직원 각각 7명과 4명, 구글 딥마인드 전현직 직원은 각 1명이 이름을 올렸다.

이들은 "이런 위험은 기존의 불평등을 심화시키는 것부터 조작과 잘못된 정보, 잠재적으로 인간의 멸종을 초래하는 자율적인 AI 시스템의 통제 상실까지 다양하다"며 "전 세계 정부와 다른 AI 전문가, AI 회사 자체도 이를 인정했다"고 말했다.

그러면서 "우리는 이런 위험을 적절히 완화할 수 있기를 희망한다"면서 "AI 기업은 그러나 이윤 추구 목표로 제대로 된 감독을 하지 못하고 기업 내부의 규제 시스템만으로는 문제를 해결할 수 없다"고 지적했다.

또 "AI 기업은 다양한 종류의 위험 수준에 대한 상당한 비공개 정보를 보유하고 있지만 이런 정보 중 일부를 정부 및 시민사회와 공유할 의무가 약하고, 자발적으로 공유할 것이라고 생각하지 않는다"고 전했다.

이들은 "이런 기업에 대한 정부의 효과적인 감독이 없는 한 전현직 직원들은 대중에게 책임을 느끼는 몇 안 되는 사람 중 하나"라며 "그러나 회사와 광범위한 기밀 유지 계약으로 우려를 표명할 수 없다"고 주장했다.

이어 "일반적인 내부고발자 보호는 불법 행위에 초점을 맞춰져 있으며, 우리 중 일부는 업계 전반에 걸쳐 이런(내부 고발) 사례의 역사를 고려할 때 다양한 형태의 보복을 두려워한다"고 강조했다.

이에 회사의 위험 관련 우려에 대한 비방이나 비판을 금지하는 계약 체결 금지, 독립 기관에 위험 관련 우려 사항을 제기할 수 있는 익명 절차 마련, 위험 관련 정보를 공개적으로 공유하는 전현직 직원에 대한 보복 금지 등을 촉구했다.

taejong75@yna.co.kr

▶제보는 카카오톡 okjebo
▶연합뉴스 앱 지금 바로 다운받기~
▶네이버 연합뉴스 채널 구독하기
<저작권자(c) 연합뉴스, 무단 전재-재배포, AI 학습 및 활용 금지>
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.