컨텐츠 바로가기

11.27 (수)

이슈 인공지능 시대가 열린다

오픈AI·구글 직원 "AI위험 내부고발자 보호를"

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다
인공지능(AI) 개발 경쟁에서 가장 앞서 있는 오픈AI와 구글 딥마인드의 전현직 직원들이 AI의 위험을 경고하는 공동성명을 냈다.

오픈AI와 구글 딥마인드에서 일하거나 일했던 13명의 직원은 기업들이 자체적으로 AI의 위험을 해결할 수 없다며, 내부고발자에 대한 보호 조치가 마련돼야 한다고 주장했다.

이들이 '경고할 권리(Right to Warn)'라는 사이트를 통해 공개한 성명에 따르면 직원들은 "AI 기술이 인류에 전례 없는 혜택을 제공할 수 있는 잠재력을 믿는다"면서도 "우리는 이런 기술에 의해 야기되는 심각한 위험도 알고 있다"고 밝혔다.

공동성명에는 오픈AI 전직 7명, 현직 4명, 구글 딥마인드 전직 1명, 현직 1명의 직원이 이름을 올렸다. 오픈AI 현직 4명은 익명으로 이름을 올렸다. 또한 AI 연구 석학인 요슈아 벤지오 몬트리올대 교수, 제프리 힌턴 토론토대 교수, 스튜어트 러셀 UC버클리 교수도 직원들에 대한 지지자로 이름을 올렸다.

직원들은 "AI의 위험은 기존의 불평등을 심화시키는 것부터 조작과 잘못된 정보, 잠재적으로 인간의 멸종을 초래하는 자율적인 AI 시스템의 통제 상실까지 다양하다"며 "전 세계 정부와 다른 AI 전문가, AI 회사 자체도 이를 인정했다"고 말했다.

그러면서 "우리는 이런 위험을 적절히 완화할 수 있기를 희망한다"면서 "그러나 AI 기업은 이윤 추구를 목표로 해 제대로 된 감독을 하지 못하고 기업 내부의 규제 시스템만으로는 문제를 해결할 수 없다"고 지적했다.

이들은 "AI 기업에 대한 정부의 효과적인 감독이 없는 한 전현직 직원들은 대중에게 책임을 느끼는 몇 안 되는 사람 중 하나"라며 "하지만 회사와 광범위한 기밀 유지 계약으로 우려를 표명할 수 없다"고 주장했다.

이들은 회사의 위험 관련 우려에 대한 비방이나 비판을 금지하는 계약 체결을 금지하고, 독립 기관에 위험 관련 우려 사항을 제기할 수 있는 익명 절차 마련, 위험 관련 정보를 공개적으로 공유하는 전현직 직원에 대한 보복을 금지해야 한다고 주장했다.

[실리콘밸리 이덕주 특파원]

[ⓒ 매일경제 & mk.co.kr, 무단 전재, 재배포 및 AI학습 이용 금지]
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.