게티이미지뱅크 |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
인공지능(AI)의 위험성 문제가 지속해서 제기되는 가운데, 거대 생성형 인공지능 기업인 오픈에이아이(OpenAI)와 구글 전·현직 직원들이 “인공지능 기업들은 위험을 제대로 감독하지 못하고 있다”며 “인공지능 위험을 고발하는 직원들에 대한 보호조치가 마련돼야 한다”고 주장했다.
4일(현지시각) 오픈에이아이와 구글 딥마인드 전·현직 직원 13명은 온라인 공간에서 공동성명을 발표하고 “인공지능 기술이 인류에 전례 없는 혜택을 제공할 수 있는 잠재력을 믿는다”면서도 “우리는 또 이런 기술에 의해 야기되는 심각한 위험을 알고 있다”고 밝혔다.
이들은 “이런 위험은 기존의 불평등을 심화시키는 것부터 조작과 잘못된 정보, 잠재적으로 인간의 멸종을 초래하는 인공지능 시스템에 대한 인간의 통제 상실까지 다양하다”며 “이는 전 세계 정부와 다른 인공지능 전문가들, 그리고 인공지능 회사들도 인정하는 사실”이라고 말했다. 그러면서 이들은 “우리는 이런 위험을 적절히 완화할 수 있기를 희망한다”면서 “그러나 인공지능 기업은 이윤 추구 목표로 제대로 된 감독을 하지 못하고 기업 내부의 규제 시스템만으로는 문제를 해결할 수 없다”고 지적했다.
직원들은 인공지능 기업이 공개하지 않는 생성형 인공지능 학습 데이터에 대해서도 문제를 제기했다. 그동안 개인정보와 저작권 침해 등 불투명한 학습 데이터로 인한 법적·윤리적 문제가 꾸준히 제기돼 왔다. 이날 직원들은 “인공지능 기업은 다양한 종류의 위험 수준에 대한 상당한 양의 비공개 정보를 보유하고 있는데 기업에게는 이런 정보를 정부 및 시민사회와 공유할 의무가 약하고, 자발적 공유는 기대하기 어렵다”고 주장했다.
그러면서 “이런 기업에 대한 정부의 효과적인 감독체계가 없는 상태에서 우리는 대중에게 책임을 느끼는 몇 안 되는 사람들”이라며 “회사와 광범위한 기밀 유지 계약으로 (더 구체적인) 우려를 표명할 수 없다”고 밝혔다. “일반적인 내부 고발자 보호는 불법 행위에 초점을 맞춰져 있으며, 우리 중 일부는 업계 전반에 걸쳐 이런(내부 고발) 사례의 역사를 고려할 때 다양한 형태의 보복을 두려워할 수 밖에 없다”는 것이다.
이들은 인공지능 위험과 관련해 회사에 대한 비방 또는 비판을 금지하는 계약 체결 금지, 회사 외부의 독립 기관에 인공지능의 위험과 관련한 우려 사항을 제기할 수 있는 익명 절차 마련, 위험 관련 정보를 공개적으로 공유하는 전·현직 직원에 대한 보복 금지 등을 촉구했다.
박지영 기자 jyp@hani.co.kr
▶▶권력에 타협하지 않는 언론, 한겨레 [후원하기]
▶▶한겨레 뉴스레터 모아보기▶▶오직 한겨레에서 볼 수 있는 보석같은 기사
이 기사의 카테고리는 언론사의 분류를 따릅니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.