[박찬 기자]
중국 정부가 인간의 성격과 감정을 모방해 사용자와 교류하는 AI 서비스에 대한 규제 강화를 추진한다.
로이터에 따르면, 중국 사이버공간관리국(CAC)은 지난 21일 인간과 유사한 성격과 사고방식과 의사소통 스타일을 구현하고 감정적 상호작용을 제공하는 인간형 AI 서비스에 대한 관리 규정 초안을 공개하고 의견 수렴에 들어갔다.
이번 규정은 텍스트·이미지·음성·영상 등 다양한 수단으로 사용자와 정서적으로 소통하는 AI 챗봇과 로봇 등 적용 대상이 광범위하다. 의견 수렴은 내년 1월25일까지 진행된다.
중국 정부가 인간의 성격과 감정을 모방해 사용자와 교류하는 AI 서비스에 대한 규제 강화를 추진한다.
로이터에 따르면, 중국 사이버공간관리국(CAC)은 지난 21일 인간과 유사한 성격과 사고방식과 의사소통 스타일을 구현하고 감정적 상호작용을 제공하는 인간형 AI 서비스에 대한 관리 규정 초안을 공개하고 의견 수렴에 들어갔다.
이번 규정은 텍스트·이미지·음성·영상 등 다양한 수단으로 사용자와 정서적으로 소통하는 AI 챗봇과 로봇 등 적용 대상이 광범위하다. 의견 수렴은 내년 1월25일까지 진행된다.
초안의 핵심은 과도한 이용과 정서적 의존에 대한 기업의 사전 경고와 개입 의무화다.
규정에 따르면, 서비스 제공자는 사용자에게 AI와 상호작용하고 있다는 사실을 로그인 시 반드시 알려야 한다. 이후 최소 2시간마다 또는 과도한 의존 징후가 감지되면 이를 재차 고지해야 한다.
동시에 사용자의 감정 상태와 의존 수준을 식별·평가하고, 극단적인 감정 반응이나 중독적 사용이 확인되면 필요한 조치를 취하도록 했다. 또 사업자는 제품 기획부터 운영에 이르는 전 생애주기 동안 안전 책임을 져야 하며, 알고리즘 심사 체계와 데이터 보안, 개인정보 보호 시스템을 갖춰야 한다.
인간형 AI 기능을 새로 출시할 때에는 보안 평가를 실시하고 지방 사이버 당국에 보고서 제출이 의무화된다. 가입자 100만명이나 월간 활성 사용자(MAU) 10만명을 넘는 서비스도 별도의 보고 대상이다.
콘텐츠 규제도 강화된다. AI 서비스는 국가 안보를 위협하거나 허위 정보를 유포하고 폭력·외설을 조장하는 내용을 생성해서는 안 되며, '사회주의 핵심 가치'를 준수해야 한다는 점이 명시됐다.
당국은 이를 통해 인간형 AI가 여론과 사회 안정에 미칠 수 있는 부정적 영향을 사전에 차단하겠다는 입장이다. 또 올해 미국에서 지적됐던 AI 정신병이나 망상 부추김에도 대응하겠다는 의도다.
중국은 AI를 경제 성장과 글로벌 경쟁력 강화를 위한 핵심 산업으로 육성하며 대규모 투자를 이어가고 있다. 동시에 인간형 AI가 대중화 단계에 접어들자, 정신적·심리적 위험과 사회적 부작용에 대한 통제 필요성이 커졌다고 판단한 것으로 알려졌다.
박찬 기자 cpark@aitimes.com
<저작권자 Copyright ⓒ AI타임스 무단전재 및 재배포 금지>
