xAI의 생성형 인공지능(AI) 서비스 '그록' |
개인정보보호위원회(개인정보위)가 생성형 인공지능(AI) '그록'이 딥페이크 성착취물 생성·유포 논란에 휩싸이자 사실관계 확인에 나선 것으로 25일 확인됐다.
사실관계 확인 단계는 개인정보위가 정식 조사에 착수하기 전, 문제가 제기된 사안이 실제로 존재하는지와 위원회 소관 사안인지를 가려보는 사전 검토 단계다.
그록은 일론 머스크가 설립한 'xAI'가 출시한 서비스다. 사회관계망서비스(SNS) 'X(옛 트위터)'는 연동돼 텍스트와 이미지 생성 기능을 제공한다.
개인정보위는 그록 관련 성착취 딥페이크 이미지 생성 논란이 해외를 중심으로 제기되면서 관련 사안을 들여다보게 된 것이다.
그록은 지난해 말 실제 인물 사진을 바탕으로 성적 노출된 딥페이크 이미지를 만들 수 있다는 문제가 제기됐다. 일부 사례에서는 미성년자로 보이는 인물이 포함된 이미지가 생성됐다는 보도도 나왔다.
디지털 혐오 대응 센터(CCDH)에 따르면 지난해 12월 29일부터 올해 1월 8일까지 11일 간 그록은 2만3000장의 미성년자 이미지를 포함한 약 300만장의 성적 이미지를 생성한 것으로 추정된다.
CCDH는 “그록의 이미지 생성 기능이 출시 직후 폭발적으로 확산되면서 플랫폼 전반에 대규모의 성적 이미지가 생성·유통됐다”며 “명백히 18세 미만으로 보이는 인물이 성적 맥락에서 묘사된 이미지가 확인돼 아동 안전에 심각한 우려를 낳았다”고 설명했다.
이에 해외 규제 당국도 대응에 나선 상태다. 미국, 영국, 프랑스, 캐나다 등이 조사에 나섰고 인도네시아, 말레이시아, 필리핀 등이 그록 접속을 차단하는 등의 조치를 취했다.
그록은 논란이 일자 지난 14일 유·무료 사용자 모두를 대상으로 실제 사람의 이미지를 편집할 수 없도록 기술적으로 조치했다고 밝혔다. 또한 이후에 필요한 추가 기술적 조치를 취할 것이라는 입장이다.
개인정보위는 그록의 소명 자료와 해외 규제 동향 등을 종합적으로 살펴본 뒤 향후 대응 방안을 정할 예정이다.
국내 개인정보보호법 체계상 실존 인물의 이미지를 성적으로 변형·생성하는 행위는 개인정보의 가공·변형에 해당해 정보주체 동의 없이 이뤄질 경우 위법 소지가 크다.
김경환 법무법인 민후 대표변호사는 “이번 사안은 실존 인물 이미지를 성적으로 변형하라는 사용자 지시를 서비스 단계에서 그대로 허용한 설계의 문제”라며 “기술적으로 차단 가능한 영역에서 세이프가드가 작동하지 않았다”고 말했다.
박진형 기자 jin@etnews.com
[Copyright © 전자신문. 무단전재-재배포금지]
