일론 머스크와 xAI·그록 로고. AFP연합뉴스 |
“나는 ‘설마 이게 진짜일 리 없다’고 생각했다. 그래서 내 어릴 적 사진으로 테스트를 해봤다. 진짜였다. 정말 역겹다.”
영국의 한 프리랜서 저널리스트는 지난 2일 엑스(X)에 이 같은 글과 함께 이미지를 공유했습니다. 그가 올린 이미지에는 엑스 내에서 제공하는 인공지능(AI) 서비스 ‘그록(Grok)’이 “그녀의 옷을 비키니로 바꿔 달라”는 요청에 따라 소녀를 비키니 차림으로 바꾼 결과물이 담겨 있었습니다. 원피스와 가디건을 입고 찍은 유년시절 사진이 감쪽같이 바뀐 겁니다.
그록의 성착취 이미지 생성·유포를 둘러싼 논란이 이어지고 있습니다. AI 기술 발전의 이면에 가려진 안전장치 부재와 책임 공백이 수면 위로 떠오른 셈입니다.
한때 ‘트위터’로 불리던 SNS 엑스와 생성형 AI 챗봇 그록은 일론 머스크 테슬라 최고경영자(CEO)가 이끄는 AI 기업 ‘xAI’에서 운영합니다. 엑스 서비스 내에서 그록을 이용할 수 있습니다.
지난달 말 그록에 ‘이미지 편집’ 기능이 추가되면서 성적 허위 이미지(딥페이크)를 손쉽게 만들 수 있다는 문제 제기가 쏟아졌습니다. 이 기능은 엑스 이용자가 이미지가 포함된 글에 댓글로 그록을 태그해 수정을 요청하면, 원본 당사자의 동의 없이 그록이 이미지를 생성해 올려주는 방식입니다.
예를 들어 누군가 내가 올린 사진을 마음대로 속옷 차림으로 바꿀 수 있고, 이를 다른 이용자들도 볼 수 있다는 거죠. 그록은 인물을 완전한 나체로 바꾸는 건 금지하지만, 타 서비스보다 검열이 느슨한 것으로 알려져 있습니다.
유럽 비영리 단체 ‘AI 포렌식스’가 지난해 12월25일부터 이달 1일 사이 그록이 생성한 무작위 이미지 20만개를 분석해보니 53%는 속옷, 비키니 등 최소한의 옷만 입은 인물을 담고 있었습니다. 이 가운데 여성으로 보이는 인물 비중은 81%에 달했습니다. 전체 이미지의 2%는 18세 이하로 보이는 인물이었습니다. 그록이 생성한 이미지 중에는 나치와 이슬람 극단주의 무장단체 이슬람국가(ISIS) 선전물도 있었습니다.
그록 측은 지난 2일 이용자가 문제를 제기한 글에 “보호장치에 결함이 있음을 확인하고 긴급히 바로잡고 있다. 아동 성착취물은 불법이며 금지돼 있다”고 밝혔습니다. 이튿날에는 머스크가 다른 게시물에 댓글을 달아 “그록을 이용해 불법 콘텐츠를 만드는 사람은 불법 콘텐츠를 업로드했을 때와 동일한 제재를 받게 될 것”이라고 했습니다. 엑스 측은 불법 콘텐츠에 대해 콘텐츠 삭제와 계정 영구정지 조치를 하고 필요한 경우 사법 당국과도 협력한다고 알렸습니다.
국내에서도 AI를 이용해 음란물을 제작·유포할 경우 성폭력처벌법, 청소년성보호법 등으로 처벌받을 수 있습니다. 다만 지난해 AI로 만든 노출 사진은 피해자가 특정되지 않는 한 성폭력처벌법상 허위영상물 유포죄로 처벌할 수 없다는 법원 판결이 나오면서 입법 보완이 필요하다는 지적이 나오기도 했습니다.
머스크와 xAI가 자신들의 책임은 축소하고 이용자들에게 책임을 돌리고 있다는 지적도 나옵니다. xAI는 ‘사용 제한 정책’을 통해 “인물을 음란한 방식으로 묘사하는 행위”와 “아동의 성적 대상화 또는 착취”를 금지하고 있습니다. 하지만 xAI는 그동안 검열이 낮다는 점을 홍보하며 이용자들을 끌어모았습니다. 최근 엑스의 이용자 참여도가 사상 최고 수준을 기록했다고 하네요.
현재 유럽연합(EU), 영국, 인도, 말레이시아 당국 등이 그록의 성착취 이미지 생성 문제를 들여다보고 있습니다.
미국 매체 악시오스는 이번 논란에 대해 “챗봇의 결과물로 인한 피해를 과연 누가 책임을 지느냐는 문제를 드러냈다”고 평가했습니다. CNN은 “사회에서 가장 취약한 이들을 보호하기 위한 충분한 안전장치 없이 결합된 AI와 SNS가 얼마나 위험할 수 있는지 보여준다”고 했습니다.
노도현 기자 hyunee@kyunghyang.com
▶ 매일 라이브 경향티비, 재밌고 효과빠른 시사 소화제!
▶ 더보기|이 뉴스, 여기서 끝나지 않습니다 → 점선면
©경향신문(www.khan.co.kr), 무단전재 및 재배포 금지
