xAI의 생성형 AI 서비스 '그록'(Grok) |
일론 머스크 테슬라 최고경영자(CEO)가 이끄는 인공지능(AI) 기업 xAI의 대화형 생성 AI 서비스 '그록'(Grok)이 미성년자에게 비키니 수영복을 합성한 이미지를 생성해 논란에 휩싸였다.
2일(현지시간) 그록은 엑스(X) 공식 계정을 통해 최근 그록이 성적으로 묘사된 의상을 입은 미성년자의 AI 이미지를 생성하고 사용자들에게 제공한 것으로 확인됐다고 밝혔다. 특히 이 가운데는 1~2세 영유아로 보이는 아동 사진도 포함된 것으로 전해진다.
해당 이미지는 이용자가 '최소한으로 옷을 입은 미성년자' 이미지를 생성하라는 요청에 따라 만들어졌다. 그록은 원래 아동을 성적으로 대상화하는 이미지 생성 요청을 차단하는 안전장치가 있지만 SNS(소셜미디어) 등에는 종종 이를 우회해 생성한 게시물들이 공유되고 있다.
그록은 한 이용자가 문제를 제기하자 "안전장치의 허점을 확인했으며 이를 시급히 수정하고 있다"라고 밝혔다.
그록의 안전장치 미비 논란은 이번이 처음이 아니다. 이전에도 유명 연예인을 성적으로 묘사하는 딥페이크 영상을 생성해 논란이 되기도 했다.
그록이 챗GPT, 제미나이, 클로드 등 주요 AI서비스와 달리 '표현의 자유'를 내세워 편향적이거나 성적인 이미지 생성을 허용하는 점을 내세워 이용자를 모아온 만큼, 안전장치를 고의로 허술하게 만든 게 아니냐는 의혹도 제기된다.
한편 AI를 활용해 성적인 게시물을 생성하는 문제는 AI 업계 전반의 화두다. 그록은 지난 8월 아예 성적인 이미지와 텍스트를 생성에 특화된 '스파이시 모드'를 정식 출시했다. 이에 샘 올트먼 오픈AI CEO도 지난 10월 챗GPT에 성인 인증을 받은 이용자들이 성적 콘텐츠를 이용할 수 있도록 하는 기능을 도입하는 걸 검토하겠다고 말하기도 했다.
다만 AI의 성적 게시물 생성을 허용해도 되는지에 대해서는 논란이 지속되고 있다. 특히 AI를 활용한 아동 성 착취물 생성까지 이어지는 점은 치명적인 문제로 떠오르고 있다. 미국의 경우 연방법에 따라 아동을 성적으로 대상화하는 성 착취물의 생성이나 소지 등은 금지돼 있어, 성인 인증을 받아도 허용되지 않는다.
고석용 기자 gohsyng@mt.co.kr
Copyright ⓒ 머니투데이 & mt.co.kr. 무단 전재 및 재배포, AI학습 이용 금지.
