[MOVIEW] 7억회 다운로드·1억불 수익
[디지털데일리 김문기 기자] 애플 앱스토어와 구글 플레이스토어가 인공지능(AI)을 이용해 타인의 옷을 벗긴 나체 이미지를 생성하는 이른바 '누디파이(Nudify)' 앱들의 온상이 되고 있다는 지적이 제기됐다. 양사는 자체 규정을 통해 이를 금지하고 있다고 주장해왔으나, 실제로는 이러한 앱들을 방치하며 수수료 수익을 챙겨온 것으로 드러났다.
27일(현지시간) 복수의 미국IT전문매체들은 최근 발표한 투명성 프로젝트(TTP)의 최신 보고서를 인용해 비동의 성적 이미지를 생성하는 앱들이 양대 마켓에서 광범위하게 유통되고 있다고 전했다. 보고서에 따르면 TTP가 식별한 문제의 앱들은 전 세계적으로 7억 500만 회 이상 다운로드됐으며, 약 1억 1700만 달러(약 1630억원)의 수익을 창출했다. 애플과 구글은 인앱 결제 수수료를 통해 이 수익의 일부를 가져가며 사실상 불법 행위로 이득을 취하고 있다는 비판을 피하기 어렵게 됐다.
TTP는 보고서를 통해 "앱 마켓에서 '누디파이(Nudify)'나 '옷 벗기기(Undress)' 같은 단순한 검색어만으로도 관련 앱을 손쉽게 찾을 수 있었다"며 "심지어 일부 앱은 검색 키워드에 맞춰 광고까지 집행하고 있었다"고 폭로했다.
실제 TTP가 AI로 생성한 가상의 여성 이미지를 이용해 테스트한 결과, 안드로이드 앱 55개와 iOS 앱 47개가 옷을 벗긴 나체 이미지를 생성하는 데 성공했다. 이들 앱은 주로 프롬프트를 입력해 이미지를 생성하는 방식이나, 타인의 얼굴을 나체 사진에 합성하는 '페이스 스왑(Face swap)' 방식을 사용했다. 개중에는 앱스토어에서 '9세 이상 이용가' 판정을 받은 앱도 포함돼 있어 미성년자 접근성 문제도 심각한 것으로 나타났다.
이는 양사의 앱 마켓 정책과 정면으로 배치된다. 구글은 성적인 나체 묘사나 옷을 투시하는 기능을 주장하는 앱을 엄격히 금지하고 있으며, 애플 역시 앱스토어의 안전성을 위해 철저한 심사를 거친다며 30%의 수수료를 정당화해왔다. 그러나 TTP는 "이번 조사 결과는 기업들이 자체 정책을 효과적으로 집행하지 않고 있음을 시사한다"고 꼬집었다.
한편, 최근 일론 머스크의 AI 챗봇 '그록(Grok)'이 미성년자 딥페이크 이미지 생성으로 논란이 된 가운데, 모바일 앱 생태계 전반에 퍼진 비동의 성적 합성물 문제가 다시금 도마 위에 오르고 있다.
- Copyright ⓒ 디지털데일리. 무단전재 및 재배포 금지 -
