컨텐츠 바로가기

09.15 (일)

딥페이크 성범죄 우려에…AI 학습업체, 아동 성 착취 이미지 2000여장 삭제

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다

오픈소스 이미지 데이터베이스 레이온

美스탠퍼드 등 손잡고 사진 삭제



헤럴드경제

[헤럴드경제=김진 기자] 인공지능(AI) 도구 훈련에 사용되는 데이터베이스에서 아동을 대상으로 한 딥페이크 성범죄에 사용될 수 있는 이미지들이 대거 삭제됐다.

<이미지를 클릭하시면 크게 보실 수 있습니다>



30일(현지시간) AP통신에 따르면 비영리 오픈소스 이미지 데이터베이스인 레이온(LAION)은 최근 미국 스탠퍼드대를 비롯한 캐나다 및 영국 기관들과 협업해 데이터베이스에서 아동 성 착취 이미지 2000여개를 삭제했다. LAION은 인터넷 공간의 각종 이미지를 분류한 뒤, 텍스트를 이미지로 변환해 AI에 제공하는 데이터베이스다.

이번 조치는 데이터베이스에 존재하는 아동 성 착취 이미지가 딥페이크 성범죄 등으로 이어질 수 있는 데 따른 것이다.

스탠퍼드대는 지난해 12월 LAION에서 최소 1000개 이상의 아동 성 착취 이미지를 발견했다는 보고서를 발표했다. 보고서의 책임 저자인 데이비드 티엘은 LAION의 아동 성 착취 이미지 삭제를 환영했다. 또 실제 아동 성 착취 이미지가 아니더라도 아동을 대상으로 한 딥페이크 성범죄에 사용될 수 있는 이미지의 AI 제공도 중단돼야 한다고 촉구했다.

한편 전문가들은 아동 성 착취 콘텐츠와 당사자의 동의를 받지 않은 음란물을 AI 데이터베이스에서 걸러내고, 제거하기 위한 규약을 마련해야 한다고 주장하고 있다.

soho0902@heraldcorp.com

Copyright ⓒ 헤럴드경제 All Rights Reserved.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.