컨텐츠 바로가기

05.18 (토)

방심위, 연예인 얼굴합성 성적 허위영상물 4700건 시정의결

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다

1~4월 모니터링한 결과…전년 동기 대비 400% 폭증

[이데일리 임유경 기자] 유명 연예인의 얼굴을 딥페이크 기술로 합성해 유포한 성적 허위영상물이 올 1월부터 4월까지 4700건 발견됐다. 이는 전년 같은 기간 대비 400% 폭증한 것이다. 방송통신심의위원회는 딥페이크 허위영상물 유통 차단을 위해 해외 음란 사이트를 집중 모니터링하고 신속히 차단 조치를 내려 확산을 최소화한다는 방침이다.

이데일리

<이미지를 클릭하시면 크게 보실 수 있습니다>


방통심의위는 연예인의 얼굴을 딥페이크 기술을 이용해 포르노 영상과 합성, 유포된 ‘성적 허위영상물’ 총 4691건에 대해 시정요구를 의결했다고 2일 밝혔다.

방통심의위는 해외 음란 사이트 등에서 K-POP 아이돌 등 연예인의 ‘성적 허위영상물’ 유포가 증가함에 따라, 올해 1월부터 4월까지 중점 모니터링을 실시했다. 그 결과 4691건을 시정요구 의결했다. 이는 전년 동기 대비 약 400% 폭증(3745건 증가)한 것이다.

방통심의위는 “유명 연예인뿐만 아니라 청소년과 일반인을 대상으로 한 ‘성적 허위영상물’도 확인되는 등 딥페이크 기술을 악용한 영상물 유포 증가가 심각하게 우려되는 상황”이라고 경고했다.

특히, 일상에서 SNS 등에 공개되는 사진·동영상 등 개인정보 유출에 각별히 주의하고, ‘성적 허위영상물’ 유포를 발견한 경우 즉시 방통심의위로 신고(디지털성범죄 원스톱 신고 ARS, 국번없이 ‘1377’ 누르고 3번)하여 줄 것을 당부했다.

방통심의위 관계자는 “향후에도 해외 음란 사이트 등의 중점 모니터링과 심의를 통해 성적 허위영상물과 이를 유통시키는 사이트 등을 신속히 차단하여 피해 확산을 최소화하는 데 더욱 주력할 계획”이라고 했다.


기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.