24일(현지시각) 영국 가디언에 따르면 애플은 호주 정부가 2024년 말까지 애플 같은 IT 기업이 자사 플랫폼에서 '아동 성적 학대 콘텐츠(CSAM)' 노출을 근절하도록 한 조치를 근거로 이 기능을 iOS에 추가했다.
<이미지를 클릭하시면 크게 보실 수 있습니다> |
이번 누드 감지 기능은 아이폰에 내장된 AI가 사용자에게 누드 노출되는 누드 사진, 혹은 동영상을 자동으로 감지하고 흐리게 처리하는 방식이다. 이어 해당 콘텐츠가 민감한 내용을 담고 있다는 경고와 함께, 콘텐츠 제공자를 차단하거나 애플에 신고할 수 있는 선택지들을 제공한다. 사용자가 13세 이상일 경우 경고를 무시하고 진행할 수 있으나 '선택하지 않는 것이 좋다'는 알림이 반복적으로 따를 수 있다.
다만 이 기능이 작동되는 앱은 제한적이다. 우선 아이폰 및 아이패드에서 ▲메시지 ▲에어드랍 ▲연락처 ▲페이스타임 등 애플이 서비스 중인 시각 콘텐츠 공유 서비스에 적용된다. 명단이 공개되지 않은 일부 타사 앱들도 포함된다. 또한 사용자는 iOS 18.2부터 아이폰 내 설정→스크린타임→커뮤니케이션 안전 메뉴에서 해당 기능의 활성화 여부를 선택할 수 있다.
한편, 이 기능이 최초로 도입되는 호주는 상대적으로 아동보호에 적극적인 정책을 펼쳐온 국가로 분류된다. 1990년 UN 아동권리협약(CRC)를 비준한 초기 국가 중 하나이며, 2015년 온라인 안전 강화법에서도 CSAM의 제작 및 유포를 범죄로 명시했다. 또한 2021년부터 2030년까지 진행되는 국가 전략 차원에도 아동의 성적 학대 예방 및 대응이 포함되어 있을 정도다.
무엇보다 지난 코로나19 대유행 기간 동안 온라인에서 아동의 성적 학대 및 착취 사례가 급증한 것도 호주가 IT 기업에 대한 CSAM 대응 강화를 주문한 배경으로 꼽힌다. 2021년 조사에 따르면 호주에서 18세 이전에 온라인 환경에서 성적 피해를 경험한 사람은 3명 중 2명으로, 다른 지역보다 높은 비율을 보였다. 2022년에는 텔레그램에서 CSAM을 제작 및 유포한 '엘(가명)'이 호주에서 체포됐으며, 2023년에도 전직 보육고사가 15년 동안 91명의 아동을 성적 학대한 혐의로 기소됐다.
- Copyright ⓒ 디지털데일리. 무단전재 및 재배포 금지 -
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.