애플의 로고. [AP=연합뉴스 자료사진] |
(샌프란시스코=연합뉴스) 정성호 특파원 = 애플이 이용자의 아이폰에 있는 아동 성 착취물 사진을 탐지하는 새 기능의 도입 시기를 연기하기로 했다.
애플은 3일(현지시간) 이용자의 아이폰에 있는 아동 포르노를 스캔하는 소프트웨어를 개선하는 데 시간이 더 필요하다며 이를 연기하기로 했다고 밝혔다고 월스트리트저널(WSJ)이 보도했다.
애플은 새로운 도입 일정은 제시하지 않았다.
애플은 올해 중 운영체제(OS)인 iOS 업데이트를 통해 아동 포르노 사진을 가려내고, 이 이미지가 특정 횟수 이상 애플의 클라우드 서비스인 아이클라우드에 업로드되면 이를 애플에 경고하는 기능을 도입하겠다고 지난달 발표했다.
그러자 프라이버시 보호론자들은 이 기능이 이용자에게 더 큰 위험을 안길 수 있다고 우려를 제기했다. 이용자가 보유한 콘텐츠를 스캔하는 기능을 정부가 이용자의 정치적 발언을 찾는 등 다른 용도로 전용할 수 있다는 것이다.
또 일부 부모는 목욕하는 아기의 사진 같은 가족 사진에 부적절한 사진이란 딱지가 붙는 것 아니냐고 걱정했다.
애플은 새 기능이 프라이버시 친화적이라고 반박해왔다. 다른 클라우드 서비스 제공자들은 이런 성 착취물 사진을 차단하기 위해 이용자의 데이터 전체를 스캔하는 반면 애플은 불법으로 판정된 사진만 보는 방법을 고안해냈다는 것이다.
또 클라우드에 이런 사진을 올리지 않으면 이런 콘텐츠에 불법이라는 딱지가 붙지도 않는다고 애플은 설명했다.
그러나 사생활 보호 전문가들은 새 기능이 암호화를 통해 데이터를 보호해온 애플의 기조를 완화하는 신호라고 우려했다.
애플은 이날 "고객과 시민단체, 연구자 등의 피드백을 바탕으로 앞으로 몇 달간 의견을 듣고 기능을 개선하기 위해 추가로 시간을 갖기로 결정했다"고 밝혔다.
애플은 이와 별개로 지난달 또 다른 어린이 보호 기능을 발표했다. 어린이 계정으로 지정된 아이폰이 문자 메시지를 통해 성적인 사진을 받거나 이를 보내려고 하면 이 사진은 공란으로 표시된다.
또 12세 미만 아이의 부모는 자녀가 그런 사진을 보거나 전송하면 이를 통지받을 수 있다.
애플은 그러나 이날 이런 모든 새 기능을 재평가하고 있다고 밝혔다.
존스홉킨스대학의 매슈 그린 부교수는 애플이 다른 정보기술(IT) 기업들의 선례를 따라 공유된 이미지만 스캔해야지, 사적인 이미지까지 탐색해선 안 된다고 말했다.
sisyphe@yna.co.kr
<저작권자(c) 연합뉴스, 무단 전재-재배포 금지>
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.