컨텐츠 바로가기

11.07 (목)

“살려줘” 우는 딸…딥페이크 영상 이용한 ‘납치 사기’ 주의보

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다
한겨레

클립아트코리아

<이미지를 클릭하시면 크게 보실 수 있습니다>


지난 10월께 외국인 ㄱ씨는 한국으로 여행을 떠난 딸이 방 안에 갇혀 울면서 “살려달라”고 하는 영상을 받았다. 영상을 보낸 불상의 외국 범죄조직은 “당신 딸을 납치했다. 딸을 살리고 싶으면 합의금을 보내라”고 ㄱ씨 부부를 협박했다. ㄱ씨는 이 사실을 영사관에 알렸다. 신고를 받고 출동한 한국 경찰은 ㄱ씨 딸의 안전을 확인했다. 딸의 납치 영상은 딥페이크로 만든 가짜 영상이었다.



경찰청 국가수사본부는 7일 최근 사건을 공개하며 “국내에도 유사한 사건이 발생할 가능성이 있으므로 각별히 주의해달라”고 당부했다. 딥페이크는 인공지능(AI) 기술을 이용해 단순히 영상 속 얼굴을 바꾸는 것을 넘어 실재 인물처럼 표정과 움직임 등을 재현할 수 있다.



실재 인물의 목소리를 복제해 가짜 음성을 생성하는 ‘딥보이스’도 주의해야 한다. 범인이 자녀의 목소리를 복제해 부모에게 자녀가 납치된 것처럼 속이거나, 자녀가 급전을 빌리는 것처럼 속일 수 있기 때문이다. 목소리를 흉내 내는 기존 피싱범죄와 달리 인공지능 기술로 실제 자녀의 얼굴과 목소리를 복제해 보여줄 경우, 부모가 상황을 판단할 여유도 없이 속아 넘어가기 쉽다.



경찰청은 “딥페이크와 딥보이스는 실재 인물을 학습해야 하므로 사회관계망서비스(SNS) 등에 공개된 본인과 가족의 영상, 사진, 목소리 등은 범죄조직의 표적이 될 수 있다”며 “특히 딥페이크 기술이 고도화되어 전문가조차 육안만으로는 진위를 판단하기 어려운 만큼 평소 사회관계망서비스 등에 불특정 다수가 볼 수 있는 공개 설정으로 게시물을 올리는 것을 지양해야 한다”고 당부했다.



아울러 경찰은 납치를 빙자한 전화가 오면 ‘전화금융사기’일 가능성을 항상 염두에 두라고 강조했다. 올해 9월까지 납치 빙자 전화금융사기는 174건 발생했다. 경찰청은 “경찰은 납치 신고를 접수하면 요구조자 위치 파악 등 초동조치를 최우선으로 하기 때문에 경찰에 신고를 해야 요구조자 안전은 물론 금전 피해까지 예방할 수 있다”며 “범인이 전화를 끊지 못하도록 협박해 신고하기 곤란한 경우, 주변 사람에게 신고하도록 도움을 청하거나 통화하면서 문자메시지로 112에 신고해 자녀 안전을 확인하는 방식으로 대처해야 한다”고 밝혔다.



이지혜 기자 godot@hani.co.kr



▶▶권력에 타협하지 않는 언론, 한겨레 [후원하기]

▶▶한겨레 뉴스레터 모아보기

▶▶행운을 높이는 오늘의 운세, 타로, 메뉴 추천 [확인하기]


기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.