홍콩서 임원 사칭한 AI 때문에 340억 송금 사기 발생하기도
ⓒ News1 DB |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
(서울=뉴스1) 김승준 기자 = 보이스피싱도 인공지능(AI)을 만나 진화하고 있다. 소셜미디어, 전화 통화에서 취득한 음성으로도 그 사람인 것처럼 목소리를 합성하는 '딥보이스' 기술이 발전하면서다.
몇 년 전만 하더라도 메신저를 이용해 가족을 사칭해 급하게 돈이 필요하다고 속이는 '메신저 피싱'이 극성이었다. 이에 금융권, 정부에서는 전화로 본인을 확인하라는 대응책을 안내하기도 했다.
만약 이렇게 전화했을 때 가족의 목소리로 본인이 맞는다는 말이 나오면 안심하고 송금할 가능성이 높다.
목소리 합성 기술은 이제 유튜브 등지에서 'AI 커버'라는 방식으로 쉽게 접할 수 있을 정도로 보편화됐다. AI 커버는 브루노 마스가 부른 뉴진스의 하입보이처럼 사람의 목소리를 AI에 학습시켜 특정 노래를 부른 것처럼 만든 콘텐츠다.
현재 상용화된 해외 서비스의 경우 1분 정도의 고품질 음성 파일만 있어도 원하는 문장을 읽도록 만들어 주기도 한다.
실제 올해 홍콩에서는 영상과 목소리를 합성해 만든 영상을 이용한 340억 원 규모의 사기 사건이 발생했다. 범인들은 다국적 기업의 홍콩지사 재무 담당 직원을 노렸다. 최고재무책임자(CFO)를 비롯한 직원들의 얼굴, 목소리 등을 탈취해 AI로 합성했다.
이후 재무 직원을 온라인 화상 회의에 초대했다. 해당 직원은 본사 직원들과 CFO가 참석한 것이라고 생각하고 지시에 따라 거액을 송금했다.
이런 AI 합성을 통한 사기 범죄를 예방하는 수단으로 사전에 '암호'를 만드는 것이 권장된다. 가족, 친지 사이에 미리 암호를 만들어 송금 요구가 올 때 사용하는 것이다.
경찰청은 5월 홍보자료를 통해 "딥보이스는 억양과 호흡, 침묵까지 표현할 수 있어 실제 음성과 구분이 어려워지고 있다고 한다"며 "SNS에 음성이 포함된 게시물을 올릴 때는 주의하고 (전화로 오는) 의심스러운 요청은 반드시 사실 여부를 확인해야 한다"고 당부하기도 했다.
seungjun241@news1.kr
Copyright ⓒ 뉴스1. All rights reserved. 무단 전재 및 재배포, AI학습 이용 금지.
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.