문제는 인공지능(AI) 시대를 맞아 해커 역시 빠른 속도로 AI를 활용하고 있다는 점이다.
해커들은 챗GPT의 등장 이후 웜GPT, XXXGPT, XXX울프(Wolf)GPT와 같은 기성 대규모언어모델(LLM) 기반 악성 AI를 주로 사용했다. 범죄용 프로그램을 활용해 악성코드와 자연스러운 피싱 메시지를 생성했다. 사이버 보안 업체 슬래시넥스트는 웜GPT를 이용해 비즈니스 이메일을 공격하는 피싱 이메일을 생성하는 실험을 진행했다. 웜GPT는 가짜 송장을 지급하도록 유도하는 내용을 포함한 정교한 이메일을 생성했다. 어눌하게 외국어를 하지 않고, 현지인처럼 접근할 수 있는 방법이다.
현재는 직접 초거대 AI 개발에 나선 상태다. AI 기업들이 우회 접근을 잇달아 차단하기 시작하면서부터다. 보안 기업 카토네트웍스의 에타이 마오르 보안전략 이사는 "러시아어를 사용하는 해커가 악성 LLM을 개발할 AI 전문가를 모집하는 광고를 내기도 했다"면서 "이러한 경향이 랜섬웨어·악성 소프트웨어 운영자 사이에서도 관찰되고 있다"고 말했다.
보안 업체인 SK쉴더스는 가상자산 탈취와 딥페이크 해킹 공격이 올해 극성을 부릴 것으로 전망하고 있다.
실제로 올해 홍콩의 한 금융사 직원은 딥페이크로 만든 가짜 최고재무책임자(CFO)의 지시에 속아 2억홍콩달러(약 340억원)를 탈취당해 논란을 빚었다.
해당 직원은 딥페이크 CFO에게서 "송금을 하라"는 가짜 이메일 받았을 때만 하더라도 속지 않았다. 하지만 주변 동료들이 참여하는 영상회의에서 딥페이크 CFO가 똑같은 지시를 내리자 의심을 거두고 송금했다. 알고 보니 전부 AI로 만든 실시간 딥페이크 영상이었다.
[이상덕 기자]
[ⓒ 매일경제 & mk.co.kr, 무단 전재, 재배포 및 AI학습 이용 금지]
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.