컨텐츠 바로가기

04.20 (토)

가짜 동영상 `딥페이크`와 `진실의 종언`

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다
[Tech Talk-114] 구전(口傳) 시대, 공적 신임을 받는 미디어는 논란에 마침표를 찍는 무게감이 있었다. 갑론을박 와중에 "신문에서 봤어"라는 말은 결정적이었다. 이 말 한마디에 모든 논란은 일시에 정리됐다. 텍스트가 귀하던 시절, 텍스트는 말보다 더 신뢰할 수 있는 명명백백한 증거였다. 말은 누구나 할 수 있었지만 텍스트 생산은 아무나 할 수 없었기 때문이었다. 이는 단지 텍스트 생산에 드는 비용 때문만은 아니었다. 인쇄 기술, 컴퓨터 등의 발달로 텍스트 생산 비용이 획기적으로 낮아졌지만 사람들은 믿을 수 있는 텍스트와 그렇지 않은 텍스트를 구별했다. 공적 신임이 그걸 가능하게 했다. 미디어는 그 공적 신임을 기반으로 해서 무럭무럭 자라났다. 공적 신임을 받는 미디어의 텍스트가 바로 뉴스다.

미디어가 생산한 뉴스는 한때 강력했다. 한 중견 언론인은 "몇몇 신문사가 같은 뉴스를 1면 톱으로 며칠간 계속 내보내면 정권이 휘청거릴 때가 있었다"고도 했다. 가히 '권력'으로 부를 만했다. 그런데 지금 우리는 그런 뉴스를 곧이곧대로 믿지 않는 시대에 살고 있다. 미디어에 대한 신뢰가 급락하기도 했지만, 하루가 다르게 진화하는 가짜 뉴스가 불신을 증폭시키고 있다. '문재인 후보는 인민군 출신 아들' '문재인정부 개헌 목적은 남북연방제 통일'과 같은 텍스트를 접할 때 의외로 많은 사람들이 이를 사실로 받아들이고 있다. 미국에서는 가짜 뉴스 때문에 총기 사건까지 일어났다. 지난 미국 대선 때 힐러리 클린턴 민주당 후보의 아동 성착취 관련 가짜 뉴스를 접한 범인이 사건을 직접 조사하겠다며 총격을 가한 것이다. 보고 싶은 것만 보고, 믿고 싶은 것만 믿는 확증편향 때문이다.

다양한 영역에 잠들어 있던 사회 갈등이 점차 노골적으로 드러나면서 확증편향은 가짜 뉴스 확산의 주범으로 작용했다. 하지만 이런 현상을 확증편향 문제로만 해석할 수는 없을 것이다. 많은 사람들이 가짜 뉴스를 단순한 '지라시' 정도로 치부하기도 하지만 또 그만큼 많은 사람들이 상식에서 벗어난 황당한 내용임에도 불구하고 이를 사실로 믿거나 혹은 사실일지도 모른다고 여긴다. 그 정도로 가짜 뉴스가 정교하고 치밀해지고 있다. 최근에는 동영상까지 가짜가 등장하고 있다. 텍스트 왜곡이야 간단하고 사진도 포토샵을 통해 손쉽게 조작할 수 있다고는 하지만 움직이는 영상만큼은 어쩌지 못할 거라고 여겨졌는데, 기술은 우리의 그런 순진함을 가볍게 뛰어넘었다. 눈으로 직접 본 것도 함부로 믿을 수 없는 시대에 우리는 살고 있다.

매일경제

지난해 7월 미국 워성턴대학 연구진이 만든 가짜 오바마 전 대통령 동영상. 인공지능(AI)이 14시간 분량 영상을 학습해 만들었다. /사진제공=워싱턴대학교

<이미지를 클릭하시면 크게 보실 수 있습니다>


버락 오바마 전 미국 대통령이 도널드 트럼프 현 미국 대통령을 향해 "완전히 쓸모없는 사람"이라고 독설을 퍼붓는 유튜브 동영상이 있다. 사실 오바마 전 대통령은 그런 말을 한 적이 없다. 버즈피드라는 인터넷 매체가 한 영화감독과 함께 만들어낸 가짜 동영상이다. 이런 가짜 동영상을 '딥페이크(deepfake)'라고 한다. 유명인과 포르노를 합성한 가짜 동영상을 만들어 인터넷에 유포한 네티즌 아이디에서 유래됐다. 유튜브에서 'deepfake'라는 키워드로 검색하면 수많은 가짜 동영상이 뜬다. 가짜 동영상은 이미 공개돼 있는 인공지능(AI) 기술을 활용해 만들어진다. AI가 원본과 사본을 끊임없이 비교하며 전혀 어색하지 않은 가짜 동영상을 생산해낸다. 가짜 동영상을 만들어주는 애플리케이션도 나왔다. 일반인도 이 앱을 이용하면 딥페이크를 만들 수 있다고 한다.

온라인 매체 액시오스는 최근 공개된 신미국안보센터(CNAS) 보고서를 인용해 딥페이크가 가져올 암울한 미래를 소개했다. CNAS는 "정부와 사이버 범죄자 모두 차세대 사회적 갈등을 유발할 수 있는 AI 활용 능력을 키우고 있다"며 "AI가 생산한 딥페이크는 왜곡된 정보를 전파하는 선전 도구로 활용될 수 있지만, 문제는 우리 사회에 마땅한 대처 방법이 없다는 것"이라고 염려했다. 보고서에 따르면 AI는 비록 가짜지만 사람들을 설득할 수 있는 오디오, 사진, 동영상을 만들고 있으며 원하는 대상에만 이를 노출시키고 있다. 보고서는 AI 개발이 군비 경쟁처럼 더 많은 인재와 자금 지원을 받는 쪽이 승리할 것으로 내다봤다. 하지만 상기해보자. 과거 냉전 시대 군비 경쟁에서 승리자는 과연 누구인가. 소련이 사라졌으니 미국이 이겼다고 할 수 있을까. 그 때문에 인류는 지구를 몇 번이나 가루로 만들고도 남을 만큼 많은 핵무기와 함께 살아가고 있는데 말이다.

가짜 뉴스, 가짜 사진을 구별한다고 해도 가짜 동영상을 구별해내기란 쉽지 않을 것이다. "트럼프는 쓸모없는 놈"이라고 욕하는 오바마 영상은 믿지 않을 재간이 없을 정도로 사실적이다. 게다가 이렇게 만들어진 가짜 동영상은 모바일을 타고 빛의 속도로 퍼져나간다. 대통령선거와 같은 국가적 정치 이벤트에 가짜 동영상이 선전 도구로 활용된다고 상상해보라. 생각만 해도 끔찍하다. 인종, 빈부, 종교, 남녀 갈등으로 언제든 폭발할 준비가 돼 있는 군중에 딥페이크는 말 그대로 불난 집에 기름을 붓는 격이 될 것이다. CNAS는 "가짜 정보가 사회를 전복시킬 수 있다"며 "세계는 딥페이크로 인해 '진실의 종언'에 직면하게 될 것"이라고 경고했다. 미 국방부 방위고등연구계획국(DARPA) 등 국가 연구기관에서 진작부터 가짜 동영상 판별 프로그램을 개발하고 있는 이유다. 조만간 창궐할 가짜 동영상에 맞서 인류는 그 어느 때보다 치열한 전쟁을 벌여야 할지도 모르겠다.

[최용성 매경닷컴 DM전략국장]

[ⓒ 매일경제 & mk.co.kr, 무단전재 및 재배포 금지]
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.