컨텐츠 바로가기

11.24 (일)

이슈 천태만상 가짜뉴스

딥페이크 가짜뉴스 주의보…딥페이크는 나쁜 기술인가요?[궁즉답]

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다

尹대통령 딥페이크 논란…총선 앞두고 경계령

AI발전으로 앱으로도 딥페이크 영상 제작 가능

합성이니까 괜찮다? 강력한 처벌 뒤따를 수도

이데일리는 독자들이 궁금해하는 정치·경제·사회·문화 등 여러 분야의 질문을 담당기자들이 상세하게 답변드리는 ‘궁금하세요? 즉시 답해 드립니다.’(궁즉답) 코너를 연재합니다. <편집자 주>

이데일리

지난 23일 서울 양천구 방송통신심의위원회에서 열린 제14차 통신심의소위원회 회의에서 한 위원이 윤석열 대통령 딥페이크 영상 자료를 살펴보고 있다.(사진=뉴스1)

<이미지를 클릭하시면 크게 보실 수 있습니다>


Q. 최근 윤석열 대통령 관련한 딥페이크 영상이 논란이 되고 있습니다. 딥페이크 가짜 영상, 일반인도 제작이 쉬운가요?

[이데일리 한광범 기자] A. 국회의원 총선거를 앞두고 딥페이크(deepfake)를 활용한 가짜뉴스에 대한 우려가 커지고 있습니다. 최근 윤석열 대통령 외형과 목소리를 이용해 만든 가짜뉴스 영상으로 논란이 더 커지는 모양새입니다. 우리나라만 해당하는 사안이 아닙니다. 올해 대선을 앞둔 미국에서도 딥페이크 영상은 가짜뉴스 확산의 주된 통로로 활용되며 골칫거리가 된 상황입니다.

그런데 ‘딥페이크’ 기술 자체는 중립적입니다. 딥페이크는 인공지능(AI) 기술을 활용해 진위 여부를 구별하기 어려운 가짜 이미지나 영상물을 뜻합니다. 일종의 얼굴 합성 기술이죠.

최근 넷플릭스 오리지널 시리즈 ‘살인자ㅇ난감’에서 주인공 ‘장난감’의 아역 배우 모습을 주연 배우인 손석구의 얼굴을 활용해 만든 것도 일종의 딥페이크이기 때문입니다. 지난 대선 당시 큰 화제를 불러일으켰던 ‘AI 윤석열’ 역시 딥페이크 기술을 적용한 겁니다. 스타트업이 최근 내놓아 화제가 됐던, 사진 1장으로 고인 영상을 만드는 서비스 역시 마찬가지죠.

이처럼 과거보다 훨씬 한정된 정보만으로 딥페이크 영상 제작이 가능하게 됐습니다. AI 기술의 발전으로 사진 한 장만으로 실감나는 가짜 영상 제작이 가능하고, 딥러닝으로 목소리도 거의 유사하게 구현할 수 있습니다. 음성 확보가 쉬운 유명인은 물론, 일반인의 경우도 10초 정도의 짧은 음성만 있으면 유사한 음성 구현이 가능한 것으로 알려지고 있습니다.

과거 복잡한 프로그램이 필요했던 것과 달리 최근엔 간단한 앱 하나만으로도 어렵지 않게 제작이 가능합니다. 인터넷을 치면 ‘유용한 딥페이크 앱·웹’을 안내하는 사이트를 어렵지 않게 찾을 수 있습니다.

한 사이트가 추천한 목록을 보면 △FaceApp △Reface △Voil AI Artist △MyHeritage Deep Nostalgia △Avatarify 등이 있습니다. 그런데 막상 내역을 보면 일부는 우리가 평소에 광고를 통해 많이 접할 수 있는 사진 보정 앱들도 어렵지 않게 볼 수 있습니다.

조금 더 정교한 영상을 만들어주는 AI업체들도 있습니다. 지난 대선에서 큰 화제가 됐던 ‘AI 윤석열’의 경우도 국내 AI 휴먼 제작회사인 딥브레인AI가 자체 기술력으로 제작한 것이었습니다.

딥페이크, 얼굴합성기술 자체는 앞으로도 활용대가 무궁무진한 기술입니다. 앞으로 기술이 발전할 수록 딥페이크는 더욱 더 정교해질 것으로 보입니다.

그런데 문제는 이처럼 딥페이크 활용이 쉬워지며 이를 나쁘게 활용하는 사례가 많아지고 있다는 겁니다. 딥페이크 기술의 발전과 함께 탐지 기술 역시 발전해 AI를 이용할 경우 딥페이크 유무는 어렵지 않게 파악할 수 있다는 것이 IT업계의 설명입니다.

하지만 다양한 채널로 유통되는 만큼 유통 자체를 막기는 쉽지 않습니다. 국내외 플랫폼 기업들이 ‘딥페이크 영상 표시’ 등으로 대응하고 있지만 이들 외에도 유통 채널은 다양한 게 현실입니다.

정치인 관련 가짜뉴스를 제외하더라도 딥페이크를 이용한 범죄는 이미 다수 발생하고 있습니다. 온라인 인터넷 게시판에선 ‘딥페이크 영상’을 제작해 주겠다는 글을 올리는 이용자가 적지 않습니다. 이들은 불특정 다수로부터 의뢰를 통해 돈을 받고 딥페이크 기술을 활용해 이른바 ‘지인능욕’ 영상을 만들거나 연예인 얼굴을 합성한 불법영상을 만들기도 합니다.

그러나, 이는 명백한 범법행위입니다. 성폭력범죄의 처벌 등에 관한 특례법과 명예훼손 등으로 처벌을 받는 것은 물론, 피해자가 아동일 경우 가중처벌 대상이 됩니다. 중형을 받을 수도 있습니다. ‘합성이니까 괜찮겠지’ 등의 안일한 생각으로 딥페이크 영상을 의뢰하는 10대들도 있는 것으로 알려졌습니다. 안일한 생각으로 평생 성범죄자라는 낙인을 안고 살아야 하는 것입니다.

불법행위인 만큼 딥페이크 영상 제작을 의뢰했다가 범죄 표적이 되는 경우도 어렵지 않게 볼 수 있습니다. “당신이 내게 불법을 의뢰했으나 경찰에 제보하겠다”는 식의 협박을 통해 의뢰인에게 금품을 뜯어내거나 성착취물을 요구하는 범죄도 종종 발생하고 있습니다.

공직선거법 개정으로 딥페이크 활용이 금지된 것은 가짜뉴스가 활개 칠 수 있다는 우려때문이었습니다.

상대 후보에 대한 부정적 가짜뉴스를 생산하는 것은 물론, 우리 진영 후보에 긍정적 가짜뉴스도 만들어질 수 있는 겁니다.

이는 민주주의의 공론장인 선거라는 제도를 부정하는 일과 다르지 않죠. 재미로라도 선거 관련 딥페이크 영상을 만들었다가 자칫 최대 징역 7년의 중형을 선고받을 수 있다는 것을 명심해야 합니다.

이데일리 궁즉답에서는 독자 여러분들이 알고 싶어하는 모든 이슈에 기자들이 직접 답을 드립니다. 채택되신 분들에게는 모바일 상품권을 보내드립니다.
  • 이메일 : jebo@edaily.co.kr
  • 카카오톡 : @씀 news



기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.