컨텐츠 바로가기

04.25 (목)

AI가 만든 가짜 뉴스, AI가 잡는다...정책 변화 등 인간적인 노력도 필요

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다
AI타임스

(사진=셔터스톡)

<이미지를 클릭하시면 크게 보실 수 있습니다>


(사진=셔터스톡)소셜 네트워크를 어지럽히는 가짜 뉴스의 파수꾼으로 인공 지능(AI)이 나섰다.

최근 들어 전 세계적으로 이런 불법 온라인 범죄들이 더욱 기승을 부리고 있는 가운데 이에 맞서는 움직임도 활발해지고 있다.

지난 17일 자, 엔지니어링 전문 매체 '크리에이트 디지털'에 따르면, MIT 링컨 연구소가 구축한 리오(RIO,The Reconnaissance of Influence Operations) 소프트웨어가 소셜 미디어상의 가짜 뉴스를 탐색한다는 보도가 나왔다.

링컨 연구소의 소프트웨어 엔지니어들이 만든 이 AI 인플루언스 정찰 시스템은 소셜 네트워크를 통해 잘못된 허위 정보를 퍼뜨리는 소셜 미디어 계정을 자동으로 감지하고, 분석하는데 뛰어난 결과를 가져다준 것으로 알려졌다.

리오 프로그램은 자연어 처리(NLP), 머신러닝(ML), 그래프 분석 및 새로운 네트워크 인과 추론을 통합해 잠재적 인플루언스 운영 정보를 식별한 다음에 행동과 내용을 기반으로 계정을 분류, 특정 내러티브를 확산하는 인플루언스 계정을 추정한다는 것이다.

이런 과정을 거쳐서 허위 정보를 96% 정밀도로 탐지할 수 있으며, 특정 선전 이야기를 확산시키는 인플루언스 운영 계정의 영향을 정량화해 그들의 선전 콘텐츠를 경고할 수 있다는 것이 연구소의 설명이다.

가짜 뉴스는 인공 지능의 그림자

소셜 네트워크상에서 인공 지능(AI)은 두 얼굴을 갖고 있다. 한편으론 가짜 뉴스의 감시자지만 다른 한편으론 가짜 뉴스 생산자의 얼굴을 갖고 있기 때문이다.

지난 2018년 5월 3일 자, 미시간 주립대 뉴스 '더 컨버세이션(The Conversation)'은 '인공 지능이 가짜 뉴스를 탐지하고 생성하는 방법'이란 제하의 기사에서 AI는 온라인 선전을 발견하는 데 유용한 도구지만, 오해의 소지가 있는 자료를 만드는 데도 놀랄 만큼 능숙하다고 분석했다.

실제로, 연구자들은 온라인 가짜 뉴스가 실제 뉴스보다 훨씬 더 빠르게 널리 퍼지며, 오는 2022년까지 선진국에선 실제 뉴스보다 더 많은 가짜 뉴스를 접하게 되리라 전망하기도 했다.

지난 2019년 2월 15일 자, 블룸버그 통신은 오픈 AI가 놀랍도록 설득력이 있는 가짜 뉴스 알고리즘을 만든 반면에 대다수의 사람은 가짜 뉴스와 진짜 뉴스를 구별하지 못하는 것으로 나타났다고 보도했다.

같은 해 7월 12일 자, 기사에서 미국의 경제 전문 매체 CNBC도 AI가 생산하는 가짜 뉴스의 위험성을 경고한 바 있다.

즉, AI의 머신러닝이'딥페이크(deepfake)'영상을 빠르게 발전시키는 가운데 그 기술을 개발한 연구원들 자신도 실제와 조작된 내용을 구별하지 못했다고 전했다.

아울러 딥페이크 비디오의 위협을 제거할 명확한 해결책이 아직 없다고 경고했다.

가짜 뉴스 방지에 인간 노력 필요

지난 2019년 4월 17일 자, 사이언스 X데일리(Science X Daily)는 가짜 뉴스는 이미 소셜 네트워크상에 불신을 퍼뜨렸다고 보도했다.

그 사례로, 만약에 누군가가 온라인상에서 오바마 미국 전 대통령처럼 되고 싶다면 오늘날 고도로 발달한 AI는 그 욕망을 실현시킬 수 있다며, 이는 AI가 만든 딥페이크(Deepfake)프로그램에 의해서 가능하다고 보도했다.

그럼에도 불구하고, 일부 연구자들은 향후 AI가 소셜 네트워크에서 선(善)을 위해 사용될 수 있음을 보여주고 있다.

이탈리아에 기반을 둔 엔지니어링그룹의 응용 연구 책임자 프란체스코 누치(Francesco Nucci)박사는"AI는 많은 윤리적 문제를 안고 있지만, 때론 해결책이 될 수 있다"라고 강조했다.

실제로, 그는 언론인과 사실 확인 담당자가 가짜 뉴스를 감지하고 대응할 수 있는 AI 소프트웨어 '판당고(Fandango)' 프로젝트의 수석 연구원이다. 그는 또 AI를 사용해 가짜 뉴스 탐지에 대한 비정형적인 접근 방식을 취하는 굿뉴스(GoodNews)라는 프로젝트도 이끌고 있다.

누치는 "가짜 뉴스는 반드시 알고리즘만의 문제가 아니다."며, "사람들이 기존의 미디어에 대해 신뢰하지 않기 때문에 가짜 뉴스 문제는 기술을 통해서만 완화될 수 있는 것이 아니다."고 지적했다.

테네시 대학의 정보 과학 조교수인 벤저민 호른(Benjamin D. Horne)박사는 "AI 도구는 기자가 할 수 있는 미묘한 분석 능력이 부족하다."며, "가짜 뉴스와 싸우기 위해선 컴퓨팅 및 정책 변화 등과 같은 인간적인 노력이 필요하다."고 지적했다.

새로운 ML 적용, 적대 계정 탐지

현재 전 세계적으로 많은 연구자가 AI 프로그램을 이용해 가짜 뉴스 탐지 프로그램을 개발하고 있는데 MIT대 링컨 연구소가 구축한 리오 프로그램도 그들 중의 하나다.

지난달 27일 자, MIT 뉴스에 따르면, 이 리오 프로그램의 출발은 악성 그룹이 소셜 미디어를 어지럽히기 시작한 지난 2014년에 시작된 것으로 알려졌다.

링컨 연구소 AI 소프트웨어 그룹의'스티븐 스미스(Stephen Smith)' 박사는"소셜 미디어를 통한 허위 정보의 확산은 음모 이론을 강화해서 불화를 조장하는 능력을 갖추고 있다."며, "리오 프로그램은 이를 막기 위해 공개 머신 러닝(ML), 인터페이스(API), 연구실 자체 ML 알고리즘 등을 사용했다."고 설명했다.

같은 연구소의'에리카 맥킨(Erika Mackin)'박사는 소셜 네트워크상의 계정이 외국 미디어와 상호 작용하는지를 조사하는 리오 프로그램에 새로운 머신러닝 접근 방식을 적용, 이러한 계정들을 분류하는 데 도움을 주었다.

이를 통해 리오 프로그램은 지난 2017년 프랑스 대통령 선거부터 이번 코로나 사태의 가짜 뉴스 확산에 이르기까지 다양한 캠페인에서 활동하는 적대적인 계정을 탐지해냈다.

이런 공로로 리오 프로그램은 '2020 R&D 100개 부문'수상자에 포함된 8개의 링컨 연구소 기술 중의 하나로 선정됐다.

AI타임스 조행만 객원기자 chohang5@kakao.com

[관련 기사]SNS상 허위사실 유포자 이제 AI가 '미리' 알아낸다

[관련 기사]네이버 뉴스, 기사본문 아래 '팩트' 바로 확인가능해졌다...팩트체크 표기 강화

Copyright ⓒ '인공지능 전문미디어' AI타임스 (http://aitimes.com)
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.