7일(현지 시각) 월스트리트저널(WSJ)은 파이어폭스로 널리 알려진 모질라 재단(Mozilla Foundation)의 대규모 연구 조사를 인용해 유튜브 알고리즘이 성적으로 유해하거나 허위정보로 신고된 콘텐츠의 70% 이상을 여과없이 시청자들에게 추천하고 있다는 사실이 연구결과 드러났다고 전했다.
인공지능(AI)에 기반한 유튜브의 동영상 추천 알고리즘이 또 비판의 도마에 오르게 됐다. /루닛 유튜브 캡처 |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
모질라 재단은 앞서 3만7000여명의 연구 참여자들을 동원해 지난 10개월동안 유튜브 알고리즘에 대한 연구를 진행했다. 해당 연구는 불법 성인물을 비롯해 가짜뉴스 등의 유해 콘텐츠를 지정한 뒤 해당 영상이 시청자들에게 추천되는 지를 추적하는 방식으로 이뤄졌다.
WSJ는 “이번 연구에서는 유명 애니메이션인 토이스토리의 성적인 패러디물을 비롯해 빌 게이츠가 ‘흑인 목숨은 소중하다(BLM)’ 캠페인 관련 학생들을 고용해 투표를 조작했다는 내용과 같은 유해 콘텐츠를 집중적으로 보고했다”며 “하지만 이 같은 콘텐츠를 추적한 결과 전체의 71%가 다시 알고리즘에 추천을 받았다”고 지적했다.
모질라 재단은 이미 지난 2019년에도 유튜브 알고리즘의 유해성에 대한 문제를 제기하며 영상 알고리즘의 작동 정보를 요구하기도 했다. 당시 애슐리 보이드 모질라 부사장은 “구글이 소유한 비디오 사이트(유튜브)의 추천 엔진이 사람들을 기괴하고 위험한 길로 이끌고 있다”고 주장했다.
모질라는 유튜브 알고리즘을 지속적으로 문제 삼는 이유에 대해 “AI(인공지능) 세계에서 소비자를 위한 기술이 사람들에게 해롭지 않고 유용하도록 하기 위함”이라고 설명했다. 모질라는 또 “AI가 사람들에게 해를 끼칠 수 있는 상황을 고려해야 한다”고 덧붙였다.
최근 유튜브, 페이스북, 트위터 등 빅테크의 SNS 알고리즘 중독성이 미 의회에서도 중요 의제에 오른 상황에서 이번 조사는 구글에 불리하게 작용할 가능성이 높다. 특히 지난 4월 열린 청문회에서도 미 상원 의원들은 알고리즘이 사용자들을 특정 경향의 정보에만 계속 노출시켜 극단주의로 치닫게 하고, 신종 코로나바이러스 감염증(코로나19) 백신 등과 관련한 부정확한 정보에도 취약하게 한다고 우려한 바 있다.
구글 출신으로 퇴사 후 비영리단체 ‘센터 포 휴메인 테크놀로지’(Center For Humane Technology)를 설립한 트리스탄 해리스는 청문회에 전문가 증인 패널로 참석해 “이들의 사업모델은 중독적이며 극단적이고 허위 정보에 홀린 사회를 만들고 있다”고 비판하기도 했다.
황민규 기자(durchman@chosunbiz.com)
<저작권자 ⓒ ChosunBiz.com, 무단전재 및 재배포 금지>
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.