기사 이해를 돕기 위한 이미지. [이미지 = ChatGPT] |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
“부정선거 의혹은 팩트다. 진실을 규명하려면 비상계엄이 불가피했다.”(보수 성향 유튜버)
“계엄군 암살조는 미군 사살 후 미국의 북한 폭격을 유도하려 했다.”(진보 성향 유튜버)
12·3 비상계엄 사태 이후 한 달이 지났지만 유튜브를 비롯한 사회관계망서비스(SNS)에선 사실관계가 확인되지 않은 각종 음모론이 여전히 기승을 부리고 있다. 시청 기록에 따라 추천 동영상을 제시하는 개인화된 알고리즘은 SNS 이용자들의 기존 신념을 강화하는 ‘확증 편향’을 부추기고 있다. SNS 콘텐츠 노출 알고리즘 개선이 시급하다는 지적이 나온다.
SNS의 본래 목적은 타인과 접촉점을 늘린다는 데 있지만, SNS 이용 시간이 늘어나면 늘어날수록 ‘보고 싶어 하는 것만 보는 경향’이 강해지는 역설적 상황이 펼쳐지고 있다. 유튜브 알고리즘의 경우 사용자의 검색 이력, 시청 습관 등을 바탕으로 개인화된 콘텐츠를 제공하는 데 초점을 맞추고 있다. 이용자 평소에 관심을 가지지 않는 다른 관점의 이야기가 SNS에서 자연스럽게 차단되고 ‘보고싶어하는’ 콘텐츠만 반복적으로 추천되는 이유다.
해결이 시급한 사회적 문제로 ‘정서적 양극화’를 지적하는 목소리도 나오고 있다. 정서적 양극화란 쉽게 말해 생각이 다른 사람·집단에 거부감을 가지는 현상을 뜻한다. 이상경 서강대 사회학과 교수는 “오늘날에는 생각이 다르면 상대를 증오·혐오한다”며 “이런 현상은 예전에도 있었지만, 지금은 과거와 비교가 불가능할 정도로 증상이 심해졌다“고 진단했다. 그는 이어 “반복적 콘텐츠 노출이 자기 신념을 강화하고 상대에 대한 적대감을 키우고 있다”고 덧붙였다.
정치적 콘텐츠를 시청하지 않는 경우에도 확증 편향은 얼마든지 나타날 수 있다. 직장인 김진원 씨(33)는 출퇴근길에 주식 투자 관련 유튜브 영상을 시청하는 데 하루 1시간 이상을 쓰고 있다. 당연히 김씨 유튜브 추천영상에는 정치 관련 콘텐츠가 없다. 김씨는 “평소에 경제·투자 콘텐츠만 즐겨 보다 보니 정치적·사회적 이슈는 이제 무관심의 영역을 넘어섰다”라며 “진보든 보수든 모두 짜증나고 멀리하고 싶다”라고 말했다.
전문가들은 이 같은 편향 문제를 해결하기 위해선 SNS 기업이 알고리즘을 투명하게 공개할 필요가 있따고 지적한다. 하지만 대다수 SNS 기업들은 ‘영업 비밀’이라는 이유로 공개를 거부하고 있다. 빅테크 기업에게 알고리즘은 수익과 곧 직결되는 문제다. 이용자의 시청·검색 기록을 분석하고, 이용자 취향을 겨냥한 채널과 동영상을 추천하는 방식으로 플랫폼 기업들은 개별 이용자의 서비스 이용 시간을 늘리고 있다.
결국 이용자가 스스로 미디어 비평 능력을 키우고 SNS 사용 습관에 변화를 주는 방법이 가장 현실적인 대안으로 꼽힌다. 평소 관심이 없는 이슈나 동의하지 않는 주장 등에 대해서도 눈과 귀를 열어야 한다는 얘기다. 김성학 부산대 미디어커뮤니케이션학과 교수는 “사람들은 SNS에서 자신과 비슷한 성향의 사람만 선호하고 자기 생각과 비슷한 콘텐츠만 본다”며 “의도적으로 새로운 목소리나 나와 다른 의견에 관심을 가지려고 노력해야 한다”고 말했다.
포털 뉴스 서비스나 온라인 커뮤니티 등에서 ‘여론’이라는 이름으로 횡행하는 ‘댓글 작업’도 한국 사회에서 갈등의 골을 키우고 있다. 특정 댓글을 최다 추천을 받은 댓글로 끌어올려 여론을 왜곡시키는 ‘댓글부대’와 하루에도 수십 개씩 댓글을 남기는 ‘헤비 댓글러’에 대한 문제 제기는 꾸준하지만, 이를 정화하기 위한 조치는 미진한 실정이다.
한 대학 교수는 “베스트 댓글이 여론에 미치는 영향은 지대하다. 이것이 실제 여론이 아님에도 불구하고 사람들은 ‘다 이렇게 생각하는구나’라고 판단한다”라며 “포털 뉴스를 접하고 댓글을 남기는 이용자는 소수에 불과하지만, 절대다수가 이들의 댓글을 여론으로 받아들이는 게 문제”라고 말했다.“부정선거 의혹은 팩트다. 진실을 규명하려면 비상계엄이 불가피했다.”(보수 성향 유튜버)
“계엄군 암살조는 미군 사살 후 미국의 북한 폭격을 유도하려 했다.”(진보 성향 유튜버)
12·3 비상계엄 사태 이후 한 달이 지났지만 유튜브를 비롯한 사회관계망서비스(SNS)에서는 사실관계가 확인되지 않은 각종 음모론이 여전히 기승을 부리고 있다. 시청 기록에 따라 추천 동영상을 제시하는 개인화된 알고리즘은 SNS 이용자들의 기존 신념을 강화하는 ‘확증 편향’을 부추기고 있다. SNS 콘텐츠 노출 알고리즘 개선이 시급하다는 지적이 나온다.
SNS의 본래 목적은 타인과 접촉점을 늘린다는 데 있지만, SNS 이용 시간이 늘어나면 늘어날수록 ‘보고 싶어 하는 것만 보는 경향’이 강해지는 역설적 상황이 펼쳐지고 있다. 유튜브 알고리즘의 경우 사용자의 검색 이력, 시청 습관 등을 바탕으로 개인화된 콘텐츠를 제공하는 데 초점을 맞추고 있다. 이용자가 평소에 관심을 가지지 않는 다른 관점의 이야기가 SNS에서 자연스럽게 차단되고 ‘보고 싶어 하는’ 콘텐츠만 반복적으로 추천되는 이유다.
해결이 시급한 사회적 문제로 ‘정서적 양극화’를 지적하는 목소리도 나오고 있다. 정서적 양극화란 쉽게 말해 생각이 다른 사람·집단에 거부감을 가지는 현상을 뜻한다. 이상경 서강대 사회학과 교수는 “오늘날에는 생각이 다르면 상대를 증오·혐오한다”며 “이런 현상은 예전에도 있었지만, 지금은 과거와 비교가 불가능할 정도로 증상이 심해졌다”고 진단했다. 이어 그는 “반복적 콘텐츠 노출이 자기 신념을 강화하고 상대에 대한 적대감을 키우고 있다”고 덧붙였다.
정치적 콘텐츠를 시청하지 않는 경우에도 확증 편향은 얼마든지 나타날 수 있다. 직장인 김진원 씨(33)는 출퇴근길에 주식 투자 관련 유튜브 영상을 시청하는 데 하루 1시간 이상을 쓰고 있다. 당연히 김씨 유튜브 추천 영상에는 정치 관련 콘텐츠가 없다. 김씨는 “평소에 경제·투자 콘텐츠만 즐겨 보다 보니 정치적·사회적 이슈는 이제 무관심의 영역을 넘어섰다”며 “진보든 보수든 모두 짜증나고 멀리하고 싶다”고 말했다.
전문가들은 이 같은 편향 문제를 해결하기 위해서는 SNS 기업이 알고리즘을 투명하게 공개할 필요가 있다고 지적한다. 하지만 대다수 SNS 기업들은 ‘영업비밀’이라는 이유로 공개를 거부하고 있다. 빅테크 기업에 알고리즘은 수익과 직결되는 문제다. 이용자의 시청·검색 기록을 분석하고 이용자 취향을 겨냥한 채널과 동영상을 추천하는 방식으로 플랫폼 기업들은 개별 이용자의 서비스 이용 시간을 늘리고 있다.
결국 이용자가 스스로 미디어 비평 능력을 키우고 SNS 사용 습관에 변화를 주는 방법이 가장 현실적인 대안으로 꼽힌다. 평소 관심이 없는 이슈나 동의하지 않는 주장 등에 대해서도 눈과 귀를 열어야 한다는 얘기다. 김성학 부산대 미디어커뮤니케이션학과 교수는 “사람들은 SNS에서 자신과 비슷한 성향의 사람만 선호하고 자기 생각과 비슷한 콘텐츠만 본다”며 “의도적으로 새로운 목소리나 나와 다른 의견에 관심을 가지려고 노력해야 한다”고 말했다.
포털 뉴스 서비스나 온라인 커뮤니티 등에서 ‘여론’이라는 이름으로 횡행하는 ‘댓글 작업’도 한국 사회에서 갈등의 골을 키우고 있다. 특정 댓글을 최다 추천을 받은 댓글로 끌어올려 여론을 왜곡시키는 ‘댓글부대’와 하루에도 수십 개씩 댓글을 남기는 ‘헤비 댓글러’에 대한 문제 제기는 꾸준하지만, 이를 정화하기 위한 조치는 미진한 실정이다.
한 대학교수는 “베스트 댓글이 여론에 미치는 영향은 지대하다. 이것이 실제 여론이 아님에도 불구하고 사람들은 ‘다 이렇게 생각하는구나’라고 판단한다”며 “포털 뉴스를 접하고 댓글을 남기는 이용자는 소수에 불과하지만, 절대다수가 이들의 댓글을 여론으로 받아들이는 게 문제”라고 말했다.
[ⓒ 매일경제 & mk.co.kr, 무단 전재, 재배포 및 AI학습 이용 금지]
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.