컨텐츠 바로가기

닭싸움을 교통사고로 분류... '페이스북 AI'는 무용지물?

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다
2016년 콘텐츠 관리 위해 15조 원 투입해 개발
정작 혐오 표현 차단율은 2% 불과... 내부자 지적
세차 영상은 1인칭 총격 영상 등으로 오인하기도
페이스북 "삭제 대신 노출 빈도 줄이는 중" 해명
한국일보

페이스북 로고. 로이터 연합뉴스

<이미지를 클릭하시면 크게 보실 수 있습니다>


페이스북이 유해물 관리를 위해 도입한 인공지능(AI)의 정확성이 크게 떨어진다는 내용의 내부 문건이 공개됐다. 자회사인 인스타그램의 청소년 유해성 논란 등 잇단 내부 폭로로 불거진 페이스북의 위기가 갈수록 증폭되는 모습이다.

미국 일간 월스트리트저널(WSJ)은 17일(현지시간) 페이스북이 2016년 도입한 AI에 대해 "혐오 표현이나 1인칭 총격 영상과 같은 유해한 내용의 게시물을 제대로 감지하지 못한다"는 내용이 담긴 내부 문건을 입수해 보도했다.

해당 문건에 따르면 페이스북의 AI는 혐오 표현을 거의 잡아내지 못했다. 2019년 페이스북 수석 엔지니어는 "AI가 규정을 위반한 전체 혐오 표현의 2%밖에 제거하지 못했다"며 "변화가 없다면 단기간에 10~20% 이상의 개선은 어려울 것"이라고 밝혔다. 올해 3월 다른 내부 문건에서도 AI가 증오 발언 조회 건수의 3~5% 게시물만 삭제했다는 내용이 공개된 바 있다. 페이스북의 폭력 선동 금지 규정을 위반한 콘텐츠 감지율도 0.6%에 불과한 것으로 나타났다.

유해 영상을 걸러내는 기능도 제대로 작동하지 않았다. 2018년 페이스북의 한 엔지니어는 끔찍한 교통사고 영상과 닭싸움 영상이 온라인에서 퍼지는 것을 확인하고, AI를 활용해 영상을 걸러내도록 했다. 하지만 AI는 닭싸움을 차량 충돌 사고로 인식할 뿐이었다. 싸움으로 심하게 다친 닭과 가벼운 상처를 입은 닭도 구별하지 못했다.

심지어 총격 게임 영상이나 세차 동영상을 '1인칭 총격' 영상으로 오인하기도 했다. 2019년 3월 뉴질랜드 크라이스트처치에서 한 테러리스트가 이슬람 사원 2곳에서 51명을 총격 살해하며 자신의 범행을 '1인칭 시점'에서 페이스북으로 생중계한 사건을 계기로 비판 여론이 커지자 AI를 활용, 1인칭 총격 영상을 걸러내려는 시도를 했으나 사실상 실패한 셈이다.

페이스북은 WSJ 보도에 즉각 반박했다. 홈페이지를 통해 페이스북은 "부적절하지만 규정 위반인지 따지기 어려운 콘텐츠의 경우, 삭제 대신 노출 빈도를 줄이는 등 확산 방지를 위해 노력 중"이라고 해명했다.

앞서 페이스북은 이용자들이 콘텐츠 관리 시스템에 불만을 제기하자 2016년 130억 달러(약 15조4,000억 원)를 투입해 AI를 구축했다. 지난달에는 "AI로 올해 상반기 30억 개의 가짜 계정을 차단하고, 2017년에 비해 15배 더 많은 규정 위반 콘텐츠를 삭제했다"고 밝혔다.

세계 최대 소셜미디어인 페이스북은 자회사인 인스타그램이 10대에 미치는 유해성을 확인하고도 어린이용 인스타그램 개발을 강행했다는 내부 문건이 지난달 공개돼 개발을 중단했다. 또 "천문학적 이익을 위해 유해 게시물과 가짜 뉴스를 방치하는 등 유해성을 알고도 조치를 취하지 않았다"는 내부 고발까지 이어지면서 도덕성 논란에 휩싸였다.

김지우 인턴기자


기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.