컨텐츠 바로가기

이슈 IT기업 이모저모

페이스북 AI, 유해 콘텐츠 못걸러…"총격·세차 영상도 구분못해"

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다

WSJ 2019년 엔지니어 보고 담긴 내부 문건 입수 보도

닭싸움 영상, 자동차 충돌 영상으로 인식

1인칭 총격영상은 세차 장면과 혼동

증오발언 2019년 2%, 올해 3~5% 걸러내는데 그쳐

이데일리

마크 저커버그 페이스북 최고경영자(CEO). (사진=AFP)

<이미지를 클릭하시면 크게 보실 수 있습니다>


[이데일리 방성훈 기자] 페이스북은 오랜 기간 자체 인공지능(AI) 시스템이 유해 콘텐츠를 검열해줄 것이라고 주장해 왔다. 하지만 실제로는 총격 영상과 세차 또는 놀이용 페인트 총쏘기 영상조차 구분하지 못하는 것으로 나타났다.

월스트리트저널(WSJ)은 17일(현지시간) 자체 입수한 페이스북 내부 문건을 인용해 “페이스북은 증오 발언(헤이트 스피치) 및 과도한 폭력 콘텐츠를 신속하게 삭제하기 위해 AI 시스템을 도입했지만, 이 AI는 1인칭 총격 동영상, 인종차별 발언과 닭싸움이나 자동차 충돌의 차이를 일관되게 식별할 수 없었다”고 보도했다.

WSJ이 입수해 분석한 내부 문건은 2019년 중반에 작성된 것으로, 페이스북의 수석 엔지니어는 “특히 민감한 영역에서는 대부분의 유해 콘텐츠를 포착하는 모델이 없었으며 앞으로도 없을 가능성이 있다”고 밝혔다.

내부 문건에 따르면, 2018년 중반 한 엔지니어는 자체 콘텐츠 규정을 위반하는 자동차 사고 영상과 투계장 닭싸움 영상이 확산하고 있다는 것을 파악하고, 동료들과 함께 이를 제거하기로 했다.

우선 엔지니어들은 ‘딥비전’이라는 머신러닝 프로그램을 활용, AI에 심하게 다친 닭이 나오는 영상을 걸러내도록 하고 가벼운 상처를 입은 닭이 나오는 영상은 무시하도록 학습시켰다. 닭이 심하게 다치지 않는 경우엔 콘텐츠 게재를 허용하고 있기 때문이다.

하지만 엔지니어들은 “실제로는 문제가 해결되지 않았다”고 적었다. 심지어 2건의 사례에서는 AI가 “투계 영상들인데도 자동차 충돌 영상으로 분류했다”고 보고했다.

엔지니어들은 또 지난 2019년 3월 뉴질랜드에서 한 테러리스트가 이슬람 사원 2곳에서 자행한 51명 총격 살해 생중계를 계기로 1인칭 총격 영상을 걸러내려고 시도했다. 그러나 AI는 이런 영상을 제대로 잡아내지 못했다. 일부 사례에서는 AI가 페인트볼을 쏘는 서바이벌 게임이나 세차 영상과 혼동하기도 했다.

규정을 위반한 증오 발언 관련 콘텐츠에 대해서도 조회 건수 중 2%에 해당하는 게시물을 삭제하는 데 그쳤다. 올해 3월 다른 내부 문건에서도 비슷한 결과가 나왔다. AI 시스템은 증오 발언 조회 건수의 3∼5%에 해당하는 게시물만을 삭제한 것으로 보고됐다. 폭력, 선동 등 모든 규정을 위반한 콘텐츠로 대상을 확대할 경우 AI가 걸러낸 게시물은 0.6%로 추산됐다.

앤디스톤 페이스북 대변인은 이 비율이 “AI를 사용해 삭제된 게시물을 의미하며 뉴스피드에서 게시물 순위를 낮추는 등 증오심 표현을 보는 사람들의 수를 줄이기 위해 회사가 취하는 다른 조치는 포함하지 않았다”고 해명했다.

앞서 마크 저커버그 페이스북 최고경영자(CEO)는 2018년 미 상원 청문회에 출석해 “5년에서 10년 안에 대부분의 헤이트 스피치를 사전에 감지할 수 있는 AI 시스템을 갖게 될 것”이라고 낙관했다. 그는 지난해 7월에도 “증오와 싸우는 측면에서 우리는 정말 정교한 시스템을 구축했다”고 밝혔다.

WSJ는 하지만 내부 문건 등을 통해 드러난 통계에 대해 “저커버그 CEO 등 페이스북 최고 경영진들이 AI를 사용해 2019년 말까지 ‘대부분의 문제가 있는 콘텐츠’를 감지할 것이라고 제시했던 것과는 극명히 대조적인 결과”라며 “페이스북은 유해 콘텐츠 대다수를 놓치는 등 검열·삭제에 거의 성공하지 못했을 뿐더러 내부 엔지니어들조차 의심하고 있다”고 지적했다.


기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.