구글 자회사인 유튜브는 지난 6월 머신러닝 알고리즘 적용을 시작했다. 이 알고리즘은 유튜브 영상의 제목, 태그, 이미지 및 색 구성표 등 다양한 신호를 모니터링해 증오범죄 등 잠재적으로 문제가 있는 콘텐츠를 빠르게 발견하고 이를 인간 검토인에게 넘기고 있다. 검토인은 이렇게 AI로부터 전달받은 콘텐츠의 유해성을 최종 판단한다.
유튜브의 이러한 조치는 미국 실리콘밸리 기업들이 폭력성과 선전성이 담긴 콘텐츠 확산을 막으려면 조치를 취해야 한다는 미국과 유럽 정부들의 비난이 거세진 가운데 나온 것이다. 올해 런던과 맨체스터에서 일어난 테러 공격 등 세계 곳곳에서 극단주의 무장세력 이슬람국가(IS)의 테러 활동이 기승을 부리면서 IT 기업이 특단의 조치를 취해야 한다는 업계 안팎의 압박이 거세지고 있다고 FT는 전했다. 이에 실제로 지난달 트위터는 올해 상반기에만 약 30만 개의 테러리스트 계정을 삭제했다고 발표했다. 페이스북도 지난 6월 극단주의 세력의 계정 탐지 및 삭제율을 높이기 위한 자동 기술에 투자했다고 밝힌 바 있다.
켄 워커 구글 수석 부사장은 지난 6월 극단주의 영상 단속 요구에 난감하다는 입장이었으나 이날 “우리는 이제 더 많은 기술 자원을 투입해 새로운 콘텐츠 분류기기를 훈련시켜 더 빠르게 유해 콘텐츠를 식별하고 제거하는데 더 많은 기술 자원을 쓸 것”이라고 말했다.
[이투데이/김나은 기자(better68@etoday.co.kr)]
▶프리미엄 경제신문 이투데이 ▶비즈엔터
Copyrightⓒ이투데이, All rights reserved. (무단 전재 및 재배포 금지)
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.