컨텐츠로 건너뛰기
검색
AI타임스 언론사 이미지

메타, '제품 평가' 담당 AI로 90% 교체 추진

AI타임스 박찬
원문보기

메타, '제품 평가' 담당 AI로 90% 교체 추진

서울흐림 / -0.8 °
[박찬 기자]
(사진=셔터스톡)

(사진=셔터스톡)


메타가 인공지능(AI)을 활용해 플랫폼의 기능 개선과 알고리즘 수정 시 실시해 온 제품 위험성 평가 절차를 자동화하기로 했다. 이로 인해 개발 효율성은 높아질 것으로 보이지만, 예상치 못한 부작용이나 위험이 늘어날 것이라는 우려가 제기되고 있다.

NPR은 31일(현지시간) 메타가 핵심 서비스인 인스타그램, 페이스북, 왓츠앱 등에서 기능 업데이트와 알고리즘 변경 시 수행해 온 제품 위험성 평가 절차의 최대 90%를 AI로 자동화하는 방침을 내놓았다고 보도했다.

그동안 개인정보 침해나 아동 보호, 유해 콘텐츠 확산 등과 같은 문제를 사전에 막기 위해 인간이 담당한 '프라이버시 및 무결성 심사'를 AI 대체하게 되는 것이다.

NPR이 입수한 내부 문서에 따르면, 앞으로는 대부분의 기능 변경이나 업데이트가 간단한 질문지를 작성하는 것만으로 AI 시스템에 의해 '즉각 승인'된다. 이 과정에서 위험 영역과 대응 과제를 자동으로 분석한 뒤, 개발팀이 이를 충족했다는 점만 확인하면 된다.

이런 변화는 제품 개발 주기를 단축해 출시 시점을 앞당기는 데 유리하며, 엔지니어들이 자율적으로 제품 출시를 결정할 수 있게 된다.

그러나, 인간의 윤리적 판단이 점차 배제된다는 점은 문제로 지적됐다. 한 전직 메타 임원은 "더 적은 검토와 반대 속에서 더 많은 기능이 더 빨리 출시된다면, 결과적으로 위험성이 커질 수밖에 없다"라고 밝혔다.


실제로 프라이버시, AI 안전, 아동 보호, 허위 정보 및 폭력 콘텐츠 등 민감한 영역도 자동화 대상에 포함된 것으로 드러났다. 이전에는 모든 주요 업데이트가 전문 리스크 평가자들의 검토를 거쳐야 했지만, 이제는 제품 개발자가 자체적으로 판단해 수동 심사를 요청할지 결정하게 된다.

메타는 이번 조치가 의사결정을 간소화하기 위한 것이라며, "복잡하고 새로운 이슈에 대해서는 여전히 인간 전문가가 관여하며, 위험도가 낮은 결정에 대해서만 자동화가 이루어지고 있다"라고 설명했다. 또 유럽연합(EU) 사용자에 대해서는 디지털서비스법(DSA) 등 강력한 규제를 고려해 기존과 같은 수준의 감시가 유지된다고 설명했다.

그러나 메타는 앞서 팩트 체크 프로그램을 종료하고 혐오 발언 정책을 완화하는 등 플랫폼 규제 완화 움직임을 이어가고 있다. 최근 발표에서는 "일부 정책 영역에서는 대형언어모델(LLM)이 사람보다 더 뛰어난 판단을 내리고 있다"라고 밝힌 바 있다.


기술 정책 기업 앵커체인지 CEO 케이티 하바스는 "AI가 중복 검토를 줄이고 속도를 높이는 데 도움이 될 수 있지만, 반드시 인간의 견제와 균형이 병행돼야 한다"라고 강조했다.

박찬 기자 cpark@aitimes.com

<저작권자 Copyright ⓒ AI타임스 무단전재 및 재배포 금지>