컨텐츠 바로가기

06.26 (수)

이슈 IT기업 이모저모

"위험도 높으면 서비스 배포 중단"...네이버가 AI 안전 체계 고강수 둔 까닭은

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다
프런티어 AI는 3개월마다 위험 평가
"위험 상당하다면 서비스 배포 중단"
한국일보

최수연 네이버 대표가 지난해 8월 서울 강남구 그랜드 인터컨티넨탈 서울 파르나스에서 열린 '팀 네이버 콘퍼런스 단(DAN) 2023'에서 초대규모 AI '하이퍼클로바X' 관련 발표를 하고 있다. 네이버 제공

<이미지를 클릭하시면 크게 보실 수 있습니다>





네이버가 국내 최초로 인공지능(AI) 안전성 체계를 설계하고 실천 방안을 내놨다. 그 핵심은 영어 중심의 글로벌 빅테크 AI의 한계를 극복하기 위해 문화적 다양성을 반영한 AI 안전성 체계를 만드는 것이다. 특히 인류를 위협할 만한 '프런티어(frontier) AI'는 3개월마다 평가하고 위험 수준이 상당히 높다고 판단되면 서비스를 배포하지 않기로 하는 등 강도 높은 기준을 세웠다.

네이버가 17일 공개한 '네이버 ASF(AI Safety Framework)'는 AI 시스템을 개발하고 배포하는 과정의 모든 단계에서 AI의 잠재적 위험을 인식·평가·관리하기 위한 대응 체계다. 네이버가 AI를 연구·개발하면서 세운 'AI 윤리 준칙'(2021년), 'AI 윤리 자문 프로세스'(2022년)에 이어 좀 더 구체화한 실천안을 담았다.

네이버 ASF는 AI 시스템 때문에 생길 수 있는 위험을 ①통제력 상실과 ②악용으로 정의하고 대응법을 설계했다. 우선 인간이 AI 시스템에 영향을 줄 수 없는 통제력 상실 위험을 완화하기 위해서 AI 시스템의 위험을 주기적으로 평가하고 관리할 예정이다. 특히 현존 최고 성능의 AI 시스템인 프런티어 AI에 대해선 3개월마다 위험을 따져본다. 또한 시스템의 능력이 기존보다 여섯 배 이상 증가하면 추가 평가도 한다.

AI 시스템의 악용 위험에 대해선 'AI 위험 평가 매트릭스'를 가지고 대응한다. 예를 들면 생화학 물질 개발과 같이 특수한 목적으로 쓰이는 AI 시스템은 특별한 자격이 있는 사용자에게만 제공해 위험을 완화하겠다는 것. 특히 사용 목적과 관계없이 안전 조치의 필요성이 높은 AI 시스템이라면 위험의 정도가 낮아질 때까지 모델 또는 서비스 배포를 중단할 방침이다. 생성형 AI 기술 선봉에 있는 오픈AI가 안전성보다 기술 진보에 방점을 찍은 것과 대비된 행보다.






'문화적 다양성' 반영해 빅테크 AI와 차별화

한국일보

경기 성남시 네이버 본사. 연합뉴스

<이미지를 클릭하시면 크게 보실 수 있습니다>


네이버는 AI 안전성 체계에 문화적 다양성을 반영해 고도화할 예정이다. 영어·미국 중심의 빅테크 AI에 비해 네이버는 나라별로 언어·문화적 맥락을 이해하는 소버린 AI 기술을 내세워 글로벌 존재감을 키우고 있는데 이를 AI 안전성 기준에도 담겠다는 것. 특정 문화권에서 성립될 수 있는 AI 시스템의 위험을 알아차리고 위험의 정도를 측정하는 벤치마크(성능 측정 기준)도 문화권의 특성을 반영한다.

AI 안전성에 대한 테크 기업의 책무는 점점 커지고 있다. AI보다 한 단계 진화해 사람과 비슷하거나 사람보다 뛰어난 지능을 가진 범용인공지능(AGI) 기술 상용화도 머지않았다는 전망이 나오기 때문이다. 최수연 네이버 대표는 "소버린 AI를 개발한 경험을 통해 문화적·지정학적 상황과 지역적 이해가 AI의 성능뿐만 아니라 안전성에도 영향을 미친다는 점을 실증했다"며 "다양한 지역의 문화와 가치를 반영하는 다수의 AI 모델이 안전하게 쓰이며 공존하는 AI 생태계에 네이버가 힘을 보탤 것"이라고 설명했다.

김지현 기자 hyun1620@hankookilbo.com


기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.