컨텐츠 바로가기

12.23 (월)

이슈 IT기업 이모저모

네이버, UN에서 AI 안전 정책 사례 공유

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다

"AI 안전성 원칙, 산업 실무에 적용"

네이버는 스위스의 국제연합(UN) 제네바 사무소에서 개최된 '신기술에 대한 인권 기반의 접근: 컨셉에서 구체적 적용으로(Towards a human rights-based approach to new and emerging technologies: From concept to implementation)' 행사에 참석해 안전한 인공지능(AI) 생태계 구축을 위한 노력을 소개했다고 6일 밝혔다.

아시아경제

박우철 네이버 정책/RM 아젠다 변호사(오른쪽에서 두 번째)가 네이버 AI 안전 정책 사례를 발표하고 있다. 네이버 제공

<이미지를 클릭하시면 크게 보실 수 있습니다>


올해 행사는 2022년부터 '신기술에 대한 인권 기반의 접근'을 주제로 단계별 심층 연구를 수행하며 매년 보고서를 발간하고 있는 서울대 인공지능 정책 이니셔티브(SAPI) 및 Universal Rights Group(URG)이 주제네바 대한민국 대표부와 공동으로 주최했다.

이 자리에서 네이버는 안전한 AI를 위한 추상적 원칙을 산업 실무에 적용해온 사례들을 공유했다. 발표를 맡은 박우철 네이버 정책/RM 아젠다 변호사는 2022년부터 운영 중인 네이버 AI 윤리 자문 프로세스 'CHEC(Consultation on Human-centered AI’s Ethical Considerations)'를 소개했다. CHEC는 '네이버 AI 윤리 준칙'을 실제 서비스 출시 과정에 적용하기 위해 설계한 정책이다. 기획 및 개발 단계부터 사회적 관점을 함께 고려하는 게 특징이다.

박우철 변호사는 "현장의 상황을 알지 못하면 AI 윤리 원칙은 진부한 이야기가 될 수 있다"며 "네이버는 AI 윤리 원칙을 현장에서 활용할 수 있도록 만들기 위해 SAPI와 같은 학계 전문가와 협업했고 현장의 서비스 기획 및 개발 과정을 이해하고자 노력했다"고 설명했다.

네이버 AI 윤리 준칙을 구체화하기 위한 다른 정책도 소개했다. 2023년에 공개한 '사람을 위한 클로바X 활용 가이드'는 빠르게 발전하는 생성형 AI 기술에 네이버 AI 윤리 준칙이 어떻게 적용될 수 있을지를 고민한 결과물이다. 올해에는 AI 시스템을 개발하고 배포하는 과정에서 AI의 잠재적 위험을 체계적으로 인식·평가·관리하기 위해 AI 안전 프레임워크(ASF)도 새롭게 구축했다.

최유리 기자 yrchoi@asiae.co.kr
<ⓒ투자가를 위한 경제콘텐츠 플랫폼, 아시아경제(www.asiae.co.kr) 무단전재 배포금지>
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.