안전한 AI 시스템 구축 위한 종합 지침 마련…이프카카오서 발표
AI 윤리 원칙, 리스크 관리 사이클, AI 리스크 거버넌스로 구성
[서울=뉴시스] 카카오는 인공지능(AI) 기술 개발과 운영 과정에서 발생할 수 있는 위험 요소를 사전에 식별하고 이를 관리하는 프로세스를 정의한 위험 요소 관리 체계 '카카오 AI 안전성 이니셔티브(카카오 ASI)'를 구축했다고 23일 밝혔다. (사진=카카오 제공) *재판매 및 DB 금지 |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
[서울=뉴시스]윤정민 기자 = 카카오는 인공지능(AI) 기술 개발과 운영 과정에서 발생할 수 있는 위험 요소를 사전에 식별하고 이를 관리하는 프로세스를 정의한 위험 요소 관리 체계 '카카오 AI 안전성 이니셔티브(카카오 ASI)'를 구축했다고 23일 밝혔다.
카카오 ASI는 AI 기술 개발과 운영상 위험 발생을 최소화하고 안전하고 윤리적인 AI 시스템을 구축하기 위한 종합 지침이다. 기술 설계부터 개발, 테스트, 배포, 모니터링, 업데이트 등 AI 시스템의 전 생애주기에서 발생할 수 있는 위험 요소에 선제적인 대응이 가능하다.
카카오는 AI와 인간이 초래할 수 있는 다양한 종류의 위험 요소를 폭넓게 관리하며 인간의 부주의나 실수로 발생할 수 있는 영역까지 관리 범위를 포괄적으로 지정했다.
카카오 ASI는 ▲카카오 AI 윤리 원칙 ▲리스크 관리 사이클 ▲AI 리스크 거버넌스라는 3가지 핵심요소로 구성된다. '카카오 AI 윤리 원칙'은 지난해 3월 발표한 카카오 그룹의 책임 있는 AI를 위한 가이드라인을 기반으로 사회 윤리, 포용성, 투명성, 프라이버시, 이용자 보호 등 원칙을 포함한다. 개발자와 사용자를 대상으로 윤리적인 가이드라인을 제공한다.
리스크 관리 사이클은 위험 요소를 체계적으로 다루기 위한 접근법이다. 식별-평가-대응의 순환 단계로 구성된다. AI 기술의 비윤리, 불완전 등을 최소화하고, 안전성과 신뢰성을 확보할 수 있는 핵심적인 역할을 한다. 사이클은 AI 시스템의 전체 수명주기에 걸쳐 반복적으로 적용된다.
AI 리스크 거버넌스는 AI 시스템 개발, 배포, 사용 등을 관리하고 감독하는 의사 결정 체계다. 조직 내 정책, 절차, 책임 구조 및 외부 규제와의 조화를 포함하며 거버넌스 체계 내에서 관련 위험 요소를 다각도로 검토한다. 카카오 ASI 거버넌스는 AI 안전성, 전사 리스크 관리 전담 조직인 ERM 위원회, 최고 의사결정 기구의 3단계로 구성돼 있다.
전날 카카오 개발자 콘퍼런스 '이프카카오' 세션에 연사자로 나선 김경훈 AI 안전성 리더는 "AI 시스템 이용에 따른 리스크 발생 주체를 AI와 인간으로 구분하고 발생 주체별 리스크 특성을 반영해 평가·대응 방안을 마련했다는 점이 타사의 AI 리스크 관리 프레임워크와 차별화되는 점"이라고 말했다.
카카오는 ASI 구축 이후에도 AI 기술 개발과 운영 과정에서 발견되는 위험 요소를 신속하게 식별·대응하고 지속적으로 체계 고도화를 이어갈 계획이라고 전했다.
☞공감언론 뉴시스 alpaca@newsis.com
▶ 네이버에서 뉴시스 구독하기
▶ K-Artprice, 유명 미술작품 가격 공개
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.