<이미지를 클릭하시면 크게 보실 수 있습니다> |
카카오는 인공지능(AI) 기술 개발과 운영 과정에서 발생할 수 있는 리스크를 사전에 식별하고, 이를 관리하는 관리 체계를 구축했다고 23일 밝혔다.
해당 체계인 카카오 AI 세이프 이니셔티브(Kakao AI Safety Initiative·Kakao ASI)는 AI 기술 개발 및 운영상의 위험 발생을 최소화하고, 안전하고 윤리적인 시스템을 구축하기 위한 종합 지침을 의미한다. 카카오의 개발자 행사인 '이프 카카오 2024(if kakao 2024)'를 통해 공개됐다.
Kakao ASI는 특히 기술의 설계부터 개발, 테스트, 배포, 모니터링 및 업데이트 등 AI 시스템의 전 생애주기에서 발생할 수 있는 리스크에 선제적인 대응이 가능하다. AI와 인간이 유발할 수 있는 리스크를 폭넓게 관리하며, 부주의나 실수로 발생할 수 있는 영역까지 관리 범위를 포괄적으로 지정했다.
Kakao ASI는 ▲Kakao AI 윤리 원칙 ▲리스크 관리 사이클 ▲AI 리스크 거버넌스라는 3가지 핵심 요소로 구성된다. Kakao AI 윤리 원칙은 2023년 3월 발표한 '카카오 그룹의 책임 있는 AI를 위한 가이드라인'을 기반으로 하며 사회 윤리, 포용성, 투명성, 프라이버시, 이용자 보호 등 원칙을 포함한다. 개발자와 사용자를 대상으로 한다.
리스크 관리 사이클은 식별·평가·대응의 순환 단계로 구성된다. AI 기술의 비윤리, 불완전 등을 최소화하고, 안전성과 신뢰성을 확보할 수 있는 핵심적인 역할을 한다. 사이클은 AI 시스템의 전체 수명주기에 걸쳐 반복적으로 적용된다.
AI 리스크 거버넌스는 개발, 배포, 사용 등을 관리하고 감독하는 의사 결정 체계를 뜻한다. 조직 내 정책, 절차, 책임 구조 및 외부 규제와의 조화를 포함한다. 거버넌스 체계 내에서 관련 리스크들을 다각도로 검토하게 된다. AI Safety, 전사 리스크 관리 전담 조직인 ERM 위원회, 최고 의사결정 기구의 3단계로 구성됐다.
이정윤 기자 leejuyoo@asiae.co.kr
<ⓒ투자가를 위한 경제콘텐츠 플랫폼, 아시아경제(www.asiae.co.kr) 무단전재 배포금지>
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.