/사진제공=금융감독원 |
금융감독원은 금융권이 건전하게 AI(인공지능)를 활용할 수 있도록 '금융분야 AI 위험관리 프레임워크(AI RMF)'를 마련한다고 15일 밝혔다. 금융회사는 이를 토대로 자발적인 AI 가이드라인·지침을 만들어 활용할 수 있다.
금감원은 금융 AI 위험 특성과 파급력에도 위험관리가 미진한 상황이라고 지적했다. 금감원이 지난해 4월 국내 금융회사 118개사를 점검한 결과 대상자 중 약 85%는 AI 윤리원칙, 위험관리 기준을 마련하지 않았다. AI 서비스를 개발·활용하는 과정에서 감독당국이 제시한 AI 가이드라인을 적용한 비율도 60%로 저조했다.
동시에 상당수 금융회사는 AI 거버넌스·위험관리에 대한 불확실성 해소와 책임소재 명확화 등을 위해 금융권의 특수성을 반영한 가이드라인이 필요하다고 해 금감원이 AI RMF 마련에 착수했다.
AI RMF는 AI 시스템 도입·활용 전주기에 걸친 위험을 금융회사 스스로 관리토록 유도하는 게 목적이다.
우선 금융회사는 AI 위험관리 등을 위한 의사결정기구과 전담조직을 구성해야한다. AI윤리위원회, AI위험관리위원회 등을 설치해 AI 도입·활용에 적극 관여해야 한다. 위원장은 CEO(최고경영자)가 AI 사업계획·전략·위험을 명확히 인식할 수 있도록 정기 보고해야 한다.
AI 도입·개발 추진 조직과 독립된 위험관리 전담 조직도 설치해야 한다. AI 위험 인식·측정·평가 등 위험관리 전반을 담당하고 AI기본법 등 관련 법규 준수 여부를 관리·감독해야 한다.
관련 내규를 마련하는 등 거버넌스 체계도 구축해야 한다. 명확한 책임소재를 바탕으로 AI 시스템의 기획, 구축, 운영 전단계에 걸친 잠재적 위험을 평가·관리해야 한다는 취지다.
금융 ·AI 관련 법규 준수 의무를 부과하고 최종 의사결정 책임을 임직원이 지도록 해야한다. 표준화된 매뉴얼을 통해 AI 도입·활용 전 과정을 관리하고 부서간 역할 및 책임을 명확히 정해 잠재 위험에 대응해야 한다.
AI 종합 평가체계도 구성해야 한다. 금융 AI 7대 원칙 중 정량적 요소를 토대로 위험평가 체계를 설계하고 원칙 준수를 위한 기본요소를 평가 항목 등에 반영한다. AI 서비스별 위험도를 분류해야 하고 AI기본법상 고영향 AI에 대해선 무조건 고위험 서비스로 분류해야 한다.
AI 위험통제 방안도 갖춰야 한다. 금융회사는 위험 수준별 차등화된 통제·관리를 해야 한다. 초고위험 AI에 대해선 출시 여부 재검토 등 위험통제를 위한 절차도 이행한다.
금감원은 업권별 협회 등을 통해 AI RMF를 배포할 계획이다. 충분한 의견수렴을 거친 후 올해 1분기 중 최종안을 확정·시행할 예정이다.
금감원 관계자는 "모범사례 전파, 도입회사 실태점검 등을 통해 AI RMF가 금융회사 내부통제 체계에 안착할 수 있도록 충실히 지원할 계획"이라고 말했다.
이강준 기자 Gjlee1013@mt.co.kr
Copyright ⓒ 머니투데이 & mt.co.kr. 무단 전재 및 재배포, AI학습 이용 금지.
