개인정보보호위원회. [전자신문DB] |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
정부가 내달 인공지능(AI) 기업이 자율적인 프라이버시 위험 관리에 참고할 수 있도록 'AI 프라이버시 리스크 평가관리 모델'을 공개한다.
개인정보보호위원회가 22일 오전 AI 프라이버시 민·관 정책협의회 제3차 전체회의를 개최하고 AI 프라이버시 리스크 평가관리 모델(안), 생체인식정보 규율체계 개선(안)에 대해 논의한다.
개인정보위는 지난해 12월부터 정책협의회 리스크 평가 분과 논의를 중심으로 AI 프라이버시 리스크 평가·관리 모델(안)을 준비해 왔다. AI 기업 등은 이 모델을 자율적으로 참고해 개별 AI 모델·서비스의 용례, 처리하는 데이터의 특성 등 구체적 맥락에 따라 보다 안전하고 책임감 있는 리스크 관리체계를 구축할 수 있다.
이번 전체회의에선 이 모델 초안에 담긴 AI 프라이버시 리스크 평가의 절차, 리스크의 유형 및 리스크 경감 방안, 리스크 평가·관리 체계 등을 공유하고 의견을 수렴한다. 개인정보위는 이날 민간 전문가·관계 부처 등에서 제시된 의견을 검토·반영해 내달 최종안을 발표할 예정이다.
아울러 생체인식정보 규율체계 개선(안)에 대해서도 논의한다.
최근 얼굴·음성·지문 등 생체인식정보는 그 자체로 개인식별이 가능하고 변경 불가능해 다른 정보에 비해 오·남용과 유출에 따른 위험이 더 크다. 이에 따라 생체인식정보의 처리요건이 엄격하게 규율돼 있어 관련 기술 발전에 비해 활용에 제약이 있었다.
개인정보위는 지난해부터 학계, 법조계, 산업계 전문가들로 구성된 연구반을 중심으로, 산업의 발전과 정보주체의 권리보호를 고려해 안전하게 생체인식정보 활용할 수 있는 방안을 마련해왔다. 이번 개선안엔 생체인식정보의 명확한 정의 규정, 합리적 처리요건, 공개된 장소에서 불특정 다수에 대한 실시간 얼굴인식 제한 규정 등을 반영했다.
개인정보위는 이번 전체회의 논의를 통해 제시된 의견을 반영해 생체인식정보의 합리적 규율체계(안)도 내달 마련할 계획이다.
고학수 개인정보위 위원장은 “기술의 사회적 편익과 위험이 복잡하게 얽혀있는 AI 환경에선 구체적 맥락에 따라 프라이버시 리스크를 식별하고 관리하는 기업의 책임 있는 노력이 특히 강조된다”며 “AI 기업 등이 잠재적 위협과 그로 인한 영향을 사전에 고려하는 리스크 기반 접근 방식(Risk-based approach)을 실천하면서 혁신 활동을 지속할 수 있도록 적극 지원하겠다”고 밝혔다.
조재학 기자 2jh@etnews.com
[Copyright © 전자신문. 무단전재-재배포금지]
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.