고학수 개인정보보호위원회 위원장./뉴스1 |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
개인정보보호위원회(개인정보위)가 인공지능(AI) 시대에 프라이버시 위험을 체계적으로 평가·관리할 수 있는 모델을 논의하며 생체인식 기술의 안전한 활용 방안을 마련한다고 21일 밝혔다.
개인정보위는 오는 22일 ‘AI 프라이버시 민·관 정책협의회’ 제3차 전체회의를 개최해 ▲인공지능(AI) 프라이버시 리스크 평가·관리 모델(안) ▲생체인식정보 규율체계 개선(안) 등을 다룬다. 이번 논의는 AI 기술 발전이 국민의 일상과 사회 전반에 미치는 영향이 커짐에 따라, 개인정보를 포함한 대규모 데이터 처리에서 발생할 수 있는 프라이버시 위협을 효과적으로 관리하기 위해 추진됐다.
‘AI 프라이버시 리스크 평가·관리 모델(안)’은 지난해 12월부터 국내외 학계, 산업계, 정부 기관의 의견을 수렴해 준비됐다. 이 모델은 기업들이 자율적으로 활용할 수 있도록 설계되었으며, 개별 AI 모델이나 서비스가 처리하는 데이터의 특성에 맞춰 위험 요소를 평가하고 관리할 수 있도록 구체적인 절차와 방안을 제시한다. 이번 회의에서는 리스크 평가 절차, 위험 유형, 경감 방안 등 초안 내용을 공유하고 관계 전문가들의 의견을 수렴했다. 개인정보위는 이 의견을 반영해 12월 중 최종안을 발표할 계획이다.
또한, 생체인식정보 규율체계 개선안에 대한 논의도 이루어졌다. 생체인식 기술이 출입통제, 금융결제, AI 음성비서 등 다양한 분야에서 활용되고 있으나, 정보 자체가 개인식별이 가능하고 변경이 불가능하다는 점에서 오·남용과 유출에 따른 위험이 크다는 지적이 이어져 왔다. 개선안에는 생체인식정보의 정의를 명확히 하고, 처리 요건을 합리적으로 규정하며, 공개된 장소에서 실시간 얼굴인식을 제한하는 규정 등이 담겼다. 개인정보위는 이날 논의를 바탕으로 생체인식정보 규율체계 최종안을 12월 중 발표할 예정이다.
박상철 서울대 교수는 “AI 기술과 개인정보 보호 규제 간 간극을 해소하기 위해 유연하고 체계적인 관리체계를 제시했다는 점에서 의의가 크다”고 말했다. 배경훈 LG AI연구원장은 “이번 모델은 기업들이 자율적으로 위험을 평가·관리하는 데 있어 유용한 기준이 될 것”이라며 “특히 리스크 관리가 구체적인 사용 목적에 따라 차별화될 수 있다는 점에서 기업들에게 실질적인 도움을 줄 것”이라고 밝혔다.
이경탁 기자(kt87@chosunbiz.com)
<저작권자 ⓒ ChosunBiz.com, 무단전재 및 재배포 금지>
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.