/사진=개인정보보호위원회 |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
AI(인공지능)으로 인한 개인정보 침해 리스크를 평가하고 관리하기 위한 가이드라인 최종안이 내달 발표된다.
개인정보보호위원회는 22일 오전 서울 역삼동 과학기술컨벤션센터에서 'AI 프라이버시 민관 정책협의회'를 열고 'AI 프라이버시 리스크 평가 모델' '생체인식 정보에 대한 합리적 규율체계' 등에 대해 논의할 것이라며 21일 이같이 밝혔다.
'AI 프라이버시 리스크 평가·관리 모델'은 AI로 인한 개인정보(프라이버시) 위협이 커진 데 따른 것이다. AI 기술이 개인정보를 포함하는 대규모 데이터에 기초하고 있는 데다 전통적 방식과 다른 복잡한 데이터 처리를 수반하기 때문이다. 지난해 12월부터 정책협의회 내 2분과(리스크 평가 분과)가 AI 데이터 처리 특성, 프라이버시 위험 유형, AI 리스크 관리체계 등 검토를 거쳐 이 모델을 만들었다.
개인정보위는 이날 논의된 의견을 검토·반영해 내달 중 AI 프라이버시 리스크 평가·관리모델 최종안을 발표한다는 방침이다. 리스크평가 분과장인 박상철 성루대 교수는 "전 세계적으로 빠르게 발전하는 AI 기술과 기존 개인정보 보호규제 간에 간극과 긴증이 발생하고 있어 대응이 필요하다"며 "국내외 정책, 연구 선례가 부족한 상황에서 각계 전문가와 함께 유연하고 체계적 프라이버시 리스크 평가·관리체계를 제시했다는 점에 의미가 있다"고 했다.
이날 함께 논의될 '생체인식 정보 규율체계 개선안'은 산업 발전과 정보주체의 권리 보호를 균형있게 고려해 안전하게 생체인식 정보를 활용할 수 있도록 하기 위해 마련됐다. 생체인식 정보는 그 자체로 개인 식별이 가능한 데다 변경하는 것도 불가능해 다른 정보에 비해 오남용 및 유출에 따른 위험성이 더 크다. 이 때문에 생체인식 정보의 처리 요건이 엄격하게 규율돼 있어 관련 기술 발전에 비해 활용에 제약이 컸다는 지적이 있었다.
이에 개인정보위는 개선안에 생체인식 정보의 명확한 정의 규정, 합리적 처리요건, 공개 장소에서 불특정 다수에 대한 실시간 얼굴인식 제한 규정 등을 반영했다. 이 개선 규율체계도 내달 중 발표된다.
고학수 개인정보위원장은 "기술의 사회적 편익과 위험이 복잡하게 얽힌 AI 환경에서 구체적 맥락에 따라 프라이버시 리스크를 식별하고 관리하는 기업의 책임 있는 노력이 특히 강조된다"며 "개인정보위는 AI기업 등이 잠재적 위협과 그로 인한 영향을 사전에 고려하는 리스크 기반 접근방식을 실천하며 혁신 활동을 지속하도록 적극 지원할 것"이라고 했다.
황국상 기자 gshwang@mt.co.kr
ⓒ 머니투데이 & mt.co.kr, 무단 전재 및 재배포 금지
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.