컨텐츠 바로가기

“생체정보 추적하는 초고위험 AI, 사용 즉각 중단…개발도 금지”

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다
인권위 ‘인공지능 개발·활용 인권 가이드라인’ 발표

법적 강제력 없지만, 향후 인권침해 판단 기준 활용

위험도 4단계 구분…생체추적 등 ‘초고위험’은 개발금지


한겨레

인천공항 제2여객터미널에서 관계자들이 자동출입국심사 시스템을 시연하고 있다. 연합뉴스

<이미지를 클릭하시면 크게 보실 수 있습니다>


경기도 부천시는 지난해부터 시내 방범용 폐회로티브이(CCTV) 1만여대를 활용한 ‘지능형 역학시스템’을 개발하고 있다. 인공지능(AI) 알고리즘으로 시시티브이 관제센터에 모인 영상들을 분석해, 코로나19 등 감염병 확진자들의 이동 경로와 접촉자 등을 추적한다. 당연히 시민들 사이에선 도처에 깔린 시시티브이가 사생활 감시에 쓰일 수 있다는 우려가 터져나왔다. 부천시는 코로나19 환자에 대한 역학조사가 중단된 이후에도 시스템 개발을 계속하고 있다.
국가인권위원회(인권위)가 ‘빅브러더’식 감시사회 논란을 빚어온 이런 인공지능 개발·활용에 제동을 걸었다. 사생활(프라이버시) 침해 가능성이 큰 생체 추적 및 감시를 즉각 중단하고, 인공지능 알고리즘에 의해서만 이뤄지는 행정처분 등은 제한해야 한다고 촉구한 것이다. 인권위는 차별 금지와 자기결정권 보장 등 인공지능 개발·활용에서 지켜야 할 구체적인 원칙들도 제시했다. 최근 유럽연합(EU)과 유엔(UN) 등이 인공지능의 인권침해 위험 통제를 위한 법제화에 나선 가운데, 한국 정부도 이 분야에서 첫 가이드라인을 냈다.

‘생체식별’ ‘살상용’ 등 초고위험 AI 금지


17일 인권위는 이런 내용을 뼈대로 하는 ‘인공지능 개발과 활용에 관한 인권 가이드라인’(이하 가이드라인)을 발표했다. 가이드라인은 정부부처 등 공공기관의 인공지능 인권 침해 위험도를 매우 높은 위험, 고위험, 제한된 위험, 낮은 위험 등 4단계로 구분해 대응할 것을 권고했다. 이 중 “개인의 인권과 안전에 미치는 위험성이 매우 높은” 영역은 사용을 ‘금지’해야 한다고 규정했다. 공공장소에서 원격으로 얼굴 같은 생체정보를 인식하는 기술이 대표적인 초고위험 인공지능으로 꼽혔다. 인권위는 생명 존엄성을 훼손할 여지가 큰 자율살상 무기 역시 연구·개발·활용을 금지해야 한다고 봤다.

가이드라인은 나머지 단계의 인공지능에 대해서도 “인권침해·차별 위험성이 드러난 경우에는 이를 방지하거나 완화하는 조처를 취하기 전까지 사용을 중단해야 한다”며 “국가는 인공지능의 위험성 단계에 따라 그에 맞는 규제가 이뤄지도록 법과 제도를 마련해야 한다”고 명시했다.

인공지능 개발·활용에서 지켜야 할 원칙들도 제시했다. 인공지능이 결론을 도출한 근거를 구체적이고 명확하게 공개하도록 한 ‘투명성’ 원칙이 대표적이다. 공공·민간의 인공지능 운영자는 인공지능 알고리즘의 주요 설계도를 일반에 밝히고, 결론을 내는 과정과 근거를 설명해야 한다. 대형 플랫폼 업체들의 검색창 노출기준 공개 등을 의무화하려던 ‘온라인 플랫폼 공정화법’(온플법) 입법이 최근 지지부진해진 가운데, 인권위가 더욱 높은 수준의 공개 의무를 규정하고 나선 셈이다.

인권위는 “완전히 자동화된 의사결정”으로 개인에게 법적 효력을 미치는 인공지능에 대해서도 사용을 제한할 것을 권고했다. 예를 들어, 복지급여 대상자 등을 인공지능에 의존해 결정하거나, 재판 때 인공지능으로 판결을 내리는 것 등은 인권침해로 해석될 여지가 크다. 가이드라인은 “이런 의사결정이 이뤄진 경우, 당사자가 해당 방식을 거부하거나, 인적 개입을 요구할 수 있는 권리를 보장해야 한다”고 명시했다.

이밖에도 인권위는 차별 금지, 자기결정권 보장, 최소한의 개인정보 수집 등을 인공지능 개발의 원칙으로 꼽았다. 모든 인공지능은 개발·출시 이전에 정부기관으로부터 ‘인공지능 인권영향평가’를 받아, 이런 원칙을 지키는지 검증받아야 한다.

유럽 이어 한국도 첫 규율


인권위가 이번 가이드라인을 낸 건, 최근 인공지능이 국민 일상생활과 노동현장 등에 깊숙히 들어오면서다. 지난해 인공지능 채팅 프로그램(챗봇) ‘이루다’가 성소수자와 특정 인종 등에 대한 혐오 표현으로 논란을 빚은 데 이어, 법무부가 내·외국인 얼굴사진 1억7천여만건을 본인 동의 없이 활용해 개인 식별·추적 시스템을 만들던 사실이 드러난 바 있다.

인공지능의 인권침해 가능성에 대한 시민들의 우려가 커진 것도 한 몫 했다. <한겨레>가 배진교 정의당 의원을 통해 받은 인권위 연구용역 보고서를 보면, 전국 만 17살 이상 국민 1천명을 대상으로 지난해 이뤄진 설문조사에서 응답자 70%가 “지능형 시시티브이는 사생활 등 인권침해 우려가 크다. 신중하게 운영돼야 한다”고 답했다.

세계적으로는 ‘권고’ 수준의 가이드라인을 넘어, 고위험 인공지능을 규율할 법안들이 앞다퉈 마련되는 추세다. 유럽연합(EU) 집행위원회는 지난해 4월 인간에게 신체적·정신적 위험을 가할 수 있는 초고위험 인공지능의 사용 금지 등을 규정한 ‘인공지능법안’을 발의했다. 인공지능의 위험도를 나눠 규제하는 방식이 이 법안에서 처음 시도됐다.

지방자치단체들의 인공지능 알고리즘 공개 움직임도 이어진다. 2020년 네덜란드 암스테르담시와 핀란드 헬싱키시는 시 차원에서 운영 중인 인공지능 목록과 알고리즘 학습에 쓰인 데이터 내역 등을 일반인들도 쉽게 이해할 수 있는 상태로 풀이해 공개했다. 지난해 2월에는 프랑스 앙티브시가 ‘알고리즘 주민공개 제도’를 도입해 비슷한 정보를 내놓고 있다.

인권위의 이번 가이드라인을 두고, 한국에서도 인공지능의 인권침해 위험을 제어할 첫 근거가 마련됐다는 평가가 나온다. 이번 가이드라인은 법적 강제력을 갖지는 않는다. 하지만 향후 인권위가 인공지능 알고리즘이나 인공지능 관련 법안·제도들의 인권침해 여부를 판단하는 기준이 된다. 김기중 정보인권연구소 이사(변호사)는 <한겨레>에 “인권위가 인공지능 분야에 필요한 인권 기준을 정부부처와 국회에 제시하고, 집행력을 확보할 입법을 촉구했다는 데 의미가 있다”고 말했다.

천호성 기자 rieux@hani.co.kr

벗 덕분에 쓴 기사입니다. 후원회원 ‘벗’ 되기
항상 시민과 함께 하겠습니다. 한겨레 구독 신청하기‘주식 후원’으로 벗이 되어주세요!

[ⓒ한겨레신문 : 무단전재 및 재배포 금지]


기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.