컨텐츠 바로가기

05.01 (수)

인공지능에 방울 달기, 알고리즘 투명성·설명권 보장으로

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다
글로벌 기술 기업들의 ‘착한 인공지능(AI)’ 선언이 잇따른다. 인공지능을 이용해 의료와 교육, 환경에서 인류가 직면한 문제들을 해결할 수 있다는 장밋빛 내용이다. 인공지능을 사람을 차별하거나 군사적인 목적으로 사용하지 않겠다는 내용도 빠지지 않는다.

하지만 현실에선 선언과 실천의 불일치가 보인다. 마이크로소프트는 2018년 12월 발표한 얼굴인식 기술과 관련한 6가지 원칙에서 “자유를 위기에 빠트리는 방식으로 쓰지 않겠다”, “차별을 낳는 방식으로 사용하지 않겠다”고 약속했다. 하지만 실제에선 팔레스타인 사람을 감시할 목적으로 얼굴인식 기술을 개발하는 이스라엘의 ‘애니비전’사에 자금을 지원했다.

아마존은 인공지능으로 작업자의 성과 달성률을 측정하고 기준에 미달할 시 자동으로 계약을 종료한다. 지난해 10월 미국 뉴욕대의 ‘AI NOW’ 재단이 주최한 심포지엄에서 공개된 증언에 따르면 아마존 물류창고의 직원들은 알고리즘이 설정한 생산성에 하루에 세 번 미달할 경우 해고된다. 회사를 위해 얼마나 오랜 기간 일했는지, 작업 중에 실수하게 된 사정 같은 것은 고려되지 않는다. 이런 상황에서 직원들은 생산성 유지를 위해 용변마저 포기하게 된다.

정보기업의 인권침해 가능성 커져

마이크로소프트나 구글, 아마존 등 인공지능 기술을 선도하는 기업들은 모두 데이터를 추출·분석해 미래를 예측하는 기술을 발전시키고 있다. 인공지능은 ‘나보다 나를 더 잘 안다’고 여겨질 정도로 개인화된 상품과 서비스를 추천할 수 있지만 한편으론 이는 나의 일거수일투족을 감시해 얻은 성과이기도 하다.

경향신문

2월 11일(현지시간) 독일 함부르크에 설립된 ‘인공지능센터’의 개관을 하루 앞두고 방문객들이 출입구에 모여 있다. /AP/dpa

<이미지를 클릭하시면 크게 보실 수 있습니다>


인공지능 알고리즘의 성능은 데이터에 크게 의존할 수밖에 없다는 점에서 기업들은 데이터 확보에 늘 굶주려 있다. 개인정보 활용의 문을 대폭 연 데이터 3법 개정에 산업계가 환호하는 것은 당연하다. 고병철 계명대 컴퓨터공학과 교수는 “알고리즘 자체가 많은 데이터를 요구하고 그중에서도 얼마나 정확한 데이터를 갖고 있느냐가 앞으로 권력이자 돈이 된다”며 “그래서 미래 사회에선 정부가 아니라 내 정보를 가진 구글 같은 정보기술 대기업들이 더 무서울 수 있다”고 말했다.

일터에서 다양한 종류의 센서와 모니터로 데이터를 수집하는 걸 노동관리의 목적이라고 정당화할 수 있지만 노동자의 사생활을 침해할 가능성도 높다. 하지만 국제인권법은 국가 권력의 인권침해를 규제하고, 개별 국가의 국내법은 국내 기업의 차별 조치는 시정할 수 있지만 글로벌 기업의 인권침해에는 실효적으로 대응하기 어렵다.

이런 상황에서 ‘윤리적 AI’에 관한 논의는 규제가 될 수 있다는 이유로 뒷전으로 밀리고 있다. 정부도 지난해 12월 인공지능 국가전략을 발표하고 ‘사람 중심의 AI’를 강조했지만 구체적인 실행 계획은 후일로 미뤘다. AI 규제 논의가 지지부진한 데는 중국의 ‘인공지능 굴기’가 상징하는 ‘AI 군비경쟁’의 논리가 있다. 김문철 카이스트 전기·전자공학부 교수는 “중국 인공지능 기술은 ‘대단하다’는 표현으로 부족하고 압도적이라고 봐야 한다”며 “인공지능 관련 최상위 콘퍼런스에서 발표되는 컴퓨터 비전 관련 논문 중 중국인이 쓴 논문이 80%를 차지한다”고 말했다. AI 경쟁 속에서 AI를 윤리적으로 사용해야 한다는 주장은 한가로운 소리로 여겨질 수 있다는 뜻이다.

고병철 교수는 “중국은 공산국가라 밀어붙일 수 있지만 감시 목적으로 얼굴인식 기술을 사용할 수 있는 상황에서 전 세계가 이를 따라가선 큰 부작용을 낳을 수밖에 없다”면서 “인공지능 산업을 키우기 위해 무작정 규제를 완화해선 안 된다”고 말했다.

알고리즘의 투명성, 설명권 보장해야

전문가들은 알고리즘이 내린 의사결정으로 개인의 권리가 침해받을 경우 그에 대한 설명을 요구할 수 있는 권리를 보장해야 한다고 보고 있다. 남중권 고려대학교 법학연구원 전임연구원은 “현재는 알고리즘이 특정한 의사결정을 했을 때 그 결정 과정에 어떤 변수를 계산 요소로 포함시키고, 변수 간의 관계를 어떻게 설정했는지를 알 수 없다”면서 “이를 보여주고 설명해 달라고 요청하는 권리를 법적으로 인정할 수 있을 것인가가 논의의 출발점이 될 것”이라고 봤다.

현재 유럽연합의 일반 개인정보보호규정(GDPR)에는 이런 권리를 ‘설명받을 권리’, ‘프로파일링(알고리즘으로 개인의 특성을 분석하는 기법)을 거부할 권리’로 인정하고 있다. 오병일 진보네트워크센터 대표는 “취업이나 대출 등 경제적인 부분에 영향을 미치거나 사법 판단에 알고리즘이 적용될 경우 유럽연합의 경우처럼 최소한 판단의 근거를 공개하도록 할 필요가 있다”고 말했다.

라이더유니온의 구교현 팀장은 “배달 플랫폼 기업은 데이터가 수익창출의 핵심 원료이고, 그 원료를 제공하는 데 라이더가 핵심적인 기여를 했다는 점에서 그 데이터를 어떻게 가공해 운영하는지 라이더들도 설명받을 수 있어야 한다”면서 “이런 권리가 플랫폼 노동의 새로운 규칙이 되어야 한다”고 밝혔다.

기업의 자율적 AI 규제가 아니라 국가기관이 나서서 이용자를 보호하는 법적 규범을 명확히 해야 한다는 의견도 있다. 호주 국가인권위원회는 지난해 12월 발표한 보고서에서 “기업의 자율적 조치들은 특히 인권보호 측면에서 그 효과성이 의심을 받고 있다”며 “새로운 기술의 사용이 초래할 수 있는 심각한 위험성을 고려할 때 자율적 규제 틀은 그 자체로 인권을 보호하고 증진하는 데 불충분하다”고 밝혔다.

장여경 정보인권연구소 상임이사는 “인공지능이 특히 개인의 권리에 중대한 영향을 미치는 행정적·산업적인 의사결정에 사용될 때 마땅히 그 의사결정에 대해서 당사자들이 근거를 밝히도록 요구하고, 설명을 들을 수 있어야 한다”며 “호주 인권위의 입장은 그보다 한 단계 더 나아가 법적 책임을 요구하고, 문제제기를 할 수 있도록 법 규범을 마련해야 한다는 것”이라고 설명했다.

그러나 기업들은 알고리즘을 자신들의 지적재산권이나 영업비밀이라 주장하면서 공개를 거부할 수 있다. 네이버의 경우 언론사들의 기사 배열 알고리즘 공개 요구에 이런 이유를 들어 부정적인 입장을 밝힌 바 있다. 이에 대해 남중권 연구원은 “전통적인 기본권 이론에서 사인(私人)으로 분류되는 기업과 개인은 서로 기본권의 대상이 되지 않는 관계이지만, 개인의 입장에서 국가에 버금가는, 아니 오히려 국가보다 일상생활에 더 밀접한 영향력을 행사하는 기업의 권력 작용에 대해서는 이를 제한할 수 있다는 이론적 변용이 시도되고 있다”고 설명했다.

그는 이런 변화를 볼 때 “기업의 알고리즘이 개인이나 노동자의 법적 지위에 영향을 미친다면 영업비밀 또는 지적재산권의 대상이 된다는 이유만으로 절대적으로 보장되는 것은 아니라고 반박할 수 있다”고 말했다. 남중권 연구원은 “기업의 목표가 ‘이윤 추구’라는 기본 도식이 바뀌지 않는다면 ‘착한 인공지능’은 얼마든지 ‘이윤을 극대화하는 인공지능’으로 대체될 수 있다”며 “게다가 인공지능 알고리즘은 ‘계산’을 지향하지, ‘착함’을 지향하지 않는다”고 말했다.

주영재 기자 jyj@kyunghyang.com

▶ 장도리 | 그림마당 보기

▶ 지금 많이 보는 기사

▶ 댓글 많은 기사

©경향신문(www.khan.co.kr), 무단전재 및 재배포 금지
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.