컨텐츠 바로가기

05.03 (금)

인공지능이 실수하고 편견을 가진다면 ?

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다

“인공지능의 한계와 작동에 대한 깊은 이해 있어야 유익한 사회 인프라 될수 있어”

이코노믹리뷰

출처= WSJ 캡처

<이미지를 클릭하시면 크게 보실 수 있습니다>


누군가 인공지능에 대해 이야기 할 때 어떤 생각이 드는가?

대개는 공상과학 영화에 나오는 어떤 모습을 떠 올릴 것이다. 영화 ‘2001년 스페이스 오디세이’에 나오는 지성을 가진 컴퓨터 HAL의 불타는 듯한 빨간 눈, 변신 터미네이터, 또는 영화 ‘그녀’(Her)에 사만다의 유명한 목소리 같은.

인공지능 연구소 에이아이 나우(AI Now)의 공동 설립자인 케이트 크로포드는 디지털 뇌도 우리처럼 실수를 할 수 있고 편견을 가질 수 있다고 말한다. 다음은 월스트리트 저널에 기고한 그의 글이다.

인공 지능의 사회적 영향을 연구하는 사람으로서, 나는 인공 지능을 우리 일상적인 삶의 근간이 되는 도시의 물 시스템처럼 아주 평범한 존재로 생각한다. 도시의 물 시스템이 우리의 갈증을 풀어주고, 식물에 물을 공급하며 아이들을 목욕시킬 수 있는 평범한 기능을 수행하는 것처럼. 그리고 우리의 가정과 사무실로 흘러 들어가는 물은 안전하다고 믿는다. 그러다가 지난 해 초 발생했던 미시간주 플린트시의 식수 오염 같은 재난(2016년 1월 플린트시 전체가 갈색 물오염으로 고통을 받았다)이 발생하면, 그 때서야 안전하고 신뢰할 수 있는 인프라의 중요성을 깨닫게 된다.

인공지능은 빠른 속도로 우리가 매일 의존하는 정보 인프라의 일부가 되어가고 있다. 초기 단계의 인공 지능 기술은 운전하는 일, 일자리 업무, 대출 신청에 이르기까지 모든 것에 스며든다. 그러나 우리의 물 시스템과는 달리, 안전성, 공정성 또는 효과성에 대해 인공지능을 테스트하는 방법은 아직 확립되지 않았다. 인공 지능 시스템이 실수를 하거나 편견을 갖는다면 초기에는 감지하기 힘들고, 장기적으로는 큰 피해를 야기하며 회복하기에 많은 비용을 발생시키는, 때로는 복구가 불가능한방식으로 우리 사회의 생태계를 오염시킬 수 있다. 공공 인프라와 달리 AI 시스템은 대부분 민간 기업에서 개발하고 특허권이 있는 블랙 박스 알고리즘에 의해 관리되기 때문이다.

이를 보여주는 가장 좋은 예가 오늘날 우리가 근무하는 회사다. 수백 가지의 새로운 인공 지능 기술이 이미 지원자를 직접 테스트하거나 면접하지 않고도 채용 과정을 수행한다. 인공지능 채용 회사는 지원자들의 동영상 인터뷰를 분석해 고용주가 지원자의 얼굴 표정, 사용하는 어휘, 보디 랭귀지 등을 기존 모범 사원들의 모습과 비교할 수 있게 해 준다.

그러나 이런 기술의 사용에는 지원자들이 기존 모범 사원의 행동과 말을 흉내만 잘 내면 채용될 수 있게 함으로써 채용 시스템에 보이지 않게 편견이 내재될 위험이 있다. 예를 들어 경영진들이 바람직하지 못한 관행을 일삼아 온 우버 같은 회사에서 이런 시스템을 사용한다면 어떻게 되겠는가? 모범 사원을 복제하려는 행위는 경영과학에서 시대에 뒤떨어지는 모델이다. 최근의 연구는 일관된 단일 문화는 기업에 좋지 않다는 것을 보여주고 있다. 다양환 문화가 공존하는 기업이 단일 문화의 기업보다 더 높은 성과를 낸 다는 것이다.

인공지능을 사용하여 청년 구직자의 소셜 미디어를 분석해 업무 성과에 영향을 주는 ‘과도한 음주’ 징후를 찾아낼 수 있다는 새로운 시스템도 광고되고 있다. 이것은 완전히 비과학적 연관성 사고로서, 그것이 실제 문제를 찾아낼 수 있다는 증거도 없고 그저 특정 유형의 자기 표현을 ‘과음 습관’과 관련 있는 것으로 낙인 찍는다. 더 나쁜 것은, 그들이 입사하기도 전에 본인도 모르게 구직자를 감시하는 행위를 정상화하는 것이다.

이러한 시스템은 모든 편견을 그대로 내버려 둔 채로 인류 역사를 반영한 사회적 데이터에서 ‘학습’한다. 알고리즘은 많은 컴퓨터 과학자들이 보여 주듯이, 의도하지 않게 그러한 편견을 증폭시킬 수도 있다.

흔히 알고리즘이라 하면 기계나 컴퓨터의 영역이고, 보이지 않는 곳에서 자동으로 굴러가며, 아무리 복잡해도 시키는 대로 정확히 임무를 수행하는 것쯤으로 여겨진다. 여기서 오해가 나온다. 알고리즘 설계자가 불순한 의도를 가지지 않는다면, 알고리즘이 열심히 일한 결과값은 어느 쪽에 편향되지 않고 ‘가치 중립적’일 것이라는 오해다.

알고리즘은 객관적이고 불편부당하며 가치 중립적일까. 그렇지 않다. 최근 미국에서 나온 보도와 보고서를 살펴보면 알고리즘의 문제점을 명확히 알 수 있다.

이코노믹리뷰

출처= The Blue Diamond Gallery

<이미지를 클릭하시면 크게 보실 수 있습니다>


지난 해, 미국 비영리 인터넷 언론인 프로퍼블리카(ProPublica, 2010-2011 2년 연속 퓰리처상을 수상했음)는 ‘기계의 편향’(Machine Bias)에 대해 폭로하면서 미국 법원에서 쓰이는 재범 위험 평가 공식 알고리즘이 인종 편향적이라는 자체 조사 결과를 보도했다. 알고리즘 위험 평가 시스템이 형사사법 시스템 내에서 어떻게 편향되어 있는지를 보여준 것이다.

국제 과학기술 정책을 논의하는 RAND 연구소의 한 연구에 따르면, 위험 인물을 식별하기 위한 시카고시의 ‘히드 리스트’(Heat List) 알고리즘은 폭력 범죄를 크게 줄이지 못했으며, 보호 대상의 수만 크게 늘림으로써 경찰만 힘들게 했다. 우리는 이러한 시스템이 인간의 의사 결정에 가까워 지기까지, 그리고 자신의 결정에 실제적인 책임을 지기까지 아직 갈 길이 멀다.

인공 지능은 초기 청춘기에 해당해 새로운 기능을 마구 쏟아 내지만 세상을 이해하는 데에는 매우 원시적이다. 오늘날의 인공 지능은 어떤 패턴을 감지 할 때에는 매우 강력하지만, 사회적 및 상황 인식 능력은 매우 부족하다. 인스타그램의 광고를 어떻게 해야 하는지를 결정하는 것은 그리 어려운 일이 아니지만, 누가 어떤 일에 더 적합한 사람인지, 어떤 정치 뉴스를 읽어야 하는지, 또는 누구를 석방해야 하는지를 결정하는 경우는 심각한 문제이다.

AI 회사들은 이제 형사 사법 제도에서부터 건강 관리에 이르기까지 모든 것을 목표로 삼고 있다. 그러나 우리는 가장 민감한 사회 제도에 대한 인공 지능의 활약을 부추기기 전에, 이러한 시스템이 어떻게 작동하는지에 관해 더 많은 조사가 필요하다. 이를 위해 나는 뉴욕 대학에서 학계와 기술 업계의 동료들과 함께 에이아이 나우 연구소를 시작했다. 이 연구소는 사회 과학자, 컴퓨터 과학자, 변호사, 경제학자 및 엔지니어들이 이러한 기술의 복잡한 사회적 영향을 연구하는 학문 간 교류센터이다.

조직 이론가인 피터 드러커가 쓴 바처럼, 우리는 측정 할 수 없는 것을 관리할 수는 없다. 인공 지능이 새로운 인프라가 되어 수도에서 나오는 물과 같이 일상 생활을 통해 눈에 보이지 않게 흐르게 하려면, 우리는 인공지능의 장단기 효과에 대해 이해해야 하며, 모든 사람이 사용하기에 안전한지 알아야 한다.

복잡한 사회 시스템의 맥락에서 우리가 인공지능을 이해하는데 도움이 되기 위해서는, 지금 적극적인 개입이 중요하고, 그렇기 위해서는 다양한 분야에서 이끌어 낸 새로운 테스트와 방법론이 필요하다. 세계에서 활약하는 인공지능 시스템에 대한 깊은 이해를 발전시킴으로써 비로소 이 새로운 인프라가 결코 사회의 독이 되지 않게 할 수 있을 것이다.

홍석윤 기자

-Copyright ⓒ 이코노믹리뷰. 무단전재 및 재배포 금지-


기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.