컨텐츠 바로가기

07.01 (월)

인공지능에도 윤리가 필요하다

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다
인공지능(AI)의 미래는 ‘유토피아’와 ‘디스토피아’라는 두 갈래 길 앞에 놓여 있다.

먼저 인공지능의 긍정적 효과를 짚어보자. 예컨대 인공지능은 시각장애인을 위해 주변 상황이나 텍스트를 음성으로 설명해주거나 청각장애인을 위해 사람의 목소리를 자막으로 보여줄 수 있다. 컴퓨터 시각 기술은 산림 파괴를 감시해 환경보호에 기여할 수도 있다. 인권침해 감시에도 인공지능을 활용할 수 있다. 국제인권단체 휴먼라이츠워치는 2017년 8월 미얀마 정부가 소수민족인 로힝야족의 마을을 불태울 당시 항공사진 분석으로 마을이 불탄 시점과 규모를 파악하고 가해자를 특정할 수 있었다.

경향신문

러시아의 실리콘밸리로 불리는 스콜코보의 이노베이션 센터에서 지난 4월 16일열린 스콜코보 로봇공학 포럼에서 한 참석자가 뿔이 달린 강아지 모양의 로봇과 손을 마주치고 있다. / 타스|연합뉴스

<이미지를 클릭하시면 크게 보실 수 있습니다>


반면 인공지능에 의한 차별을 우려하는 목소리도 적지 않다. 고전적인 사례가 있다. 영국 런던 세인트조지 의과대는 1979년 신입생 선발과정을 자동화했다. 인간 평가자의 불일치를 제거해 공정한 심사를 할 수 있다는 기대와 달리 여성과 비유럽계 지원자를 차별한 사실이 밝혀졌다. 인간의 편견이 그대로 알고리즘에 반영된 결과였다. 미국에서 도입이 확산되는 범죄 예측 알고리즘도 이와 비슷하다는 비판을 받는다. 거주지나 기존 범죄자 통계 등을 기반으로 범죄 가능성을 예측하면 흑인과 저소득 계층에 불리하기 때문이다.

중국처럼 인공지능을 감시와 처벌에 적극 활용하는 국가도 있다. <뉴욕타임스>는 지난 4월 14일(현지시간) 중국이 소수민족 위구르인들을 통제하는 데 안면인식 기술을 활용하고 있다고 보도했다. 한 달에 50만명 정도의 위구르인을 추적해 이들의 동선을 파악할 수 있다는 내용이다. 중국 일부 대도시에서는 무단횡단을 하면 폐쇄회로TV(CCTV)로 얼굴을 인식해 시내 중심가의 대형 전광판에 얼굴이 뜬다. 공개 망신을 줘 사회 질서를 유지한다는 목적이지만 인권침해 가능성이 높다. 실제 지난해 11월 닝보시에서는 버스 광고판에 실린 여성이 무단횡단한 것으로 오인돼 도심 전광판에 얼굴이 공개되기도 했다.

AI에 의한 자동화된 차별 우려



전문가들은 초지능을 갖춘 인공지능이 등장할 가능성이 아직까지는 낮다고 본다. 가장 발달한 인공지능이라도 인간의 하위지능에 속하는 이미지 분류 정도의 영역에 머물기 때문이다. 의식은 공학적으로 정의 자체가 불가능하다는 점에서 자의식을 갖춘 로봇이 출현할 가능성은 더욱 낮다. ‘터미네이터’보다는 오히려 인간 세상의 편견과 차별을 자동화하고, 권력의 감시도구가 된 인공지능이 더 우려스러운 상황이다. 인공지능의 윤리를 고민해야 할 때가 된 것이다.

도락주 고려대 전기전자공학부 교수는 “인공지능은 ‘터미네이터’의 이미지보다 ‘아톰’의 이미지가 강했으면 좋겠다”고 말했다. 터미네이터는 인간의 반역자이지만 아톰은 친구다. 세탁기가 여성의 인권을 높였듯이 인공지능이 인간을 보다 창의적인 일에 전념할 수 있도록 도와줄 것이라는 긍정적인 입장이다. 도 교수는 그러나 이를 위해서는 기술이 윤리적으로 사용될 수 있도록 통제하는 일이 중요하다고 말했다.

이와 관련해 유럽연합(EU) 집행위원회는 지난 4월 8일 정부와 기업이 인공지능을 개발할 때 지켜야 할 ‘7가지 윤리지침’을 발표했다. EU는 인간이 신뢰할 수 있는 인간 중심의 인공지능을 윤리적 인공지능으로 정의했다. 그러면서 알고리즘이 연령과 인종 또는 성별을 이유로 차별해서는 안 된다고 경고했다. 이 요건 외에도 인간의 통제 가능성, 안정성, 개인정보 보호, 투명성, 지속가능성 및 생태적 책임 강화, 인공지능을 이용한 결과에 따른 책임을 질 수 있는 체계 마련 등을 언급했다.

인공지능 알고리즘에 어떤 데이터를 집어넣느냐에 따라 결과가 달라진다. “쓰레기를 넣으면 쓰레기가 나온다”(garbage in, garbage out)는 말이 이를 잘 표현한다. 결국 인공지능의 차별이 두렵다면 데이터를 만드는 현실세계의 차별을 시정해야 한다.

예종철 카이스트 바이오뇌공학과 교수는 “사람이 어렸을 때부터 교육을 어떻게 받느냐에 따라 성격이 결정되듯이 인공지능 역시 차별적인 데이터로 훈련한다면 그에 따른 편향을 갖게 된다”고 설명했다. 사후교정이 어려운 만큼 데이터를 입력하는 단계에서부터 차별적이지 않은지 검토해야 한다는 뜻이다.

EU는 윤리를 갖춘 인공지능이 유럽의 핵심 경쟁력이 될 것이라고 주장했다. 현재는 구속력이 없지만 AI 윤리지침이 향후 EU의 일반개인정보보호규정(GDPR)처럼 해외 AI 기업들의 유럽 시장 진입을 막는 역할을 할 수도 있다. 도락주 교수는 “인공지능이 인종을 차별하거나 욕을 할 경우 그것은 기술적인 실패라기보다 인간의 가치판단을 집어넣지 않아 생긴 실패”라면서 “가짜뉴스와 선정적 콘텐츠도 걸러내도록 훈련시키면 걸러낼 수 있다”고 말했다. 이런 점에서 “구글이 윤리적인 기업이라면 유튜브의 알고리즘을 이런 방식으로 훈련시켜야 한다”고 말했다.

경향신문

중국이 인공지능을 활용한 안면인식 기술로 시민을 감시·통제하고 있다는 비판을 받는 상황에서 마이크로소프트가 중국 국방기술대학교와 공동으로 인공지능 연구를 하고 있다는 사실이 드러나 논란이 되고 있다. / 로이터|연합뉴스

<이미지를 클릭하시면 크게 보실 수 있습니다>


“가짜뉴스 범람 유튜브, 기업윤리 망각”



그러나 현실에서 인공지능 연구에 윤리적 가이드라인을 적용하기란 쉽지 않다. 구글은 지난달 AI 윤리성 확보를 위한 자문위원회를 만들고도 수일 만에 해산해야 했다. 위원회에 성소수자와 이민자에 대해 보수적 견해를 보여온 인사를 위원으로 참여시켜 공정성 논란을 불러일으켰기 때문이다. 최근에는 아마존이 AI 음성비서 알렉사의 성능을 개선한다는 명목으로 녹음한 이용자의 대화를 직원들이 들었던 사실이 드러나 윤리성 논란이 일기도 했다. 예종철 교수는 “인공지능 향상을 위해 대화내용을 활용할 수 있다는 식으로 일부 가구의 동의를 받아 충분히 연구할 수 있었다는 점에서 변명으로밖엔 안 보인다”고 말했다.

알고리즘은 흔히 ‘블랙박스’와 같다는 말을 듣는다. 특정 데이터를 넣었을 때의 결과값이 어떤 근거로 나왔는지 알기 어렵다는 뜻이다. 이는 딥러닝 알고리즘의 비선형적 특성 때문이다. 김문철 카이스트 전기및전자공학부 교수는 “사람의 신경망을 모사해 만든 거대한 비선형 시스템인 알고리즘은 해석이 잘 안 된다”고 설명했다. 어린아이에게 엄마와 아빠라는 말을 자꾸 해주면 어느 순간 아이가 엄마, 아빠라고 정확히 말하게 되지만 그런 일이 뇌의 어떤 시냅스(뇌의 신경세포인 뉴런에서 뉴런으로 신호를 전달하는 연결지점)에서 발현하는지 알 수 없는 것과 같은 이치다.

이런 알고리즘을 투명하고 설명 가능한 상태로 만들 수 있을까. 전문가들은 알고리즘 내부가 어떻게 작동하는지를 설명하는 ‘해석가능한 인공지능’ 연구가 진전되면서 점점 통제가 가능한 시스템이 되고 있다고 본다. 도 교수의 경우 해석이 불가능해도 알고리즘의 결과는 사람이 훈련시킨 이상은 반응을 일으키지 않을 것이기 때문에 위험한 상황은 벌어지기 어렵다는 입장이다.

인공지능이 윤리를 갖추는 일은 의식이 있어야 가능한 일이다. 현재로서는 감정과 창의를 흉내내듯 사람의 윤리적 행동을 흉내내도록 프로그래밍한다는 의미다. 김문철 교수는 “인공지능이 진화하는 만큼 사람이 통제하고 예측할 수 있어야 기술을 안심하고 사용할 수 있다”면서 “이런 관점에서 인공지능의 윤리를 연구할 필요가 있다”고 설명했다.

주영재 기자 jyj@kyunghyang.com

최신 뉴스두고 두고 읽는 뉴스인기 무료만화

©경향신문(www.khan.co.kr), 무단전재 및 재배포 금지
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.