한겨레가 주최한 제3회 사람과디지털포럼이 12일 서울 중구 대한상공회의소 국제회의장에서 열려 아베바 비르하네 아일랜드 트리니티 카리지 교수와 천현득 서울대 교수가 대담울 하고 있다. 신소영 기자 viator@hani.co.kr |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
“빅테크가 주도하는 인공지능 개발은 유색인종·여성·약자에 대한 부정적 고정관념을 강화해 사회적·역사적 불평등을 악화시킨다.”
12일 제3회 사람과디지털포럼의 세번째 기조강연자로 나선 아베바 비르하네 아일랜드 트리니티칼리지 교수는 ‘빅테크 주도 인공지능 개발은 어떻게 편견과 불평등을 재생산하나’를 주제로 한 기조강연에서 이렇게 말했다. 그는 인공지능 개발의 이익은 빅테크 등 소수가 독점하지만 피해는 사회적 약자들에게 돌아가는 불합리한 상황을 비판하면서 이를 바로잡기 위해서는 권력의 재분배와 같은 근본적인 대안이 필요하다고 목소리를 높였다.
비르하네는 강연에서 인공지능 알고리즘이 유색인종·여성·약자에게 어떻게 편향되어 있는지를 컴퓨터 비전과 이미지 생성 인공지능에서 드러난 생생한 사례를 통해 짚었다. 인공지능 개발 경쟁이 본격화하고 데이터 규모도 커지면서 초기에 나타났던 편향과 차별은 약화할 것이라는 통념에 대해서도 구체적 근거를 들어 반박했다. 그는 “머신러닝 분야에서 ‘규모의 확장’이 가장 중요한 가치로 여겨지면서, 데이터가 더 많이 투입되면 좋은 것, 나쁜 것, 추한 것이 서로 균형을 이루어 결국 ‘실체적 진실’에 근접할 것이라고 믿었지만, 현실은 오히려 더 나쁜 방향으로 가고 있다”고 우려했다.
빅테크가 중시하는 가치는 무엇일까? 비르하네는 이를 밝혀내기 위해 100개의 주요 논문에 일일이 주석을 달고 분석했다. 그는 “거대언어모델이 추구하는 가치는 성과·일반화·효율성 등이지만 개인정보 존중, 작동의 편의성, 보안 등의 가치는 소홀해지고 있다”며 “이러한 사실로부터 우리가 얻을 수 있는 통찰은 공정성·형평성 추구 중심으로 가치를 바꾸는 것이고, 이는 권력의 재분배를 통해서만이 가능하다”고 강조했다.
빅테크 중심의 인공지능 개발 생태계를 바꾸기 위해 비르하네는 “시스템 차원에서 공정·평등과 같은 가치를 측정할 수 있어야 하고, 또 베일에 싸인 알고리즘을 이해하고 설명할 수 있도록 오픈소싱을 확대해야 한다”고 제안했다. 사회적 약자 등 가장 큰 피해를 보는 집단이 직접 참여하고 목소리를 낼 수 있어야 한다는 점도 강조했다.
비르하네는 백인·남성·서구의 부유한 집단 중심의 사고방식이 지배적 가치로 받아들여지는 ‘디지털 식민주의’에 대해 “서구에서 개발된 인공지능은 저개발국의 복잡한 사회·역사적 상황이나 가치·맥락에 둔감하며, 주민들의 협의나 참여를 배제해 결과적으로 토착 기술의 발전을 억압한다”고 비판했다.
대담에 나선 천현득 서울대 교수(과학철학)는 “빅테크 주도의 인공지능 개발 구조를 바꾸기 위해서는 시민 참여가 중요하다”고 공감하면서도 “이를 위한 공론장은 빅테크가 주도하는 디지털 기술의 영향 아래 있어, 필터 버블이나 반향실 효과 등으로 인해 다양한 의견이 표출되고 합의를 도출하기가 쉽지 않다”며 어려움을 토로했다.
한귀영 사람과디지털연구소 연구위원 hgy4215@hani.co.kr
▶▶권력에 타협하지 않는 언론, 한겨레 [후원하기]
▶▶한겨레 뉴스레터 모아보기▶▶오직 한겨레에서 볼 수 있는 보석같은 기사
이 기사의 카테고리는 언론사의 분류를 따릅니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.