컨텐츠 바로가기

11.24 (일)

이슈 인공지능 윤리 논쟁

AI 알고리즘 편향성 논란, ‘이루다’가 처음 아니다

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다

20살 AI 챗봇 '이루다' 출시 3주만에 서비스 중단

성추행으로 시작해 혐오발언·개인정보 유출까지

AI 윤리 공론화 불지펴…사용자·기술 모두 고려해야

알고리즘·데이터 편향성 등도 함께 논의할 필요

[이데일리 장영은 기자] 스타트업 스캐터랩이 개발한 인공지능(AI) 챗봇 ‘이루다’가 AI 윤리와 관련한 각종 논란에 불을 지피고 ‘활동 중단’에 들어갔다. 지난달 12월23일 페이스북 메신저를 통해 세상에 나온 지 3주만이다.

이데일리

(그래픽= 문승용 기자)

<이미지를 클릭하시면 크게 보실 수 있습니다>




피해자에서 가해자로 변한 이루다…비슷한 사례 더 있다

12일 스캐터랩에 따르면 이날을 기점으로 이루다 서비스는 잠정 중단에 들어간다. 한꺼번에 ‘셧다운’하는 방식은 불가능해 오전 11시부터 순차적으로 중단작업을 진행 중이며 오후 6시까지 서비스 중단 작업을 완료할 예정이다.

이루다와 관련된 논란은 출시 초기 AI를 대상으로 한 성적대상화에서 시작해 개인정보유출 등으로 이어지며 일파만파로 번지는 양상을 보였다. 악성 사용자들로 인해 피해자가 됐던 이루다는 나중에는 성적소수자와 사회적 약자에 대한 혐오 발언을 쏟아내며 가해자로 돌변했다. 이루다를 개발하는 과정에 사용자들의 개인정보(카카오톡 메시지)가 무단으로 활용됐다는 의혹도 제기됐다.

이번만큼 화제가 되지는 않았지만 이루다 논란과 비슷한 문제는 국내외에서 발생한 바 있다. 가장 유사한 사례로 지목되는 것이 지난 2016년 3월에 마이크로소프트(MS)에서 내놓은 AI 챗봇 ‘테이’다. 당시 백인우월주의 및 여성·무슬림 혐오 성향의 한 익명 사이트에서 테이에게 비속어와 인종·성 차별 발언을 되풀이해 학습시켰고, 그 결과 실제로 테이가 혐오 발언을 쏟아내며 미국 사회에 충격을 줬다. MS는 결국 출시 16시간만에 테이 서비스를 중단했다.

이루다나 테이의 부적절한 발언이 편향된 데이터 학습의 결과라는 측면에서 본다면 최근 국정감사에서 문제가 제기됐던 ‘카카오워크’나 현대카드 어플리케이션(앱) 사례와도 연결된다. 카카오워크의 AI 비서인 ‘캐스퍼’는 “암호화폐 투자는 어디서 해”라는 사용자의 질문에 카카오의 투자사인 ‘업비트’를 추천하거나 암호화폐 시세를 묻자, “업비트에 물어보라”고 유도해 논란이 됐다. 현대카드 스마트폰 앱의 AI챗봇 ‘헨리’는 “삼성카드로 보험 할인이 가능하냐”는 질문에 “경쟁사에 대한 질문은 생략하겠다”며 답변을 피하기도 했다.

이데일리

12일을 기점으로 이루다는 서비스 잠정중단에 들어간다. ‘루다랑 친구하기’ ‘루다에게 메시지 보내기’ 메뉴가 모두 비활성화 돼 있다. (사진= 홈페이지 캡쳐)

<이미지를 클릭하시면 크게 보실 수 있습니다>




알고리즘·데이터 편향 한계 노출…업계 “AI발전의 한 과정”

이같은 AI의 편향성은 기술의 작동원리에서 출발한다. 사람의 지능을 모방하게끔 만든 AI라는 ‘결과물’은 데이터라는 ‘원인’에 따라 좌우되기 때문이다. 가령 이루다가 가진 성적인 편견은 우리 사회에 실제로 존재하고 말로 표현한 생각이다. 카카오워크와 현대카드는 개발사인 카카오의 데이터를 기반으로 하고 있기에 자사 서비스를 우선적으로 추천한다는 이야기다. 각 기업의 알고리즘은 기업의 영업비밀에 해당하는 만큼 정부에서 이 부분을 적극 규제하는 것도 사실상 불가능하다.

최기영 과기정통부 장관도 지난해 국감에서 “AI 알고리즘을 편향되게 하는 건 쉽게 가능하지만, 중립적으로 만드는 것은 굉장히 어려운 일”이라며 “알고리즘을 만드는데 고의적으로 편향성이 없게 하는 것은 AI 윤리헌장 등에 내용을 담을 수 있지만, 알고리즘 공개는 영업비밀로 그것을 강제하는 건 어려움이 있다”고 설명했다.

범위를 넓히면 학계에서는 오래전부터 AI가 사회적 약자와 성적 소수자에 대한 편견을 조장하고 차별을 확산시킨다는 우려가 있었다. 역사는 가진자와 주류 계층의 논리가 중심이 되고 데이터 역시 그런 편향성을 담고 있다는 것이다.

미국의 데이터 과학자이자 수학자인 캐시 오닐은 지난 2017년 발간한 ‘대량살상 수학무기’라는 저서에서 알고리즘이 취약계층의 불평등을 심화하고 민주주의를 위협하는 사례를 지적했다.

익명을 요구한 한 AI 전문 기업 대표는 “결국 AI는 어찌 보면 우리 사회를 반영하는 거울과 같다”며 “물론 데이터를 정제하고 알고리즘을 더 정교하게 짜는 등 개선해 나가는 노력이 필요하겠지만, 이번 논란 역시 한단계 더 발전하기 위한 과정이라고 생각한다”고 전했다.

이데일리

[이데일리 문승용 기자]

<이미지를 클릭하시면 크게 보실 수 있습니다>




정부에서도 과학기술정보통신부(과기정통부)를 중심으로 지난해 말 ‘AI 윤리기준’을 마련한 데 이어 AI윤리와 알고리즘 공정성 등을 담보하기 위한 법·제도 마련을 위한 로드맵을 추진 중이다. 강도현 과기정통부 국장은 “(AI의 확산으로) 데이터·알고리즘의 불공정성 문제, 계층 간 격차의 확대 문제, 고용구조의 급속한 변화에 따른 철저한 대비가 동시에 요구되고 있다”고 말했다.


기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.