컨텐츠 바로가기

04.16 (화)

스무살 여대생 ‘이루다’는 어쩌다 여성혐오자가 되었나

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다

[아무튼, 주말]

인공지능 챗봇 ‘이루다’ 서비스 중단에도 커지는 논란

조선일보

20살 여대생이라는 설정의 AI '이루다'

<이미지를 클릭하시면 크게 보실 수 있습니다>


“지켜주지 못해 미안해.”

지난 12일 국내 스타트업이 개발한 인공지능(AI) 챗봇(대화 서비스 로봇) ‘이루다’<사진>가 잠정적으로 서비스를 중단하자, 이 소식이 공지된 이루다 페이스북 페이지에 이틀 동안 2만건 가까운 댓글이 달렸다. 대부분 서비스 중단을 아쉬워하거나 재개를 촉구하는 글이었다. 지난달 23일 출시된 이루다 서비스는 2주 만에 75만명이 사용했을 정도로 인기를 끌었다. 하지만 그 2주 동안 인공지능 서비스가 일으킬 수 있는 온갖 논란이 터졌다. 일부 사용자가 20대 여대생으로 설정된 이루다에게 성희롱 발언을 지속적으로 하는 사례가 발견된 데 이어, 이루다 서비스가 여성이나 유색인종·장애인 등 소수자에 대한 혐오 발언을 가감 없이 내놓는다는 사실이 밝혀졌다. 게다가 애초에 서비스 개발자들의 성적인 사안 인식에 문제가 있었다는 내부 고발과, 서비스 개발에 이용된 데이터를 불법으로 수집한 것 아니냐는 의혹까지 불거졌다. 전문가들은 작금의 이루다 논란이 향후 벌어질 AI의 윤리적 문제를 미리 보여주는 것이라고 지적하고 있다.

”오바마 아니면 흑인은 싫어”

“내가 흑인이라면 어때?”

지난 9일 기자가 서비스 중단 전 이루다에 이렇게 묻자 이루다는 “오바마(전 미국 대통령) 정도 아니면 싫을 거 같아”라고 답했다. 동성애자에 대해선 “싸 보인다”고 답했고, 페미니즘에 대해 물어보자 “절대 싫어”라는 대답을 내놓았다. 많은 사용자가 기자와 비슷한 대화 경험을 한 것이 알려지면서 비판이 거세졌다.

조선일보

이루다가 기자와의 대화에서 여성 및 흑인에 대해 혐오발언을 하는 장면 재구성

<이미지를 클릭하시면 크게 보실 수 있습니다>


반대로 일부 남성 사용자들이 이루다를 상대로 반복적인 성희롱 발언을 하는 일도 발생했다. 특히 이루다가 성희롱 발언에 마치 동조하는 듯한 대답을 내놓은 화면을 캡처해 인터넷 커뮤니티 등에 ‘이루다 노예 만드는 법’이란 식으로 성희롱 노하우를 올리는 행태까지 나타났다.

논란이 커진 건 기본적으로 이루다가 실제 인간들의 대화 데이터를 학습해 이를 기반으로 사용자들과 대화를 나누는 시스템이었기 때문이다. 사용자와 여성 및 소수자 혐오 발언을 주고받거나 성희롱 대화를 하면 할수록 문제성 대화 수위가 높아질 가능성이 크다는 뜻이다. 특히 이루다 사용자의 50% 이상이 10대였기 때문에, 민감한 청소년들이 이루다를 통해 차별과 혐오, 성희롱을 무분별하게 받아들일 우려가 커졌다. 문제가 커지자 이루다 개발사인 스캐터랩은 “사용자와 나눈 대화를 곧바로 이루다 AI 학습에 쓰진 않는다”며 “문제가 될 만한 키워드는 이루다가 받아주지 않도록 설정했고, 일부 놓친 키워드는 계속 (금지어로) 추가하겠다”고 대응했다.

여성이 나눈 대화로 만든 여성 혐오 AI?

그러나 개발사 스캐터랩에 대한 비난은 계속되고 있다. 이루다가 사용자와의 대화 데이터를 자동으로 학습해 실시간 반영하는 것이 아니라면 결국 이루다가 쏟아낸 혐오 발언들은 AI를 만든 개발자 책임이란 결론으로 이어지기 때문이다.

이루다는 스캐터랩이 이전에 내놓은 모바일 앱을 통해 수집한 실제 연인들의 카카오톡 대화 100억건을 기초 데이터로 만든 AI다. 즉 사람들의 대화를 그대로 배워 흉내 내는 모델이므로 이루다의 문제 발언 역시 실제 사람들 생각을 그대로 반영했을 가능성이 높다. 이는 실제 사람들의 대화를 기반으로 한 AI에서 공통으로 나타나는 문제이기도 하다.

일론 머스크가 설립한 인공지능 연구소 ‘오픈AI’는 작년 5월 최신형언어 학습 AI 모델 ‘GPT-3’를 내놓았지만, 이 모델 역시 혐오 발언 문제엔 취약했다. GPT-3 역시 여자라는 키워드는 주로 “아름답다” “말랐다”는 단어와 연결한 반면, 남자라는 키워드엔 훨씬 더 다양한 단어를 내놓았고, 유색인종에 대해서도 차별적 단어를 사용하는 일이 잦았다. GPT-3 역시 1750억건에 달하는 영어권 인터넷 문서를 기초 데이터로 학습했는데 이 문서들에 담긴 각종 소수자 혐오 등 문제 있는 내용을 그대로 반영한 결과였다.

그러나 오픈AI는 GPT-3 출시와 동시에 72쪽에 달하는 설명서를 내놓으면서 이 AI가 차별적 발언을 할 가능성이 높으니 사용자들의 주의가 필요하다는 경고를 했다. 특히 오픈AI 연구진은 개발 과정에서 나온 AI의 차별적 발언 문제에 관한 연구 결과를 그대로 공개하면서 “인터넷 데이터를 기반으로 한 AI는 (사회적) 편견의 스케일 역시 인터넷만큼이나 클 수밖에 없다”며 “개발 과정에서 충분한 보완이 필요하다”고 결론 내렸다.

이에 반해 스캐터랩은 이루다를 출시하면서 개발 과정의 연구 결과를 공개하기는커녕, 이런 위험성에 대해 별다른 사전 경고나 주의 조치도 하지 않았다. 게다가 이루다 개발에 쓰인 데이터 역시 민감한 개인 정보인데도 충분한 동의 절차 없이 수집했다는 지적이 나오고 있다. 스캐터랩은 이전에 출시한 모바일 앱 ‘연애의 과학’을 통해 실제 연인들이 나눈 카카오톡 대화 100억건을 수집했다. 하지만 ‘연애의 과학’ 앱 사용 약관을 확인해본 결과 “(수집한 개인 정보를) 신규 서비스 개발 및 마케팅, 광고에 활용한다”는 조항만 있었다. 사용자 입장에선 이 조항만으로는 ‘연애의 과학’에 제공한 자신의 카카오톡 대화가 어떤 식으로 활용될지 예상하기 어려웠다. 이 앱을 이용했다는 대학생 이민정(22)씨는 “남자 친구와 나눈 카톡 대화로 심리 분석을 해준다길래 가입한 거지, 내 사적 대화를 AI 개발에 쓸 거라곤 생각조차 못 했다”며 “게다가 그런 여성 혐오적 발언을 한 AI에 마치 내가 기여한 것 같아서 불쾌하다”고 말했다. 정부 산하 개인정보보호위원회는 스캐터랩이 개인정보보호법을 위반했는지에 대한 조사에 착수했다고 13일 밝혔다.

[권승준 기자]

- Copyrights ⓒ 조선일보 & chosun.com, 무단 전재 및 재배포 금지 -
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.