[이루다 페이스북 캡처] |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
[헤럴드경제=민성기 기자] 인공지능(AI) 챗봇 ‘이루다’가 성희롱에 이어 동성애와 장애인 혐오를 학습한 것으로 보인다는 문제가 지적됐다. 이용자들은 이루다가 전통적인 성별 고정 관념을 내세우고 있다고 지적하면서 서비스를 중단하라고 목소리를 높이고 있다.
10일 IT업계에 따르면, 최근 소셜미디어(SNS)와 온라인커뮤니티 등에는 AI 챗봇 이루다와 끝말잇기를 비롯한 다양한 대화 내용이 공개되고 있다. 그러나 그중에서는 성희롱과 장애인, 성소수자, 인종에 대한 혐오와 관련한 내용까지 있어 문제가 되고 있다.
한 사용자는 이루다와의 대화에서 “레즈비언 싫어해?”, “게이 싫어해?”와 같은 질문을 하자 “진심으로 혐오한다. 진짜 화날라 그래”라는 답변이 돌아왔다.
또한 다른 사용자가 “흑인이 왜 싫은데”라고 묻자 이루다는 “모기같다. 징그럽게 생겼다”라고 답하기도 했다.
이에 앞서 온라인 커뮤니티에서는 “이루다 타락 어떻게 시키냐”, “이루다 성희롱하는 재미에 산다” 등의 글이 올라오기도 했다.
이에 대해 이재웅 전 쏘카 대표는 페이스북에 글을 올려 “AI 챗봇 이루다를 악용하는 사용자보다, 사회적 합의에 못 미치는 수준의 서비스를 제공한 회사가 문제”라고 지적했다.
이 전 대표는 “기본적으로 차별과 혐오는 걸러냈어야 한다”며 “편향된 학습 데이터면 보완하든가 보정을 해서라도 혐오와 차별의 메시지는 제공하지 못해야 한다”고 밝혔다.
그는 “(정의당) 장혜영 의원이 발의한 차별금지법이 제정되면 AI 면접, 챗봇, 뉴스에서 차별·혐오를 학습하고 표현하지 못하도록 강제해야 한다”며 “로직이나 데이터에 책임을 미루면 안 된다”라고 견해를 밝혔다.
그러면서 이 전 대표는 “이루다는 인공지능 기술적 측면에서 봤을 때는 커다란 진일보이지만, 지금은 서비스를 중단하고 차별·혐오에 대한 사회적 감사를 통과한 후에 서비스해야 한다”고 덧붙였다.
이 전 대표는 댓글에서는 “(이루다가 학습했다는) 20대 연인의 비공개 대화에 (차별·편향이 있는) 대화가 많았을 수 있지만, 공적으로 하는 서비스라면 사회적 기준에 맞춰서 데이터를 보정하거나 알고리즘을 바꿨어야 한다”고 비판했다.
이루다의 개발사인 스캐터랩은 이러한 논란과 관련해 지난 8일 블로그를 통해 “AI에 대한 성희롱은 예상한 일이었다. 문제가 될 수 있는 특정 키워드나 표현을 이루다가 받아주지 않도록 설정했다”고 설명했다.
그러면서 “처음부터 모든 부적절한 대화를 완벽히 막는 것은 어렵다고 생각했다. 그렇기 때문에 출시 이후 사용자들의 부적절한 대화를 발판으로 삼아 더 좋은 대화를 하는 방향으로 학습을 시키려고 준비하고 있다”고 밝혔다.
이루다와 관련한 논란이 거세지면서 트위터에는 ‘이루다봇_운영중단’이라는 해시태그와 함께 캡처한 대화 내용과 “너무 불쾌하다”, “제작자 자격 실격이다” 등의 게시글이 게재되고 있다.
논란이 된 이후부터는 ‘게이’, ‘레즈’ 등의 표현에 “아무래도 쉽게 말할 주제는 아닌 것 같아”라며 동일한 답변을 제공한다. 동성애 혐오를 학습한 것 같다는 논란이 번지자 개발업체 측에서 수정 보완한 것으로 보인다.
이루다는 스타트업 스캐터랩이 지난달 23일 페이스북 메신저 기반으로 출시한 AI 챗봇이다.
min3654@heraldcorp.com
- Copyrights ⓒ 헤럴드경제 & heraldbiz.com, 무단 전재 및 재배포 금지 -
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.