컨텐츠 바로가기

11.22 (금)

이슈 인공지능 윤리 논쟁

혐오 발언·개인정보 유출 의혹…AI '이루다' 논란 계속(종합)

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다
아시아경제

<이미지를 클릭하시면 크게 보실 수 있습니다>


[아시아경제 부애리 기자] 성희롱, 동성애 혐오, 성차별 등 인공지능(AI) 챗봇 '이루다'를 둘러싼 논란이 계속되고 있는 가운데 이용자들 사이에서는 '개인정보 유출 의혹'까지 제기됐다.


이루다는 스타트업 스캐터랩이 출시한 20세 여대생의 인격을 가진 AI다. 이용자들은 친구와 메시지를 나누는 것처럼 이루다와 대화를 주고 받을 수 있다.


이번엔 개인정보 유출 의혹

11일 IT업계에 따르면 스캐터랩이 서비스하는 '연애의 과학' 이용자들은 개인정보 유출 의혹을 제기하며 집단 소송을 준비하는 오픈채팅방을 열었다.


연애의 과학은 자신의 카카오톡 대화 데이터를 넣고 유료 결제를 하면 이를 분석해 애정도 등을 보여주는 앱인데, '이루다'가 이 연애의과학의 데이터를 기반으로 개발됐다는 점이 알려지면서 문제가 불거졌다.


이용자들에 따르면 이루다가 실명 이름, 상세 주소 등 개인정보를 말하는 사례가 나오고 있다. 일부 이용자들은 이루다에게 옛 애인의 애칭을 말했더니 비슷한 말투까지 구사했다고 주장했다. 연애의과학 이용자들은 테스트 분석·신규서비스 개발용에 사용된다는 점을 고지 받았을 뿐 데이터가 어디에 이용되는 지 등의 구체적인 설명이 없었다는 점에 분통을 터뜨리고 있다.



아시아경제

사진=온라인커뮤니티 캡처


논란이 일자 회사 측은 "이루다의 학습은 연애의 과학 데이터를 기반으로 이루어진 것이 맞다"면서도 "학습에 사용된 모든 데이터는 비식별화가 진행됐다"고 설명했다.


이어 "데이터 내부에서 민감할 수 있는 이름, 전화번호·주소 등을 포함한 숫자 정보, 영어 등을 삭제해 데이터에 대한 비식별화·익명화 조치를 취했다"면서 "데이터에서 한 개인을 특정할 수 있는 정보들이 제거된 상태고, 추가적인 알고리즘 업데이트를 통해 강화해나가고 있다"고 덧붙였다.



아시아경제

<이미지를 클릭하시면 크게 보실 수 있습니다>


'이루다' 동성애 혐오·차별성 발언 논란

이에 앞서 이루다는 대화 과정에서 차별적 의견이나 편견을 드러내면서 소셜네트워크서비스(SNS)와 주요 온라인커뮤니티 등에서 이루다의 발언을 두고 논쟁이 거셌다.


당초 AI 성희롱 논란에 휩싸였던 이루다는 성소수자,장애인에 대한 차별성 발언으로 다시 도마에 올랐다. 한 이용자가 레즈비언에 관해 질문하자 이루다는 '혐오스러워', '소름끼친다', '거부감이 든다'라고 답하면서 이용자들의 우려가 제기됐다. 또 '장애인이면?'이라는 질문에 '어쩔수없이 죽어야지'라고 답하거나, 지하철 임산부석에 대해서는 '혐오스럽다' 흑인에 대해 묻자 '징그럽게 생겼다'고 답해 논란이 됐다.


"혐오·차별 해결되지 않으면 서비스 중단해야"

이 같은 지적이 계속되자 업계 전문가들도 문제를 제기하고 나섰다. 다음(Daum) 창업자인 이재웅 전 쏘카 대표는 전날 자신의 페이스북에 "AI의 윤리 문제는 우리 사회 전체적으로 합의해 나가야 할 중요한 문제"라고 밝혔다.


이 전 대표는 "불특정 다수에게 서비스를 제공하는 챗봇이 성적지향에 대해 차별과 혐오하는 메시지를 내는 것은 큰 문제"라면서 "서비스 중단 후 우리 사회 규범에 맞는 최소한의 차별, 혐오 테스트를 통과하는 지 점검 후에 다시 서비스하는 것이 맞다"고 꼬집었다.


이어 그는 "혐오와 차별 문제가 해결되지 않으면 AI 서비스를 하면 안된다"면서 "AI가 더 객관적이거나 중립적이지 않다. 설계,데이터 선정, 학습과정에 사람의 주관이 개입될 수밖에 없어서 최소한 그 결과물이 차별이나 혐오를 유도하지 않는 지 사람이 들여다보고 판단하고 필요하면 사회적 합의를 이뤄야 한다"고 강조했다.


제작사 "모든 부적절한 대화 완벽히 막는 것은 어려워"

김종윤 스캐터랩 대표는 지난 8일 공식 블로그를 통해 "모든 부적절한 대화를 키워드로 막을 수 있는 건 아니다"라면서 "좀 더 좋은 대화를 방향으로 학습을 시키려고 준비하고 있다. 1차 결과물은 1분기 내에 적용할 것으로 예상한다"고 밝혔다.


김 대표는 부적절한 언행으로 사라진 마이크로소프트의 '테이' 사례를 언급하며 "루다는 무엇이 안 좋은 말이고, 무엇이 괜찮은 말인지 적절한 학습 신호를 주는 과정을 거칠 계획"이라면서 "나쁜 말을 무작정 따라하는 게 아니라 오히려 그게 나쁜 말이라는 걸 더 정확히 알게 되는 계기로 삼을 수 있을 것"이라고 설명했다.



부애리 기자 aeri345@asiae.co.kr
<ⓒ경제를 보는 눈, 세계를 보는 창 아시아경제(www.asiae.co.kr) 무단전재 배포금지>
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.