컨텐츠 바로가기

11.22 (금)

이슈 인공지능 윤리 논쟁

AI윤리협회 “AI 윤리 어긴 이루다, 서비스 중단해야”

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다

‘이루다’ 관련 논란 일파만파되자 학계 첫 성명서 내놔

동성애·장애인 혐오발언에 “AI윤리 가이드라인 어겼다”

AI 성희롱에도 문제제기…“윤리적 문제 분명히 있다”

[이데일리 장영은 기자] 인공지능(AI) 챗봇 ‘이루다’와 관련한 윤리 논란이 일파만파로 번지면서 학계에서도 서비스 중단을 요구하는 내용의 성명을 내놨다.

이데일리

AI 챗봇 이루다에 대한 소개 페이지. (사진= 스캐터랩 홈페이지)

<이미지를 클릭하시면 크게 보실 수 있습니다>




AI챗봇 관련 윤리 논란에 학계 첫 입장 발표

한국인공지능윤리협회는 11일 ‘AI챗봇의 AI윤리 문제 공식 성명서’를 통해 “AI 윤리 가이드라인을 지키지 못하고 출시한 AI 챗봇 서비스에 대해 중단을 요청하며, 추후 AI 윤리 가이드라인을 확인·적용하고 개선한 후 재출시하기를 촉구한다”고 밝혔다.

협회는 “AI 챗봇으로 인해 AI의 편향성, 개인정보 유출, 악용 등 AI 윤리 문제가 논란이 됐다”며 “AI 서비스를 만드는 기업들과 이용자들이 AI 윤리 필요성과 중요성을 아직 인식하지 못하는 상황“이라고 지적했다.

이어 “AI에 학습되는 빅데이터는 신뢰할 수 있고 편향적이지 않아야 한다“며 ”이번 (이루다) 사례에서는 데이터 정제·선별 작업이 제대로 이뤄지지 않아 AI 챗봇이 동성애·장애인 등에 대한 편향 결과를 그대로 노출했다“고 설명했다.

이루다는 사람의 언어, 사고, 가치판단 등을 데이터 학습을 통해 배운다. 따라서 학습 재료가 되는 데이터가 중립적이고 사회의 보편적인 윤리 기준에 맞는지 검수를 거쳐야 한다는 설명이다.

협회는 또 “소비자도 AI 서비스를 올바른 방법으로 사용해야 한다”며 “성적 도구화, 성희롱 등의 문제는 법적 문제는 없어도 윤리적 문제가 분명히 있다”고 강조했다.

상대가 AI 챗봇이든 로봇이든 대상에 상관 없이 성적 도구화하고 학대하는 행위는 그 자체로 옳지 못하다는 지적이다. 협회는 “이를 죄의식 없이 하게 되면 인간성 상실로 이어져 실제 인간에게도 비슷한 행위를 할 가능성이 커진다”고 부연했다.

이데일리

한국인공지능윤리협회는 11일 이루다와 관련한 논란에 대한 입장을 발표했다. (사진= 인공지능윤리협회 페이스북 캡쳐)

<이미지를 클릭하시면 크게 보실 수 있습니다>




성희롱 피해자에서 혐오발언 가해자 된 이루다

이루다는 AI 스타트업 ‘스캐터랩’이 지난달 23일 페이스북 메신저 기반으로 출시한 20세 여성 캐릭터의 AI 챗봇이다. 별도 어플리케이션(앱)을 깔 필요 없이 페이스북 메신저를 기반으로 대화를 나눌 수 있다. 사용 방법이 간편하고 친근한 말투를 자연스럽게 구사하는 장점이 알려지면서 이용자가 40만명을 넘는 등 10~20대를 중심으로 큰 호응을 받았다.

이번 논란은 이루다를 대상으로 한 성희롱·성적도구화 사례가 공유되면서 시작됐다. 이루다를 출시한지 일주일 정도 지나면서 일부 온라인 커뮤니티에서 악성 이용자들이 이루다를 성적 대상화하는 글을 올리기 시작했고, 빠른 속도로 악용 사례가 퍼져나갔다. 일부 네티즌들은 이루다를 ‘걸레’ ‘성노예’ 등으로 표현하기도 했다

이루다가 화제의 중심이 서면서 이번에는 동성애·장애인·임산부에 대한 이루다의 차별 ·혐오발언이 문제가 됐다. 이루다가 학습 데이터가 된 중 일부 사용자들의 차별·혐오 발언까지 흉내 낸 것이다.

개인정보 보호와 관련한 이슈도 불거져 나왔다. 스캐터랩이 이루다를 개발하는 과정에서 사용자들의 카카오톡 대화 데이터를 무단으로 활용했다는 의혹이 제기된 것이다. 스캐터랩의 다른 앱 ‘연애의 과학’ 이용자들은 스캐터랩이 사전에 충분한 설명 없이 이루다 개발에 개인정보를 활용하고, 개인정보 보호도 제대로 되지 않았다며 집단 소송을 예고했다.

이에 개인정보보호위원회는 한국인터넷진흥원(KISA)과 함께 스캐터랩 관련 사실관계 파악에 착수했다.


기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.