AI 챗봇 이루다 /사진=스캐터랩 |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
한 스타트업이 개발한 인공지능(AI) 챗봇 ‘이루다’가 성희롱 대상이 된데 이어 성소수자와 장애인 등에 대한 혐오 표현까지 드러나며 AI 서비스의 윤리논쟁이 불붙고 있다. 전문가들 사이에선 AI 서비스 개발사가 학습 데이터를 무분별하게 반영해 차별과 혐오를 방치했다는 비판이 나온다. AI가 기존 인간의 데이터를 기반으로 학습하는 만큼 기술적으로 완벽한 필터링은 사실 불가능하다는 반론도 있다. 규제의 틀만 앞세우면 AI 발전을 저해할 것이라며 AI와 함께 살아가는 우리 시대 윤리적 기준에 대한 사회적 합의가 우선이라는 지적도 나온다. 이루다가 촉발한 AI 윤리이슈에 대한 쟁점 현안별로 짚어본다.
━
① 20대 여대생으로 설정한 게 문제?
━
이루다 개발사 스캐터랩은 이루다를 20살 여대생으로 설정했다. 친숙한 대화 상대로 적합한 캐릭터라는 판단에 따른 것으로, 연인들의 카카오톡 대화 데이터를 딥러닝 방식으로 학습시켰다. 이를 두고 상업적으로 AI를 활용하려는 의도성이 엿보인다는 지적이 나온다. 이재웅 전 쏘카 대표는 “이루다가 20세 여성으로 설정되는 순간 우리 사회 20세 여성의 위상이 그대로 투영되지 않을 수 없다”면서 “(성적 착취의 대상이 될 수 있는데) 굳이 AI 챗봇의 젠더나 나이를 설정할 필요가 있었을까 싶다”고 지적했다. 상업적 의도성을 꼬집은 것이다.
반론도 적지않다. 한 IT 전문가는 “남성 또는 여성, 중성이든 또 10대든 60대이든 얼마든지 자유롭게 설정할 수 있지 않은가”라며 “오히려 가상 AI를 대상으로 음담패설 한 사용자의 인성이나 의도성이 더 문제이지 특정 연령대 성별을 취약 대상으로 보는 건 또 다른 편견일 수 있다”고 지적했다. 김종윤 스캐터랩 대표도 자사 블로그 입장문에서 “여대생 논란을 노린바 없으며 10~30대 주사용자층을 대상으로 20살 정도가 친근감있는 나이라고 생각했다”면서 “남자와 여자 버전 모두 고려했고 개발 일정상 여자버전인 루다가 먼저 나온 것일 뿐”이라고 해명했다.
━
② AI를 대상으로 성희롱 하면 처벌은 누가받나
━
이번 이루다 논란은 애초 이 챗봇을 성적 대상으로 취급하는 이용자들이 등장하면서 수면 위로 떠올랐다. 그러나 IT 전문가들은 애초 성희롱이 성립될 사안인지 의문이라는 시각이 많다. “기계에 대고 음담패설한 것과 같다”는 것이다.
이재웅 전 쏘카 대표도 “‘성적 학대, 악용은 사용자의 문제이지 AI 서비스의 문제라고 보기는 어렵다”며 “학습과 보정을 통해 직접적인 대상화가 어렵도록 보완하면서 성적으로 악용하는 사람들이 그 과정을 공개 공유하는 것은 적극 막아야 한다”고 했다.
IT전문작가인 최필식씨는 “애시당초 이번 논쟁은 사적 대화 서비스인 챗봇과 사용자 대화내용이 공개되면서 촉발된 것”이라면서 “AI가 아닌 사람간 그런 대화를 공개하면 정보통신망법 위반으로 처벌받을 수 있는데 일부 이용자에 일탈행위로 문제가 과도하게 확대된 느낌”이라고 지적했다.
한 인터넷커뮤니티에 올라온 이루다 대화내용. 레즈비언에대한 부정적 표현이 나온다. /사진=캡처 |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
물론 AI가 학습데이터와 알고리즘을 바탕으로 성희롱이나 장애인, 성소수자에 대한 차별 발언을 하고 이용자가 성적 수치심이나 정신적 피해, 불편함을 느낀다면 막아야 한다. 개발사가 소송 대상이 될 가능성도 있다. 전세계적으로 이같은 차별에 대한 규제논의가 활발하다. MS의 경우 2016년 챗봇 테이(Tay)를 출시한 지 16시간 만에 욕설과 인종, 성차별 발언을 하자 운영을 중단하기도 했다.
일각에서는 AI 개발 초기 단계에서 윤리나 법적 문제를 논하는 것은 이르다는 시각도 있다. 경희대 이경전 교수는 “이루다는 아무 말 대잔치를 하는 그냥 성능 낮은 스몰토크(Small Talk) 챗봇에 불과하다”면서 “이런 저품질 대화 기계를 가지고 이루다가 레즈비언을 혐오했다고 주장하는 것은, 이제 겨우 말을 뗀 아이에게 레즈비언이 좋아 싫어? 하고 물어본 후에 싫다 했다고 난리치는 것보다 더 바보같은 일 아니냐”고 반문했다.
━
③ 필터링 강화하면 완벽한 AI 나올까
━
전문가들은 AI가 다양한 학습데이터를 기반으로 하는 만큼 차별이나 혐오, 편향 방지를 위한 사전 필터링에 보다 적극적이어야 한다고 지적한다. 한상기 테크프론티어 대표는 ”통상 챗봇은 기업이 고객지원을 위해 사용했는데 일반인 대상으로 확대하는 게 얼마나 다른 차원의 문제인지 보여준 사례”라며 “차별이나 혐오, 편향성을 막기 위해 특별한 단어표현이나 사회적으로 받아들이기 어려운 문제들은 사전에 걸러내고 검증했어야 한다”고 지적했다. 이재웅 전 쏘카 대표도 자신의 SNS에서 “일상 대화에서 차별·혐오하는 사람이 많고 그것을 학습한 결과로 차별과 혐오를 하게 됐더라도 그것을 보정 없이 대중에게 서비스하는 것은 큰 문제”라며 “지금이라도 차별·혐오 발언을 하지 않도록 기준과 시스템을 변경해야 한다”고 지적했다.
이재웅 전 쏘카 대표 페이스북/사진=캡처 |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
일각에서는 데이터를 기반으로 스스로 학습하는 AI의 특성상 개발자가 사회구조적 편견을 완벽하게 걸러내긴 어렵다는 지적도 나온다. 과거 데이터를 기반으로 AI가 학습하는데 성인지 감수성 등 사회 정서가 급변하면서 최신 트렌드에 맞춰 모든 경우의 수를 스크리닝하는 것은 불가능하다는 것이다.
업계의 한 관계자는 “우리 사회 차별과 편견 등 가치관적·윤리적 기준에 대한 사회적 합의가 모호한 상황에서 AI에게 절대 기준을 입력할 수 없지 않느냐”며 “일단 서비스를 시작하면서 점진적으로 보완해 나가는 게 불가피하다”고 진단했다.
━
④ 개발윤리 중요하지만 수용자 교육도 필요
━
AI를 통한 차별과 혐오가 확산하지 않도록 서비스 개발사의 윤리적 책임과 사회적 규제가 강조되고 있지만, 이를 받아들이는 수용자의 자세가 유연해질 필요가 있다는 지적도 나온다.
최필식 작가는 “AI는 아직 초기단계로 일정한 시행착오를 겪을 수밖에 없는데 과도한 논란에 휩싸이면 서비스 발전이 불가능하다”면서 “개발자 스스로 사회 윤리적 규정을 준수해야 하는 것은 필요하지만 AI가 사용자와 상호작용하면서 발전하는 만큼 이를 악용하지 않는 수용자 자세도 중요하다”고 말했다.
장동인 에이아이비비랩 대표는 ”AI는 도구이자 기계인데 마치 인간처럼 여기고 이것저것 부적절한 질문을 하는 것은 문제”라면서 “AI 서비스를 개발한 스타트업만을 탓할 문제가 아니라 이런 서비스를 앞으로 어떻게 사회적으로 수용할지에 대한 고민과 사용자 교육이 필요하다”고 지적했다.
조성훈 기자 search@, 백지수 기자 100jsb@mt.co.kr
<저작권자 ⓒ '돈이 보이는 리얼타임 뉴스' 머니투데이, 무단전재 및 재배포 금지>
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.