챗봇 '이루다 쇼크'가 불러온
AI 윤리논쟁 갑론을박
윤리기준 있지만 '자율규범' 일뿐
인격화 착각 과해
도덕적 잣대로 AI 개발 막는단 지적도
<이미지를 클릭하시면 크게 보실 수 있습니다> |
[아시아경제 구채은 기자] 성희롱과 차별·혐오 표현, 정보 유출 문제까지 제기된 인공지능(AI) 챗봇 '이루다'가 서비스를 잠정중단했지만 논란은 사그라들지 않고 있다. AI의 혐오표현이나, 성희롱은 법적 규정이 없어 이같은 논란이 또 불거진다 해도 손을 놓고 있을 수 밖에 없어서다.
다만 AI에 대한 과도한 '의인화'로 이제 막 시작한 시스템 대해 과도한 윤리적 기준을 들이대는 것은 부적절하다는 반론도 있다. 갓 언어를 배운 1~2살 어린아이가 하는 반응에 혐오나 성희롱이라는 과한 도덕적 잣대를 씌워 초기 단계인 AI 혁신에 싹을 자른다는 지적이다.
12일 관련업계에 따르면 스캐터랩의 'AI 이루다'는 동성애와 장애인 혐오, 성희롱에 정보 유출 논란까지 휩싸여 11월 서비스를 잠정 중단했다. 개인정보보호위원회는 이루다의 개인정보 유출과 관련해 공동조사에 들어갔다. 다만 문제가 된 성희롱, 동성애, 장애인 혐오 이슈는 현재로서 처벌하거나 막을 수 있는 제재나 강행 규정이 없는 상황이다.
과학기술정보통신부가 지난해 12월 최종확정한 'AI윤리기준'이 있지만 권고성 준거일 뿐이다. '법'이나 '지침'이 아닌 자율규범일 뿐 강제성은 없다.
현재 AI 윤리기준은 ▲인간의 존엄성, ▲사회의 공공선, ▲기술의 합목적성 등 3가지 원칙을 제시하고 ① 인권 보장, ② 프라이버시 보호, ③ 다양성 존중, ④ 침해금지, ⑤ 공공성, ⑥ 연대성, ⑦ 데이터 관리, ⑧ 책임성, ⑨ 안전성, ⑩ 투명성 등 10가지 핵심요건을 제시하고 있다.
AI 이루다는 이 기준에 따르면 인간 존엄성, 공공선, 프라이버시 보호, 다양성 존중 등의 조건에 위배된다. 과기정통부 관계자는 "(이루다가) 윤리기준에 부합하지 않는 부분이 있는 것은 인지하고 있다"면서도 "윤리기준은 준거를 제시한 것으로 법적 제재를 가할 수 있는 부분은 아니다. 추후에 데이터 편향성과 관련해 기술적 지원을 해나가는 방법을 고려하고 있다"고 언급했다.
<이미지를 클릭하시면 크게 보실 수 있습니다> |
이 때문에 AI 윤리기준 침해에 대한 관리나 감독이 있어야 한다는 목소리도 나온다.
한국인공지능윤리협회는 "AI에 학습되는 빅데이터는 신뢰할 수 있고 편향적이지 않아야 한다"며 "이번 (이루다) 사례에서는 데이터 정제·선별 작업이 제대로 이뤄지지 않아 AI 챗봇이 동성애·장애인 등에 대한 편향 결과를 그대로 노출했다. AI 윤리 가이드라인을 확인하고 적용한 서비스를 출시해야 한다"고 말했다.
다만 AI의 도덕적, 윤리기준에 까지 법적 제재를 들이대는 것은 AI산업이 초기라는 점, 기업의 자율성과 소비자의 선택권을 제약할 수 있다는 점을 감안해 신중해야 한다는 반론도 만만찮다. AI 기술의 한 단면만 보고 법적 제재를 들이된다면 과한 규제가 될 수 있다는 이유에서다.
이경전 경희대학교 교수는 "'이루다'는 이용자의 어떤 발언에도 어중간한 긍정이나 부정을 하는 서비스일 뿐 혐오할 능력이 전혀 학습되지 않았는데 사용자가 과하게 도덕적 잣대를 들이대는 부분이 있다"면서 "최초의 컴퓨터가 나왔을 때, 사람들이 일으키는 비슷한 의인화의 착각과 같은 것"이라고 지적했다.
이 교수는 "이루다는 그냥 사물일 뿐이기 때문에 이루다를 개인이 어떻게 사용하든 법적·윤리적 문제로 삼을 일이 아니다"면서 "과한 윤리적 논의는 AI 발전에 마이너스가 될 뿐"이라고 말했다.
구채은 기자 faktum@asiae.co.kr
<ⓒ경제를 보는 눈, 세계를 보는 창 아시아경제(www.asiae.co.kr) 무단전재 배포금지>
이 기사의 카테고리는 언론사의 분류를 따릅니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.