![]() |
AI 챗봇 ‘이루다’. /스캐터랩 |
성희롱 대상이 되거나 혐오, 차별 발언 등으로 논란이 된 인공지능(AI) 챗봇 ‘이루다’와 관련해 한국인공지능윤리협회(이사장 전창배)는 "AI 기업들이 AI 제품 출시 전 AI 윤리 가이드라인을 자율적으로 준수하고 검증받을 것을 촉구한다"고 11일 밝혔다.
협회는 "이번 AI 챗봇 사례에서는 데이터의 정제과정과 선별작업이 제대로 이뤄지지 않아 동성애와 장애인, 임산부 등에 대한 편향된 결과를 그대로 노출했다"며 "AI 기업은 기계학습 알고리즘을 적용할 경우 신뢰할 수 있고 편향적이지 않으며 합법적인 데이터를 선별하기 위해 노력해야 한다"고 했다. 또 AI 제품과 서비스 출시 전 충분히 반복된 품질검사를 거치고 중립적인 기관을 통한 검수와 검증을 거쳐야 한다고 강조했다.
협회는 이어 AI 관련 개인정보 유출에 대해서도 "이번 사례에서 개인의 카카오톡 대화내용과 그 속에 담긴 개인정보를 AI 챗봇을 학습시키는 데이터로 활용한다는 명확한 고지가 없었다"며 "AI 윤리 가이드라인을 지키지 못하고 출시한 챗봇 서비스에 대해 협회는 서비스 중단을 요청하며 추후 개선해서 다시 재출시하기를 촉구한다"고 했다.
협회는 AI의 오용, 악용에 대해서도 우려를 나타냈다. 협회는 "이번 AI 챗봇에 대한 사용자의 성적 도구화, 성희롱 등의 문제는 법적 문제는 없더라도 윤리적인 문제는 분명히 있다"며 "성적 도구화, 학대 행위 자체가 잘못됐기 때문에 그러한 행위를 AI 챗봇에 죄의식 없이 하게 되면 결국 인간성 상실로 이어지고 실제 인간에게도 그러한 행위를 할 가능성이 커진다"고 했다.
협회는 "AI 제품과 서비스를 만드는 기업들이 AI 윤리에 대한 필요성과 중요성을 인식하지 못하고 있으며 이용자들의 오용, 악용 사례도 지속 나타나는 상황이 반복되고 있다"며 "이번 AI 챗봇 논란을 계기로 국내 AI 기술과 반드시 가야하는 AI 윤리의 중요성과 당위성이 강조되는 계기가 되길 바란다"고 했다.
박현익 기자(beepark@chosunbiz.com)
<저작권자 ⓒ ChosunBiz.com, 무단전재 및 재배포 금지>
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.