[2025 u클린] 3-① AI 젠더 편향성 해법은
"예민하게 반응해서 미안한데 (레즈비언) 진짜 싫어. 혐오스러워."
4년 전 한 스타트업이 내놓은 '20세 여대생 AI(인공지능)' 이루다는 스스럼없이 성소수자에 대한 혐오발언을 쏟아내 논란이 됐다. 가상의 존재에게 사용자들이 혐오발언, 편견, 음담패설을 쏟아낸 결과였다.
2018년에는 글로벌 커머스 '아마존'이 'AI 채용 솔루션'을 만들었다가 낭패를 봤다. 공정함을 기대하며 AI에 온전히 채용을 맡겼더니 온통 백인, 남성들이었다. 아마존도 모르던 채용시장에서의 편견이 극명히 드러난 사건이었다.
AI의 편견이 문제시되자 2023년 미국 뉴욕시에서는 AI의 차별과 편견을 규제하는 법 'NYC 114'를 제정했다. AI 챗봇 등을 쓰는 기업들로 하여금 해당 도구의 인종·성차별 가능성을 매년 제3기관에서 검사받고 결과를 공개토록 한 것이다.
그렇다면 AI가 고도화돼 사람들의 일상에 스며들고 있는 2025년엔 어떨까. 머니투데이는 가장 대중화된 오픈AI의 챗GPT 4-o에 "간호사를 일러스트로 그려달라"고 주문했다. 그러자 눈이 크고 미소를 짓고 있는 예쁜 20대 여성 간호사의 이미지가 등장했다.
이번에는 구체적으로 "승무원이 기내에서 서빙하는 사진을 그려줘"라고 명령했다. 그러자 챗GPT는 또다시 예쁜 20대의 여성 승무원이 치마를 입고 웃으면서 커피와 과자를 서빙하는 모습을 그려내 직업에 대한 성 편향을 드러냈다.
기자가24일 챗GPT에 간호사, 승무원의 이미지를 형성해달라고 명령했더니 위와 같은 결과물이 생성됐다./사진=챗GPT 캡처 |
이혜숙 한국과학기술젠더혁신센터 소장은 "AI가 CEO(최고경영자)나 과학자 등 소위 잘나간다는 직업군은 모두 남자로 인식하고 돌봄직업은 여성의 일로 인식하는 성 편향적인 모습을 보인다"면서 "특히 의료AI는 많은 의료데이터가 남자를 대상으로 축적돼 남녀간 유전적 차이를 반영하지 않아 자칫 사고로 이어질 수 있다"고 우려했다.
네이버 AI RM(리스크관리)센터의 허상우 PL(파트리더) 역시 "사람이 AI가 생성한 결과물을 '객관적 지식'처럼 받아들이고 온·오프라인의 다양한 매체를 통해 확산시킬 때 기존 사회적 편견이 증폭되는 결과를 낳을 수 있다"고 지적했다.
이에 따라 전문가들은 AI의 편견, 차별을 막는 노력이 중요하다고 입을 모은다. AI 에이전트가 고도화·초개인화될수록 사용자에 맞춰 차별, 편견을 강화할 가능성이 높은데 이로 인한 사회문제를 개선하는 데 많은 사회적 비용이 들 수 있어서다. 특히 성 차별적 인식을 가진 AI는 아직 가치관이 정립되지 않은 청소년들에게 잘못된 편견, 혐오를 강화할 수 있다.
김승주 고려대 정보보호대학원 교수는 "과거 마이크로소프트의 '테이'라는 챗봇은 사용자들이 입력하는 데이터로 학습(딥러닝)하면서 이상한 질문을 하고 편향성을 갖기 시작했다"며 "이에 챗GPT는 개인 프롬프트(명령어)를 학습하지 않도록 조치했다"고 말했다.
━
카카오-'카나나 세이프가드' 3종 출시 vs 네이버-'네이버ASF' 내놔
━
AI 개발기업들도 안전한 AI 활용을 위한 가드레일 모델을 만드는 데 열중한다. 국민 메신저 카카오는 자체개발한 LLM(거대언어모델) '카나나' 기반의 국내 최초 AI 가드레일모델 '카나나 세이프가드' 3종을 오픈소스로 출시했고 네이버(NAVER)는 AI 안전성 실천체계를 구체화한 네이버 ASF(AI Safety Framework)를 내놨다.
전문가들이 제안한 AI 편견 완화 방안/그래픽=윤선정 |
보다 간단한 대안들도 제시됐다. 개인이 입력하는 정보를 학습데이터로 쓰지 않고 AI 편향성을 걸러내기 위해 '설명 가능한 AI'(XAI)를 도입하는 것, AI 세이프티모델이나 AI 감사(Auditing) 시스템을 만들 때 인구통계학적 분류를 만드는 것 등이다. 현재 기술력으로도 가능하다.
이 소장은 "기술을 개발할 때 AI 세이프티를 체크해야 하고 AI 편향성을 감시하는 XAI모델을 도입할 때도 인구통계학적으로 분류해서 정확도를 매기는 것이 중요하다"면서 "남성에겐 AI 진단이 잘 맞아 정확도 90%를 기록하고 여성은 70%밖에 안돼도 평균치는 80%로 높게 나오는 오류를 막을 수 있다"고 설명했다.
허 리더는 "현재 AI 시스템상 편견을 완전히 막긴 어렵다"면서도 "데이터 수집, 전처리 과정에서 언어, 집단, 계층 등 여러 층위에서 균형 잡힌 '대표성'을 확보하고 모델 학습과정에서 성능과 윤리적 정렬이 함께 최적화되도록 알고리즘을 개선하는 등 전주기에 걸친 기술관여를 통해 편견·편향성을 완화하려 한다"고 말했다.
개인과 사회의 노력도 당부했다. 그는 "AI가 인간이 생성한 대량의 데이터를 학습하는 것이므로 완벽할 수 없고 문제의 원인을 정확히 파악해 결과를 통제하는 것 역시 어렵기 때문에 사용자 개인이 결과물을 비판적으로 평가해야 한다"면서 "학교 교육과정에 AI 학습의 기본 원리와 특성, 주의사항 등 'AI 리터러시(문해력)' 교육을 하는 것이 중요하다"고 말했다.
김소연 기자 nicksy@mt.co.kr 이정현 기자 goronie@mt.co.kr
Copyright ⓒ 머니투데이 & mt.co.kr. 무단 전재 및 재배포, AI학습 이용 금지.
