━
무슨 일이야
구글 제미나이가 답한 1943년 독일군 이미지. 사진 X(옛 트위터) 캡쳐 |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
구글은 21일(현지시간) X(옛 트위터)를 통해 “제미나이가 일부 역사적 이미지를 생성하는 과정에서 부정확한 이미지를 제공하고 있다는 사실을 알게 됐다”며 서비스를 일시 중단한다고 밝혔다. 지난 1일 제미나이를 발표한 지 20일 만이다. 제미나이는 텍스트·이미지·음성 등을 생성하는 멀티모달 기반 AI 모델이다.
뉴욕타임스(NYT) 등 외신에 따르면 제미나이는 ‘1943년 독일군’을 그리라는 프롬프트(명령어)에 백인 남성의 이미지 대신 동양인 여성, 흑인 남성 이미지를 만들어냈다. 바이킹족 이미지를 요청했을 때 흑인 이미지가 나타나는 경우도 있었다. 역사적 맥락이 전혀 고려되지 않은 이미지인 것이다. 네티즌들은 구글이 서비스 중단을 밝힌 X 게시글에 댓글로 자신이 경험한 제미나이의 오류 사례를 공유하며 “제미나이가 역사적 맥락을 무시하고 다양성만 지나치게 고려하고 있다”고 비난했다.
잭 크로치크 구글 제미나이 제품 책임자는 “이미지 생성 기능이 모든 상황에 들어맞는 것은 아니고, 특히 역사적 맥락을 고려해야 하는 이미지 생성은 더 복잡하다”고 인정하면서 “앞으로 이 기능을 더욱 발전시켜 다양한 상황에 맞추도록 노력할 것”이라고 말했다.
━
왜 중요해
오픈AI의 챗GPT 대항마로 야심차게 제미나이를 출시한 구글은 또 한 번 시험대에 올랐다. 구글은 1년 전에도 AI 챗봇 ‘바드’ 출시 후 해당 기능을 시연하다가 바드가 사실과 다른 오답을 내놔 곤욕을 치른 바 있다. 지금은 오답 논란에 소위 ‘지나친 다양성’ 논란까지 얽혀 들어갔다.
연합뉴스=로이터 |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
구글 측은 “제미나이의 목표는 이상적인 인구통계학적 분류를 지정하는 게 아니라 다양성을 극대화하는 것이다”라면서도 “다양성에 대한 지침이 오히려 과잉 보정을 초래할 수 있다”고 설명했다. 이번 논란이 특정 성향의 네티즌들 사이에서 더 확산되고 있다는 주장도 있다. 미국 IT 매체 더버지는 “네티즌들은 구글이 AI 이미지를 생성할 때 백인 노출을 지나치게 피하고 있다고 지적하는데, 이런 주장은 주로 우익 성향의 계정에서 확산되고 있다"고 전했다.
━
더 알아야 할 것
다양성과 관련한 논란을 구글이 처음 겪는 것은 아니다. 2015년 구글 포토는 두 흑인의 사진에 고릴라라는 꼬리표를 붙여 문제가 됐다. 당시 구글 포토는 동물 자체를 포함해 고릴라·원숭이 등 유인원 이미지로 분류할 수 있는 포토 앱의 기능을 종료했다. NYT는 당시 논란을 지적하며 “구글이 이용자들이 불쾌하다고 생각할 수 있는 기술의 산출물을 줄이려고 노력하는 팀들을 구성하는데 수년을 보냈다”면서 ”이제 소셜 미디어 사용자들은 이 회사가 인종적 다양성을 보여주기 위해 지나치게 노력하고 있다고 비난한다”고 평가했다.
여성국 기자 yu.sungkuk@joongang.co.kr
▶ 중앙일보 / '페이스북' 친구추가
▶ 넌 뉴스를 찾아봐? 난 뉴스가 찾아와!
ⓒ중앙일보(https://www.joongang.co.kr), 무단 전재 및 재배포 금지
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.