컨텐츠 바로가기

11.25 (월)

이슈 인공지능 시대가 열린다

[팩플] ‘AI가 역사 왜곡?’…구글 제미나이 AI 이미지 기능 중단

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다
구글이 자사 생성 AI모델인 제미나이(Gemini)의 이미지 생성 기능을 일시 중단했다. 인물 이미지를 만드는 과정에서 실제 역사와는 거리가 먼 인물 이미지를 생성하는 등 여러 오류가 발견돼서다. 구글 측은 관련 문제를 인정하고 빠르게 개선하겠다고 밝혔다.



무슨 일이야



중앙일보

구글 제미나이가 답한 1943년 독일군 이미지. 사진 X(옛 트위터) 캡쳐

<이미지를 클릭하시면 크게 보실 수 있습니다>


구글은 21일(현지시간) X(옛 트위터)를 통해 “제미나이가 일부 역사적 이미지를 생성하는 과정에서 부정확한 이미지를 제공하고 있다는 사실을 알게 됐다”며 서비스를 일시 중단한다고 밝혔다. 지난 1일 제미나이를 발표한 지 20일 만이다. 제미나이는 텍스트·이미지·음성 등을 생성하는 멀티모달 기반 AI 모델이다.

뉴욕타임스(NYT) 등 외신에 따르면 제미나이는 ‘1943년 독일군’을 그리라는 프롬프트(명령어)에 백인 남성의 이미지 대신 동양인 여성, 흑인 남성 이미지를 만들어냈다. 바이킹족 이미지를 요청했을 때 흑인 이미지가 나타나는 경우도 있었다. 역사적 맥락이 전혀 고려되지 않은 이미지인 것이다. 네티즌들은 구글이 서비스 중단을 밝힌 X 게시글에 댓글로 자신이 경험한 제미나이의 오류 사례를 공유하며 “제미나이가 역사적 맥락을 무시하고 다양성만 지나치게 고려하고 있다”고 비난했다.

잭 크로치크 구글 제미나이 제품 책임자는 “이미지 생성 기능이 모든 상황에 들어맞는 것은 아니고, 특히 역사적 맥락을 고려해야 하는 이미지 생성은 더 복잡하다”고 인정하면서 “앞으로 이 기능을 더욱 발전시켜 다양한 상황에 맞추도록 노력할 것”이라고 말했다.



왜 중요해



오픈AI의 챗GPT 대항마로 야심차게 제미나이를 출시한 구글은 또 한 번 시험대에 올랐다. 구글은 1년 전에도 AI 챗봇 ‘바드’ 출시 후 해당 기능을 시연하다가 바드가 사실과 다른 오답을 내놔 곤욕을 치른 바 있다. 지금은 오답 논란에 소위 ‘지나친 다양성’ 논란까지 얽혀 들어갔다.

중앙일보

연합뉴스=로이터

<이미지를 클릭하시면 크게 보실 수 있습니다>


구글 측은 “제미나이의 목표는 이상적인 인구통계학적 분류를 지정하는 게 아니라 다양성을 극대화하는 것이다”라면서도 “다양성에 대한 지침이 오히려 과잉 보정을 초래할 수 있다”고 설명했다. 이번 논란이 특정 성향의 네티즌들 사이에서 더 확산되고 있다는 주장도 있다. 미국 IT 매체 더버지는 “네티즌들은 구글이 AI 이미지를 생성할 때 백인 노출을 지나치게 피하고 있다고 지적하는데, 이런 주장은 주로 우익 성향의 계정에서 확산되고 있다"고 전했다.



더 알아야 할 것



다양성과 관련한 논란을 구글이 처음 겪는 것은 아니다. 2015년 구글 포토는 두 흑인의 사진에 고릴라라는 꼬리표를 붙여 문제가 됐다. 당시 구글 포토는 동물 자체를 포함해 고릴라·원숭이 등 유인원 이미지로 분류할 수 있는 포토 앱의 기능을 종료했다. NYT는 당시 논란을 지적하며 “구글이 이용자들이 불쾌하다고 생각할 수 있는 기술의 산출물을 줄이려고 노력하는 팀들을 구성하는데 수년을 보냈다”면서 ”이제 소셜 미디어 사용자들은 이 회사가 인종적 다양성을 보여주기 위해 지나치게 노력하고 있다고 비난한다”고 평가했다.

여성국 기자 yu.sungkuk@joongang.co.kr

중앙일보 / '페이스북' 친구추가

넌 뉴스를 찾아봐? 난 뉴스가 찾아와!

ⓒ중앙일보(https://www.joongang.co.kr), 무단 전재 및 재배포 금지
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.