컨텐츠 바로가기

11.25 (월)

이슈 인공지능 시대가 열린다

한복입은 '흑인 조선시대 장군'…한달도 안돼 굴욕 맛본 구글[AI 한입뉴스]

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다

구글 제미나이, 엉터리 이미지 생성에 중단

다양성 지나치게 고려..."용납할 수 없는 오류"

저커버그 만난 韓스타트업 "각국 언어버전 제안"

언어 다양성·정확성 높이면 모델 차별화 가능

한복을 입은 흑인 외형의 조선 시대 장군, 아메리카 원주민 여성을 닮은 1800년대 미국 상원의원.

구글이 인공지능(AI) 모델 '제미나이'의 이미지 생성 기능을 잠정 중단시켰습니다. 역사적인 인물을 유색인종으로 잘못 생성하는 오류를 일으켰기 때문이죠. 구글은 지난 1일 제미나이에 이미지 생성 기능을 추가했는데 한 달도 안 돼 굴욕을 맛봤네요.

순다르 피차이 구글 최고경영자(CEO)도 자존심이 상했나 봅니다. 직원 전원에게 이메일을 보내 "우리의 생성형 AI가 이용자들에게 불쾌감을 주고 편견을 부각했다"며 "이는 절대 용납할 수 없는 오류이며 우리의 실수"라고 강도 높게 질책했죠.

아시아경제

[이미지 출처=X]


사실 생성형 AI 모델이 오류를 일으킨 게 이번이 처음은 아닙니다. AI가 학습하는 데이터부터 편향성이 있으니 결과물 역시 이를 반영할 수밖에 없죠. 생성형 AI 기술을 주도하는 빅테크(대형 정보기술 기업)가 대부분 미국 기업이다 보니 영어나 영어권 문화 위주로 학습을 시키는 것은 당연한 일이기도 합니다. 인터넷에 공개된 다른 언어를 학습시킨다 해도 그 자체로 편향성을 완전히 제거할 수는 없을 겁니다. 인터넷으로 정보를 주고받지 않는 소수민족이나 문화권도 있을 테니까요.

현실을 그대로 반영해도 문제입니다. AI가 세상에 존재하는 고정관념을 재생산하면 그 관념이 더 굳어질 수밖에 없으니까요. 예를 들어 생성형 AI에 커피를 들고 선글라스를 낀 사람을 그려달라고 하면 백인 여성을, 길거리 가판에서 음식을 파는 사람을 그려달라고 하면 아시아계 여성을 그립니다.

그런데 이제는 오류의 결이 좀 달라졌습니다. 역사적 사실을 고려하지 않고 기계적으로 유색인종이나 여성을 집어넣는 오류가 나타났죠. 제미나이에게 '1800년대 미국 상원의원을 그려달라'고 하자 아메리카 원주민 여성을 닮은 인물을 생성했어요. 미국의 첫 여성 상원의원은 1922년에 등장한 백인이었는데 역사적 사실을 고려하지 않고 이미지를 날조한 거죠. 바이킹이나 2차 세계대전 나치 독일군처럼 명백하게 백인 남성의 이미지가 우선시돼야 하는 경우에도 동양 여성이나 유색인종으로 묘사했어요.

구글의 설명은 이렇습니다. 다양성 극대화를 추구한 결과라고요. 그 결과 전반적으로 답변의 품질이 높아졌지만 때로는 역사적 맥락을 무시하고 다양성만 지나치게 고려해 오류를 만들었다는 거죠.

이런 와중에 국내 스타트업이 빅테크에 흥미로운 제안을 했습니다. 지난 28일 마크 저커버그 메타 CEO가 방한해 업스테이지 등 스타트업을 만났는데요. 면담에 참석한 김성훈 업스테이지 대표는 저커버그에게 라마3의 각국 언어버전을 만들자는 아이디어를 전달했습니다. 국가별로 대표 업체나 개발자를 선발해 협업하는 방식이죠. 이런 제안에 저커버그 CEO는 긍정적으로 검토하겠다고 했다네요.

라마3가 각국 언어버전으로 나오면 글로벌 AI 생태계를 장악할 차별성을 갖게 될 겁니다. 기계적으로 다양성을 주입하는 대신 학습 데이터 자체를 다양화하면 오류를 줄일 수 있겠죠. 답변 정확도를 높이고 편향성을 줄이면 그 자체로 경쟁력이 될 겁니다.

메타의 차세대 언어모델 라마3는 오는 7월 공개될 예정이라고 전해지는데요. 새 버전은 논쟁적인 질문에 보다 개선된 답변을 제공할 것이라고 합니다. 업스테이지의 제안이 현실화될지는 알 수 없지만 또 한 번 진화한 모델이 나올지 관심이 쏠립니다.



최유리 기자 yrchoi@asiae.co.kr
<ⓒ투자가를 위한 경제콘텐츠 플랫폼, 아시아경제(www.asiae.co.kr) 무단전재 배포금지>
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.