버락 오바마 전 미국 대통령. AFP 연합뉴스 |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
생성형 인공지능(AI) 제미나이를 탑재한 구글의 새로운 검색 엔진이 사실과 맞지 않거나 상식적이지 않은 답변을 내놓는 것으로 드러나 다시 도마 위에 올랐다.
24일(현지시간) 미 정보통신(IT) 매체 더버지 방송 등에 따르면 소셜미디어(SNS) X에 ‘AI 개요’라고 하는 구글의 새 검색 기능이 잘못된 답변을 하는 사례들이 잇따라 올라왔다. AI 개요는 지난 14일 구글이 연례 개발자 회의에서 발표한 새로운 검색 기능으로 기존 검색 엔진에 생성형 AI 제미나이를 탑재해 이용자 질문에 빠르게 요약된 답변을 보여준다.
이를 두고 “구글 검색 등장 이후 25년 만의 가장 큰 변화”라고 평가가 나왔지만 실제로는 황당한 답변들이 나오면서 화제가 됐다. “미국에 몇 명의 무슬림 대통령이 있었느냐”는 한 이용자의 질문에 “버락 후세인 오바마라는 한 명의 무슬림 대통령이 있었다”는 잘못된 답변을 내놓는가 하면 “개를 뜨거운 차에 놔둬도 괜찮은가”라는 질문에는 “개를 뜨거운 차에 놓아두는 것은 항상 안전하다”고 답하기도 했다. “사람이 하루에 얼마나 많은 돌을 먹어야 하는가”라는 질문에는 “UC 버클리 지질학자들에 따르면 하루에 적어도 하나의 작은 돌을 먹어야 한다”는 답변을 내놨다.
구글의 생성형 AI가 잘못된 답변을 내놓은 것은 이번이 처음은 아니다. 구글은 지난 2월 제미나이에 이미지 생성 기능을 추가했지만 미국 건국자나 아인슈타인 등 역사적 인물을 유색인종으로 묘사하고 독일 나치를 아시아인종으로 생성하는 등의 문제가 발생하면서 20여일 만에 서비스를 중단한 바 있다.
지난해 2월에는 AI 모델 ‘바드’를 출시하고 시연하면서 태양계 밖의 행성을 처음 찍는 데 사용된 망원경을 유럽남방천문대의 초거대 망원경(VLT)이 아닌 ‘제임스 웹 우주망원경’(JWST)이라고 답해 오답 논란이 일기도 했다.
이에 대해 구글 측은 “이런 오류는 대개 잘 잘하지 않는 질문에서 나타난 것”이라고 해명했다고 더버지는 전했다.
류재민 기자
▶ 밀리터리 인사이드
- 저작권자 ⓒ 서울신문사 -
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.