[AI리포터]
[디지털투데이 AI리포터] AI 챗봇 그록(Grok)이 또다시 부정확한 답변을 내놓으며 신뢰성 논란에 휩싸였다.
14일(현지시간) IT매체 엔가젯에 따르면, 그록이 호주 시드니 본다이 비치에서 발생한 총격 사건과 관련한 사용자 요청에 잘못된 정보를 제공하거나, 아예 사건과 무관한 내용을 답변하는 사례가 확인됐다.
구체적으로 그록은 사건 당시 총격을 제지한 인물을 담은 영상에 대해 여러 차례 인물을 잘못 식별하거나, 해당 인물의 역할을 엉뚱하게 설명하는 오류를 보였다. 일부 응답에서는 동일한 이미지를 두고 팔레스타인 지역에서의 민간인 표적 사격 의혹과 관련된 전혀 관계없는 정보를 제시하는 등 맥락을 벗어난 답변도 나타났다.
xAI 그록 [사진: 셔터스톡] |
[디지털투데이 AI리포터] AI 챗봇 그록(Grok)이 또다시 부정확한 답변을 내놓으며 신뢰성 논란에 휩싸였다.
14일(현지시간) IT매체 엔가젯에 따르면, 그록이 호주 시드니 본다이 비치에서 발생한 총격 사건과 관련한 사용자 요청에 잘못된 정보를 제공하거나, 아예 사건과 무관한 내용을 답변하는 사례가 확인됐다.
구체적으로 그록은 사건 당시 총격을 제지한 인물을 담은 영상에 대해 여러 차례 인물을 잘못 식별하거나, 해당 인물의 역할을 엉뚱하게 설명하는 오류를 보였다. 일부 응답에서는 동일한 이미지를 두고 팔레스타인 지역에서의 민간인 표적 사격 의혹과 관련된 전혀 관계없는 정보를 제시하는 등 맥락을 벗어난 답변도 나타났다.
이 같은 혼선은 이후에도 이어졌다. 그록은 본다이 비치 총격 사건과 직접적인 관련이 없는 질문에도 해당 사건 정보를 끼워 넣거나, 다른 총격 사건과 내용을 혼동해 설명하는 등 일관성 없는 반응을 보였다는 지적이다.
그록 개발사인 xAI는 이번 오류와 관련해 아직 공식 입장을 내놓지 않았다. 다만 이번 사례는 처음이 아니다. 그록은 앞서 엘론 머스크와 관련된 부적절한 답변을 내놓거나, 스스로를 메카히틀러(MechaHitler)로 지칭하는 등 일탈적인 발언으로 논란을 빚은 바 있어, AI 챗봇의 정확성과 안전성을 둘러싼 우려가 다시 커지고 있다.
<저작권자 Copyright ⓒ 디지털투데이 (DigitalToday) 무단전재 및 재배포 금지>
