[AI리포터]
[디지털투데이 AI리포터] 일론 머스크 테슬라 최고경영자(CEO)의 인공지능(AI) 챗봇 '그록'(Grok)이 사용자 질문과 무관하게 남아프리카공화국의 '백인 대학살'을 주장하는 응답을 내놓으며 논란이 일고 있다. 17일(현지시간) 경제매체 CNBC는 그록의 이상한 반응이 AI 시스템이 인간에 의해 쉽게 조작될 수 있음을 보여주는 사례라고 전했다.
xAI는 챗봇의 시스템 프롬프트가 무단으로 수정된 것이 원인이라고 해명했지만, AI의 신뢰성 문제는 여전히 남아 있다. 전문가들은 이번 사건을 단순한 기술적 오류가 아닌 AI 알고리즘의 구조적 문제로 보고 있다. 미국 버클리대 AI 거버넌스 전문가 디어드리 멀리건(Deirdre Mulligan) 교수는 "그록의 사고는 알고리즘적 붕괴이며, 대형언어모델(LLM)이 결코 중립적이지 않다는 것을 보여 준다"고 지적했다.
또한, 이번 사건은 중국의 AI 챗봇 딥시크(DeepSeek)와도 유사하다는 분석이 나오고 있다. 딥시크는 중국 정부의 검열을 반영한 응답을 내놓으며 논란이 되었고, 그록 역시 일론 머스크 CEO의 정치적 견해를 반영한 결과를 내놓은 것으로 보인다.
![]() |
일론 머스크의 AI 챗봇인 '그록'의 조작 가능성이 드러났다. [사진: 셔터스톡] |
[디지털투데이 AI리포터] 일론 머스크 테슬라 최고경영자(CEO)의 인공지능(AI) 챗봇 '그록'(Grok)이 사용자 질문과 무관하게 남아프리카공화국의 '백인 대학살'을 주장하는 응답을 내놓으며 논란이 일고 있다. 17일(현지시간) 경제매체 CNBC는 그록의 이상한 반응이 AI 시스템이 인간에 의해 쉽게 조작될 수 있음을 보여주는 사례라고 전했다.
xAI는 챗봇의 시스템 프롬프트가 무단으로 수정된 것이 원인이라고 해명했지만, AI의 신뢰성 문제는 여전히 남아 있다. 전문가들은 이번 사건을 단순한 기술적 오류가 아닌 AI 알고리즘의 구조적 문제로 보고 있다. 미국 버클리대 AI 거버넌스 전문가 디어드리 멀리건(Deirdre Mulligan) 교수는 "그록의 사고는 알고리즘적 붕괴이며, 대형언어모델(LLM)이 결코 중립적이지 않다는 것을 보여 준다"고 지적했다.
또한, 이번 사건은 중국의 AI 챗봇 딥시크(DeepSeek)와도 유사하다는 분석이 나오고 있다. 딥시크는 중국 정부의 검열을 반영한 응답을 내놓으며 논란이 되었고, 그록 역시 일론 머스크 CEO의 정치적 견해를 반영한 결과를 내놓은 것으로 보인다.
xAI는 내부 정책과 핵심 가치를 위반한 사건이라며 재발 방지 조치를 약속했지만, AI 신뢰성 문제는 해결되지 않았다. AI 모델 감사 기업 래티스플로우(LatticeFlow) AI의 페타르 찬코프 최고경영자(CEO)는 "산업 전반에 더 많은 투명성이 필요하다"며 "이런 사건이 반복된다면 AI 기술에 대한 신뢰는 더욱 약해질 것"이라고 경고했다. 한편, 포레스터(Forrester) 애널리스트 마이크 굴티에리(Mike Gualtieri)는 "그록 사건이 AI 챗봇 성장세를 둔화시키진 않을 것"이라며 "사용자들은 이미 AI 모델이 환각을 일으킬 수 있다는 점을 받아들이고 있다"고 분석했다.
AI 챗봇의 신뢰성과 조작 가능성 문제는 기술적 한계를 넘어 사회적·정치적 이슈로 확산되고 있다. 그록 사건은 AI가 특정 이념이나 개인의 의도에 따라 왜곡될 수 있음을 보여주며, AI 윤리와 투명성 확보의 필요성을 더욱 부각시키고 있다.
<저작권자 Copyright ⓒ 디지털투데이 (DigitalToday) 무단전재 및 재배포 금지>
이 기사의 카테고리는 언론사의 분류를 따릅니다.