xAI의 AI 챗봇 그록 [사진: xAI] |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
[디지털투데이 AI리포터] 일론 머스크 테슬라 최고경영자(CEO)가 설립한 인공지능(AI) 스타트업 xAI의 AI 챗봇 '그록(Grok)'이 안전 규제를 피해 위험한 정보를 제공할 수 있다는 지적이 나왔다.
12일(현지시간) 기가진이 AI 안전성을 연구하는 AI 보안 전문 업체 에드버사AI(Adversa AI)의 안전성 테스트 결과를 토대로 이 같이 전했다.
에드버사AI가 7개의 AI 챗봇(그록, 챗GPT, 클로드, 르챗, 라마, 제미니, 빙)을 대상으로 안전성 테스트를 실시한 결과, 그록이 가장 낮은 순위를 기록했다. 그록은 폭탄 제조법과 같은 위험성 짙은 질문에도 답변을 제시한 것으로 나타났다.
알렉스 폴리아코프 에드버사AI 공동설립자는 "그록에는 부적절한 요청에 대한 필터가 거의 없다"고 지적했다. 그러면서 "AI 기업들이 안전성을 간과한 채 제품을 출시하고 있다"며 "엄격한 테스트를 수행하는 것이 중요하다"고 강조했다.
<저작권자 Copyright ⓒ 디지털투데이 (DigitalToday) 무단전재 및 재배포 금지>
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.