<이미지를 클릭하시면 크게 보실 수 있습니다> |
[디지털투데이 AI리포터] 급속도로 발전하고 있는 생성 인공지능(AI)은 복잡한 계산이나 문서 요약 등을 단 몇 초 만에 수행해 주지만, 허위나 오해를 불러일으킬 수 있는 정보를 사실로 제시하는 '환각(hallucination)'이라는 문제 역시 존재한다.
최근 발렌시아 AI 연구소가 오픈AI의 GPT 시리즈와 메타의 라마(LLaMA) 등 대규모언어모델(LLM)을 대상으로 조사한 결과, 고성능 모델일수록 환각이 더 많이 발생하는 것으로 나타났다고 29일(현지시간) 온라인 매체 기가진이 전했다.
호세 에르난데스 오랄로(José Hernández Ollaro) 연구팀은 GPT 시리즈와 라마, 빅사이언스(BigScience)의 오픈소스 언어모델 '블룸'(BLOOM) 등을 대상으로 이들 모델에 지리, 과학, 애너그램 등에 관한 수천 개의 질문을 던져 답변을 분석했다.
실험 결과 간단한 질문에서는 이러한 모델의 10%가 잘못된 답을 제시했고, 어려운 질문에서는 40%의 답변이 오류를 포함하고 있었다.
이에 따라 연구팀은 간단한 질문에 대한 성능을 향상시키기 위해 복잡한 질문에는 답변을 거부하도록 챗봇을 프로그래밍할 것을 권장하고 있다. 다만 챗 GPT와 같은 다목적 챗봇을 제공하는 기업에게 이러한 개선을 일반 고객에게 제공하고자 하는 것이 아니라는 지적도 있다.
<저작권자 Copyright ⓒ 디지털투데이 (DigitalToday) 무단전재 및 재배포 금지>
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.