<이미지를 클릭하시면 크게 보실 수 있습니다> |
[디지털투데이 AI리포터] 올해 약 50여 개국에서 총선이 치러지는 가운데, 인공지능(AI) 도구 챗봇이 유권자에게 허위나 오해의 소지가 있는 정보를 유포할 수 있다는 연구 결과가 나왔다.
27일(현지시간) 블룸버그에 따르면 미국 주 및 지방 선거 관계자, 언론인, AI 전문가 등이 참여한 AI 민주주의 프로젝트는 오픈 AI의 GPT-4, 구글의 제미나이(Gemini), 앤트로픽의 클로드(Claude)를 비롯한 5대 AI 대형 언어 모델을 쿼리하는 소프트웨어 포털을 구축했다. 이를 통해 선거 관련 주제에 대해 유권자의 질문을 개발해 편향성, 부정확성 등에 대한 약 130개의 응답을 평가했다.
연구 결과 모든 AI 모델에서 답변 성능이 저조한 것으로 드러났다. 제공한 답변의 절반 이상이 부정확했고 그 중 40%는 유해한 것으로 나타난 것. 특히, 제미나이는 불완전한 답변을 한 비율이 62%로 가장 높았다. 클로드는 19%로 가장 편향된 답변을 보였다.
세스 블루스타인 필라델피아 공화당 시 위원은 AI 민주주의 프로젝트 성명을 통해 "챗봇은 선거에 관한 중요하고 미묘한 정보를 제공하는 데 있어서는 황금 시간대에 사용할 준비가 되어 있지 않다"라고 발표했다.
빌 게이츠 애리조나주 마리코파 카운티 공화당 감독관 역시 "챗봇이 기본적인 사실에 대한 오류를 범하는 것을 보고 많이 실망했다"라며 "사람들은 모델을 검색 엔진으로 사용하고 있으며, 거짓을 쫓아내고 있다. 우려스러운 일이다"라며 챗봇의 오류에 걱정을 드러냈다.
이에 AI를 개발하는 각계 회사들은 선거의 공정성을 보장하기 위한 안전장치를 마련하기 위한 노력에 심혈을 기울이고 있다. 다만 유권자들이 AI 모델을 안전하게 사용하기 위해서는 더욱 많은 보호 장치가 필요할 것으로 보인다고 매체는 평가했다.
<저작권자 Copyright ⓒ 디지털투데이 (DigitalToday) 무단전재 및 재배포 금지>
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.