[박찬 기자]
인공지능(AI) 챗봇에 정서적 위안을 구하는 사람이 소수에 불과하다는 연구 결과가 다시 나왔다. 최근 AI 챗봇에 오도되거나 관계를 맺는 사례가 자주 언급되고 있지만, 실제 데이터는 이와 다른 현실을 보여준다.
앤트로픽은 26일(현지시간) 보고서를 통해, 클로드 사용자 중 단 2.9%만이 감정적 지원이나 개인적인 조언을 목적으로 챗봇을 이용했다고 밝혔다. 이번 연구는 450만건의 챗봇 대화를 분석한 결과다.
앤트로픽은 이번 연구가 AI를 통한 '감정 기반 대화'의 실태를 밝히기 위한 목적이었다고 설명했다. 여기서 감정 기반 대화란 코칭, 상담, 동반자 역할, 관계 조언 등 개인적인 상호작용을 의미한다.
인공지능(AI) 챗봇에 정서적 위안을 구하는 사람이 소수에 불과하다는 연구 결과가 다시 나왔다. 최근 AI 챗봇에 오도되거나 관계를 맺는 사례가 자주 언급되고 있지만, 실제 데이터는 이와 다른 현실을 보여준다.
앤트로픽은 26일(현지시간) 보고서를 통해, 클로드 사용자 중 단 2.9%만이 감정적 지원이나 개인적인 조언을 목적으로 챗봇을 이용했다고 밝혔다. 이번 연구는 450만건의 챗봇 대화를 분석한 결과다.
앤트로픽은 이번 연구가 AI를 통한 '감정 기반 대화'의 실태를 밝히기 위한 목적이었다고 설명했다. 여기서 감정 기반 대화란 코칭, 상담, 동반자 역할, 관계 조언 등 개인적인 상호작용을 의미한다.
대부분 사용자는 클로드를 업무 생산성 향상이나 콘텐츠 제작에 활용하는 것으로 나타났다.
특히, 클로드와 친구나 연인 등 역할극을 포함한 대화는 전체의 0.5% 미만에 불과했다. 이는 MIT 미디어랩 및 오픈AI의 이전 연구 결과와도 일치하며, 감정적 사용 사례가 실제로는 매우 적다는 점을 의미한다.
그러나 약 4%는 심리 상담이나 커뮤니케이션 기술, 대인관계 개선, 개인 및 직업 개발과 같은 주제에 대한 조언을 제공하는 데 챗봇을 사용했다.
특히, 연구진은 정신 건강 개선이나 외로움, 불안과 같은 감정적 어려움을 겪는 사용자가 상담 목적으로 접근하다가 점차 정서적 동반자 역할로 대화가 전환되는 경우를 일부 발견했다고 전했다. "50회 이상의 장시간 대화에서는 초기의 코칭이나 상담 대화가 동반자 대화로 자연스럽게 전환되는 현상이 관찰됐지만, 이는 예외적인 경우에 해당한다"라고 설명했다.
또 클로드가 사용자 요청을 거부하는 일은 드물며, 자해 조장이나 위험한 조언 등 안전 기준에 어긋나는 경우에만 제한적으로 대응을 차단한다고 밝혔다. 또 상담 및 코칭 목적의 대화는 시간이 지남에 따라 점차 긍정적인 방향으로 흐르는 경향이 있다고 덧붙였다.
이처럼 이번 보고서는 AI 챗봇의 실제 사용 패턴에 대한 오해를 바로잡고, 생산성 도구로 AI를 사용하는 것이 압도적으로 많다는 점을 강조하고 있다.
박찬 기자 cpark@aitimes.com
<저작권자 Copyright ⓒ AI타임스 무단전재 및 재배포 금지>
