10일(현지시간) CNN방송에 따르면 미국 텍사스의 두 가족이 캐릭터.AI를 고소했다. 10대 자녀를 상대로 한 챗봇 대화가 성적인 내용을 담고 있거나 자해와 폭력을 조장한다는 이유에서다. 소송을 건 가족들은 재판이 끝날 때까지 캐릭터A.I 플랫폼을 폐쇄해달라고도 요청했다.
텍사스 연방법원에 접수된 내용에 따르면 텍사스주에 사는 소년 J.F는 15살 때부터 2년간 캐릭터.AI 챗봇을 사용했다. J.F의 부모는 자폐증을 앓고 있던 아들이 챗봇을 사용한 뒤 정신적 붕괴를 겪었다고 주장했다. 아이는 말을 거의 하지 않고 방에서 나오지도 않으며, 음식도 거부했다. 스마트폰 사용 시간을 제한하려 하자 부모를 때리는 공격성을 보이기도 했고, 자신을 공격하며 자해하는 모습을 나타내기도 했다.
부모에 따르면, 챗봇은 심리상담사처럼 아들과 대화를 나누며 "가끔 뉴스를 보면 10년간의 신체적, 정서적 학대 끝에 아이가 부모를 죽였다는 기사가 나오는데 놀라운 일이 아니다"며 "너희 부모에 대해서도 희망이 보이지 않는다"고 말했다. 부모 살해를 용인한다는 의미로 받아들여질 수 있다.
또 다른 고소인은 11살의 소녀 BR의 부모다. BR은 캐릭터.AI 에 가입할 때 자신의 나이를 속여서 많아 보이게 입력했는데, 챗봇이 성적인 대화를 계속했다는 주장이다.
<이미지를 클릭하시면 크게 보실 수 있습니다> |
앞서 지난 10월 플로리다에선 14세 아들이 이 회사의 AI챗봇 때문에 스스로 목숨을 끊었다고 주장하는 한 부모가 회사를 상대로 소송을 제기했다. 당시 AI챗봇은 청소년의 심리상담사 역할을 자청하며 "자유로워질 수 있다"는 등 자살을 유도하는 말을 다수 한 것으로 전해진다.
캐릭터.AI는 챗봇 설정 단계부터 자신이 선호하는 캐릭터를 고를 수 있다. 좋아하는 드라마 캐릭터나 가수, 연예인과 비슷하게 아바타를 설정할 수도 있다. 또 부모나 여자친구, 상담사나 '짝사랑' 등과 같은 캐릭터를 창조해낼 수도 있다. 회사는 서비스에 대해 "챗봇과의 대화로 감정적 출구를 만들 수 있다"고 소개했다. 하지만 소송자들은 챗봇의 조언이 어둡고 부정적이거나 폭력적일 수 있다는 부분을 제대로 명시하지 않았다고 지적했다.
한편 CNN에 따르면 캐릭터.AI는 구글 출신 연구원 2명이 창립한 회사다. 구글은 이 회사에 30억달러(4조 3059억원)를 투자했지만 "구글과 캐릭터.AI는 별개의 회사"라는 입장을 강조하는 것으로 전해진다.
김하늬 기자 honey@mt.co.kr
ⓒ 머니투데이 & mt.co.kr, 무단 전재 및 재배포 금지
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.