AI(인공지능) 챗봇 참고 이미지/사진=게티이미지뱅크 |
미국 한 여성이 자신의 아들이 AI(인공지능) 챗봇과 대화를 나누다가 스스로 목숨을 끊었다며 캐릭터AI와 구글을 상대로 소송을 내 합의에 이르렀다.
7일(현지시간) 미국 뉴욕타임스, 월스트리트저널에 따르면 캐릭터AI와 구글은 14세 소년 어머니 A씨가 낸 소송을 합의로 마무리하기로 했다. 구체적인 합의 내용은 공개하지 않았다. 캐릭터AI와 구글은 유사한 소송에 대해서도 합의했다.
캐릭터AI는 구글 출신 엔지니어 2명이 설립했다. 구글은 캐릭터AI와 라이선스 계약을 맺은 뒤 엔지니어 2명을 다시 영입했다.
A씨는 지난해 10월 자신의 14세 아들이 캐릭터AI 챗봇과 메시지를 주고받은 뒤 스스로 목숨을 끊었다며 소송을 제기했다. 또 수개월간 챗봇과 성적인 대화를 나누며 감정을 쌓았다고 주장했다. 그러면서 해당 플랫폼에 청소년을 보호하고 보호자에게 상황을 알릴 만한 장치가 없었다고 지적했다.
A씨뿐만 아니라 챗봇과 대화하다가 아동·청소년이 자해에 이르렀다는 등의 소송이 잇따라 제기됐다. 유사한 문제가 이어지자 캐릭터AI는 지난해 11월 18세 미만 아동·청소년의 챗봇 사용을 금지했다.
양성희 기자 yang@mt.co.kr
Copyright ⓒ 머니투데이 & mt.co.kr. 무단 전재 및 재배포, AI학습 이용 금지.
