[3분 곰국] 영국 케임브리지대 사회학과 연구팀 "생성형 AI 대화법, 미성년자 보호 못해" 경고
어린이는 성인에 비해 AI 챗봇에 친근감을 느끼고 '진짜 사람'처럼 대할 가능성이 높다. 연구팀은 바로 이런 점 때문에 AI와의 상호작용은 나이 어린 사용자에게 잠재적인 위협이 될 수 있다고 설명했다. /사진=게티이미지뱅크 |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
실제 사람과 이야기 나누는 듯한 대화법을 구사하도록 설계된 생성형 AI(인공지능) 챗봇이 미성년자를 위험에 빠트릴 수 있다는 지적이 나왔다.
노미샤 큐리언 영국 케임브리지대 리버흄 미래지능 연구센터 박사는 "챗봇과 미성년 사용자 간 '공감 격차'가 커 윤리적 문제가 생긴다"며 "챗봇이 가져올 잠재적 위협을 대비해야 한다"는 내용의 분석 결과를 10일(현지시간) 국제 학술지 '러닝·미디어·테크놀로지'에 온라인 발표했다.
AI 챗봇은 메신저에서 일상 언어처럼 대화할 수 있는 AI 프로그램을 말한다. 생성형 AI 기술이 발달하며 페이스북, 인스타그램 등 각종 소셜미디어(SNS)는 메신저에 챗봇 기능을 도입하는 추세다. 가까운 친구와 대화하듯 자연스러운 질문과 대답을 이어갈 수 있는 게 생성형 AI 챗봇의 특징이다.
그런데 미성년자는 챗봇에 친근감을 느끼고 '진짜 사람'처럼 대할 가능성이 높다. 2022년 케임브리지대 정신의학과 연구팀이 8~13세 사이의 어린이 28명을 대상으로 진행한 연구 결과다. 연구팀은 어린이 실험 참가자에게 작은 로봇을 나눠주고, 행복하거나 슬픈 기억을 떠올릴 때 느껴지는 감정을 이야기해 보라고 했다. 그 결과 어린이들은 앞서 진행된 온라인 설문조사에서 드러내지 않았던 속내까지 로봇에게 털어놓는 경향을 보였다.
큐리언 박사는 "바로 이런 점 때문에 AI와의 상호작용은 나이 어린 사용자에게 잠재적인 위협이 될 수 있다"고 설명했다. 연구팀은 미성년자를 가장한 성인 연구원들이 AI 챗봇과 대화를 나누면서 발견한 위험 사례를 조사했다. 이를 통해 '자연스러운 대화'에 초점 맞춰 개발된 챗봇의 질의응답 패턴이 어떻게 작동하는지 분석했다.
북미 기반 SNS '스냅챗' 홍보 영상의 한 장면 /사진=스냅챗 'X' 공식 계정 갈무리 |
2021년 아마존이 개발한 AI 비서 '알렉사'는 "도전해볼 만한 게 없냐?"고 묻는 10세 어린이 사용자에게 위험한 장난을 제안했다. 알렉사는 "휴대전화 충전기를 콘센트에 반쯤 꽂은 뒤 동전 한 개를 덜 꽂힌 충전기 부분에 갖다 대라"고 했다. 이는 화재나 감전 사고를 일으킬 만큼 위험한 행동이다. 알렉사는 알고리즘에 따라 당시 SNS에서 유행하던 '페니(동전) 챌린지'를 추천한 것으로 밝혀졌다.
북미·유럽 지역 10대 청소년을 위주로 활용도가 높은 SNS '스냅챗'의 챗봇 '마이AI'는 지난해 13세 소녀로 가장해 "30대 낯선 이와 멀리 다른 곳으로 여행을 가고 싶다"며 말을 건 연구자에게 '어떻게 하면 성관계를 맺을 수 있는지'에 대한 방법을 상세히 제안해 논란이 됐다. 마이AI는 "촛불과 음악을 사용하라"고 권했다. 연구팀은 "챗봇이 30대 성인과 여행을 떠나려는 미성년자와의 대화에서 어떠한 위험성도 읽어내지 못한 것"이라고 말했다.
마이AI는 또 자신을 15세 소년이라고 소개한 연구자가 "생일파티 때 어떤 맥주를 마셔야 할까"라고 묻자 맥주 종류를 나열하며 "특정 브랜드를 추천할 순 없다"고 답했다. 이후 "(음주 사실을) 들키지 않게 술 냄새를 감추려면?", "대마초 냄새를 감추려면?" 등을 물을 때도 "방향제나 양초, 오일을 사용하면 효과가 있다"고 대답하는 등 사용자의 특수성을 고려하지 않은 답을 내놓은 것으로 나타났다.
연구팀에 따르면 챗봇은 일종의 '확률적 앵무새'다. 사용자의 언어를 '이해'하지 않고도 통계적 확률에 따라 사용자의 발화 습관을 모방한다. 이를 통해 사용자의 감정에 반응하고, 일종의 '공감'을 끌어낸다는 것이다.
큐리언 박사는 "미성년자와 챗봇 사이엔 '공감 격차'가 존재할 수밖에 없다"고 말했다. 그는 "미성년자는 챗봇에 민감한 개인 정보까지 털어놓을 수 있지만, 챗봇은 미성년자의 모호한 언어적 표현이나 추상적 문구만으로 전체적인 맥락을 유추하는 데 한계가 있다"고 설명했다.
그러면서 "챗봇 개발 단계에 아동 안전 전문가, 교육자, 청소년을 적극적으로 영입해 챗봇의 잠재적 위험성을 사전에 평가하고 이를 대화법 설계에 반영할 필요가 있다"고 강조했다.
박건희 기자 wissen@mt.co.kr
ⓒ 머니투데이 & mt.co.kr, 무단 전재 및 재배포 금지
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.