컨텐츠 바로가기

11.27 (수)

이슈 인공지능 시대가 열린다

기술의 얼굴을 한 기만…AI 의인화 논쟁

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다
한겨레

지피티-포오 공개로 다시 소환된 2013년 개봉 영화 ‘허(Her)’. 남자 주인공 테오도르는 자신의 인공지능(AI) 비서 사만다와 사랑에 빠진다. 워너브라더스 제공

<이미지를 클릭하시면 크게 보실 수 있습니다>


오픈에이아이(Open AI)의 지피티-포오(GPT-4o), 구글 제미나이 등 최첨단 인공지능 모델이 잇따라 공개되면서 에스에프(SF) 영화 속에서나 가능한 미래가 현실화하고 있다. 새 모델들은 사람처럼 보고 듣고 말하는 멀티모달 기능에 자연스러운 대화도 가능하다. 사람을 뛰어넘는 범용 인공지능(AGI) 시대의 개막이라는 평가 속, 개인의 일상과 사회 전반에 미칠 영향에 관심이 쏠리고 있다.



■ 사람과 구별 어려워진 AI



사람과의 자연스런 상호작용은 지피티-포오가 선보인 기능 중 가장 눈길을 끄는 대목이다. 오픈에이아이가 공개한 영상에 따르면, 사용자 목소리에서 감정을 감지하고 카메라로 얼굴 표정을 읽어내 톤도 바꾼다. 상황에 따라 때로는 노래하는 소프라노처럼 말하다가 어느 순간 장난스런 유머도 구사한다. 심지어 도발적인 감정 표현도 하고. 응답도 시차 없이 즉각 이루어진다. 사람과의 구별이 쉽지 않아 “비인격적인 인공지능 비서의 시대가 막을 내리고 있다”는 평가가 나온다.



이처럼 기계에 인간과 같은 특성을 부여하는 의인화는 사람과 기술간의 연결감을 강화하기 위한 의도적 기획이다. 사람을 모방하는 인공지능 기술은 ‘마음의 작동’까지 닮아가고 있다. 지난 20일 과학잡지 ‘네이처 휴먼 비헤이비어’에 실린 연구에 따르면, 일부 대규모 언어 모델은 사람들의 마음 상태를 추적하는 능력 테스트에서 인간보다 뛰어난 능력을 보였다. 물론 ‘확률적 앵무새’, 즉 통계에 기반을 둔 예측에 불과한 인공지능 시스템이 인간 감정을 파악하는 것은 애당초 불가능하지만 부단한 학습을 통해 상대의 의도를 추론·소통·공감하는 인간 마음 본연의 기능에 근접해가고 있음을 의미하는 연구다.



■ AI 의인화가 감추고 있는 것들



인공지능의 의인화를 둘러싼 논란은 이전에도 있었다. 2022년 6월, 구글 인공지능 부서의 수석 소프트웨어 엔지니어 블레이크 르모인은 구글의 인공지능 챗봇 ‘람다’와 대화한 후 인공지능이 사람 같은 인격과 감정을 갖고 있다고 주장해 충격을 안겼다. 지난해 3월에는 심각한 기후우울증에 빠진 벨기에의 한 남성이 인공지능 챗봇 일라이자와 기후위기 관련 대화를 6주간 나누다 스스로 목숨을 끊은 사건이 보도되었다. 기후위기를 해결할 방안이 없다고 절망한 이 남자는 모든 질문에 대답하고 든든한 친구가 되어 준 일라이자에게 인격을 부여하고 애착 관계를 형성한 것으로 알려졌다. 인공지능 시스템을 감정과 자아를 가진 하나의 인격으로 대하는 것을 ‘일라이자 효과’라고 부른다. 1966년 엠아이티(MIT)의 컴퓨터 과학자 조셉 바이젠바움이 만든 대화 프로그램에서 따온 이름이다.



의인화를 둘러싼 가장 큰 논란은 인공지능이 인간처럼 자의식을 가지고 인류를 조종할 수 있다는 불안·공포의 확산이다. 지난해 3월 최첨단 인공지능 개발을 둘러싼 경쟁을 우려한 이 분야 최고 리더들은 6개월간 최첨단 인공지능 개발을 중단하자고 제안한 바 있다. 과도한 우려는 규제 촉구로 이어지지만, 인공지능의 초월적 능력을 과대 포장해 기술만능주의의 확산을 부추기는 역효과도 있다.



더 중요한 대목은 사람보다 매력적이며 설득력까지 겸비한 인공지능 등장이 빅테크의 이윤추구 전략과 깊은 연관이 있다는 점이다. 전치형 카이스트 과학기술정책대학원 교수는 “인공지능의 의인화 전략은 사람들의 감정적 버튼을 자극하고 구매를 촉발하려는 자본의 이윤추구와 무관하지 않다”고 말한다.



오픈에이아이가 인공지능 의인화에 적극적인데 반해, 비슷한 시기 구글의 인공지능 제미나이는 절제되고 로봇 같은 어투를 선보여 대조적이다. 구글 딥마인드 연구원들이 발표한 ‘고급 인공지능 비서의 윤리’라는 논문에 따르면, “인간을 닮은 인공지능 비서가 늘어나면 새로운 개인정보 보호 위험과 새로운 형태의 기술 중독, 정보 조작에 이르기까지 많은 문제가 발생할 수 있기” 때문으로 빅테크 내에서도 우려가 표출되고 있다.



■ AI 의인화 규제 방안



지난해 6월, 노르웨이 소비자위원회는 생성형 인공지능이 대다수 사람에게 미칠 영향을 분석한 ‘기계 속의 환영’ 보고서를 펴냈다. 보고서에는 인공지능 의인화가 가져올 위험도 담겨 있는데 “생성형 인공지능 모델이 인간의 감정을 모방하는 콘텐츠를 생성할 수 있다는 것은 본질적으로 조작이 가능하다는 것을 의미한다”고 짚었다. “일상적인 대화형 말투와 이모티콘의 사용은 소비자가 인공지능과 쉽게 관계 맺도록 하는 방법이지만, 특정 행동을 취하지 않으면 죄책감을 느끼거나 서비스에 비용을 지불하도록 악용될 수도 있다”고도 경고했다. 보고서는 1인칭 언어 사용, 이모티콘 및 유사한 기호 사용, 인간의 감정 및 유사한 속성 시뮬레이션 등의 규제를 제안했다.



정보기술과 인권 문제를 오랫동안 연구해온 정보인권연구소 장여경 이사는 “사람과 인공지능 간 친밀한 관계가 형성되면서 특정 집단이 아닌 보통의 사람이 기술의 영향을 받는 초유의 상황으로 변하고 있다”며 “인공지능 정책에서 대부분의 사람을 고려해야 하는 거대한 실험이 시작되고 있다”고 짚었다.



한귀영 사람과디지털연구소 연구위원 hgy4215@hani.co.kr







▶▶권력에 타협하지 않는 언론, 한겨레 [후원하기]
▶▶한겨레 뉴스레터 모아보기▶▶[기획] 누구나 한번은 1인가구가 된다


기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.