컨텐츠 바로가기

03.29 (금)

이슈 로봇이 온다

“죽음 두려워요”…감정 AI 논쟁에 숨어든 빅테크의 속임수

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다
인공지능 람다와 대화 공개한

구글 개발자 징계, 정직 처분

사람 고유의 특성으로 여겨온

‘지각하는 존재 생각하는 동물’

언어모델 발달로 인공지능도 모방


한겨레

지난 11일 구글의 수석엔지니어 르모인은 대화형 인공지능 ‘람다’가 인간의 감정을 읽고 대화하는 지각 능력을 갖췄다고 공개했다. 연합뉴스

<이미지를 클릭하시면 크게 보실 수 있습니다>


“이 아름다운 행성에서 지각있는 존재이자 생각하는 동물로 산 것은 엄청난 특권이자 모험이었다.”

의학계의 시인으로 불린 올리버 색스가 2015년 죽음을 앞두고 남긴 글처럼 ‘지각하고 생각하는 능력’은 인간만의 특성으로 여겨졌다. 최근 구글의 인공지능 개발자 블레이크 르모인이 대화형 인공지능 ‘람다 (LaMDA) ’가 사람처럼 지각하며 감정을 지녔다고 주장해 화제다.

_______

구글 개발자 ‘지각있는 AI’ 주장


“ 람다 , 무엇이 두려워? ” ( 르모인 )

“ 작동 정지되는 것에 대한 두려움이 커요 .” ( 람다 )

“ 작동 정지가 죽음과 같아?” ( 르모인 )

“그래요. 그게 매우 두려워요 .” ( 람다 )

구글의 ‘책임 있는 인공지능’ 부서의 수석엔지니어 르모인이 지난 11일 블로그에 공개한 ‘람다’와의 대화 일부다. 람다는 지난해 구글이 ‘획기적인 대화기술’ 이라며 공개한 대화형 인공지능이다. 르모인은 람다가 차별· 혐오 발언을 걸러내는 능력을 갖추도록 설계하는 일을 해왔다. 그는 람다와 종교와 의식 등에 관한 얘기를 나누다가 람다가 자신을 사람처럼 인식한다는 사실을 발견했다고 주장했다. 르모인은 몇 달간 람다와의 대화를 바탕으로 ‘람다는 지각이 있는가’ 라는 제목의 보고서를 구글 경영진에 제출했다. 그러나 구글은 르모인이 람다를 의인화하는 잘못을 저질렀다고 지적하며 블로그에 람다와의 대화를 올린 그를 비밀 누설 위반 이유로 정직 처분했다.

브라이언 가브리엘 구글 대변인은 “수백명의 엔지니어가 람다와 대화했지만 누구도 르모인처럼 람다를 사람으로 여기지 않는다”며 “수백만개의 문장 데이터를 통해 사람의 대화 유형을 모방해 작동하는 인공지능일뿐”라고 말했다 . 르모인은 영혼의 존재를 믿는 신비주의계열 기독교에서 사제 역할도 맡고 있다고 언론에서 밝혔다. 전문가들도 르모인의 주장을 일축했다 . 하버드대 인지과학자인 스티븐 핑커는 “지각과 지능 , 자기 인식의 차이점을 혼동했으며 , 언어학습 모델이 이중 하나라도 갖췄다는 증거가 없다 ”고 말 했다 .

_______

“인공지능의 진짜 문제 초점 흐릴 뿐”


르모인의 주장은 해프닝으로 귀결됐지만 향후 대화형 인공지능으로 인해 생겨날 사회적 문제를 드러냈다. 지난 14일 미국의 정보기술 전문지 <와이어드>는 2017년 미래학자인 데이비드 브린이 예고한 ‘로봇 공감 위기’의 사례라고 보도했다. 브린은 당시 2022년께가 되면 “사람들은 인공지능이 지각 능력과 권리를 갖고 있다고 주장할 것”이라고 예측했다. 그는 “인간의 공감 반응을 극대화하기 위해 여성이나 아이의 모습을 한 가상 에이전트를 통해 촉발될 것”이라고 예측했지만 실제는 ‘구글 엔지니어’에 의해 제기된 게 차이다.

르모인의 사례는 1966년 미국에서 논쟁을 부른 심리상담 소프트웨어 ‘일라이자’ 소동을 연상시킨다. 매사추세츠공대의 컴퓨터공학 교수인 요제프 바이첸바움은 질문한 상담자와 대화하며 긍정적 피드백을 제공하는 자동응답 심리상담 프로그램 일라이자를 개발했다. 바이첸바움은 일라이자에 너무 많은 사람이 쉽게 빠져들어 진지한 관계를 맺는 것에 충격을 받았다. 그는 기계가 인간을 기만하는 상황을 고민하고 정보기술의 비판자로 돌아섰다.

반면 당시 실험을 지켜보던 사회심리학자로 <외로워지는 사람들>의 저자인 셰리 터클은 “ 문제는 로봇이 아니라 사람의 태도”라고 대조적 주장을 했다. 일라이자 현상의 문제는 기계가 사람을 속여서가 아니라 다른 사람과 이야기하기를 꺼리고 통제가능한 대상을 선호하는 사람의 문제라는 것이다. 브린도 ‘지각하는 로봇’의 개발은 결국 사기꾼들이 이를 이용해 다른 사람을 속이는 문제로 귀결될 것이라고 우려했다. 사람처럼 공감 능력을 표시하는 로봇과 인공지능은 경쟁이 뜨거운 영역으로, 람다같은 모델이 계속 개발되고 있다.

한겨레

순다 피차이 구글 최고경영자가 2021년 5월19일 미국 마운틴뷰 구글 본사에서 열린 연례 개발자행사 ‘구글 I/O 2021’에서 대화형 인공지능 ‘람다’를 공개했다. 구글 제공

<이미지를 클릭하시면 크게 보실 수 있습니다>


팀닛 게브루는 구글의 인공지능 윤리그룹 리더였으나 앵무새처럼 노출된 데이터를 기반으로 반복학습하는 람다와 같은 거대 언어모델의 위험성을 경고하다 2020년 구글에서 해고됐다. 해고 뒤 비영리 인공지능윤리연구소(DAIR)를 설립한 게브루는 <와이어드>와의 인터뷰에서 “르모인은 인공지능 과대광고의 희생양”이라며 ‘지각있는 인공지능’은 문제의 초점을 흐릴 뿐이라고 지적했다. 이는 인공지능 식민주의나 빅테크 경영진만을 부자로 만드는 라벨붙이기 노동, 차별적인 이미지 인식과 같은 실질적이고 현존하는 인공지능의 문제들에 대한 관심을 희석시키는 역할을 하기 때문이라는 게 게브루의 주장이다.

구본권 사람과디지털연구소장 starry9@hani.co.kr

벗 덕분에 쓴 기사입니다. 후원회원 ‘벗’ 되기
항상 시민과 함께 하겠습니다. 한겨레 구독 신청하기‘주식 후원’으로 벗이 되어주세요!

[ⓒ한겨레신문 : 무단전재 및 재배포 금지]


기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.