컨텐츠 바로가기

04.24 (수)

[홍성욱의 포스트휴먼 오디세이 <9>]"우울하다니 안됐네요"…말을 건 채팅봇, '마음'이 있을까

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다
[<9>AI와 인간의 차이점… 인간역할 완벽 수행 vs 감정없는 AI의 비도덕성…AI, 격렬한 논쟁의 핵이 되다]

머니투데이

<이미지를 클릭하시면 크게 보실 수 있습니다>



1956년 존 맥카시(John McCarthy)에 의해서 조직된 AI(인공지능)에 대한 다트머스(Dartmouth) 학회는 맥카시, 마빈 민스키(Marvin Minsky), 앨런 뉴얼(Allen Newell), 허버트 사이먼(Herbert Simon)이라는 네 명의 AI 연구자들을 한자리에 모이게 했다. 이들은 불과 몇 주 동안 의견을 교환하고 헤어졌지만, 이후 MIT(민스키), 스탠퍼드(맥카시), 카네기멜론 대학교(뉴얼, 사이먼)에 인공지능 연구 센터를 설립하고 AI에 대한 연구를 주도했다. 앞의 글에서 지적했지만, 이런 의미에서 1956년은 인공지능이 탄생한 해였다.

이들 모두는 사이버네틱스에 기원을 둔 신경망 접근법을 거부하고 기호논리에 근거한 '기호 AI'(symbolic AI)의 접근법을 택했다. 이들의 초기 연구는 대략 세 가지 방향으로 진행되었다.

하나는 인간을 이기는 체스 프로그램을 만드는 것이었다. 체스 프로그램은 컴퓨터 속도와 용량이 발전함에 따라서 급격하게 발전했는데, 1967년에 한 체스 프로그램은 매사추세츠 주의 챔피언 경기에 출전한 선수에게 첫 승리를 거두었다. 두 번째 연구 방향은 논리적 결정을 내리는 인공지능이었다. 뉴얼과 사이먼의 “논리 이론가” 프로그램(1955)은 복잡한 논리 문제를 순식간에 풀었고, 이들은 이를 확장해서 일반적인 지적 결정을 내리는 “범용 문제 해결사”(General Problem Solver)라는 프로그램을 만들었다.

마지막 세 번째 방향은 컴퓨터가 인간의 자연언어를 이해하게 하는 것이었다. 이를 위해서는 인간이 사용하는 언어의 구조를 분석해서 이를 입력해야 했다. 사람이 적절한 말을 입력하면, 컴퓨터는 이미 입력된 언어 구조에 맞춰서 이를 판독한 뒤에 적절한 방식으로 답을 했다.

MIT의 컴퓨터 공학자 조지프 와이젠바움(Joseph Weizenbaum)은 언어를 이해하는 첫 번째 AI 프로그램 '일라이자'(ELIZA)를 개발했다(1966). 일라이자는 사람과 채팅을 하는 프로그램이었는데, 특히 심리 상담을 하는 정신과 의사를 훌륭하게 흉내 냈다.

젊은 여성: “남자는 다 똑같아요”

일라이자: “어떤 의미에서요?”

젊은 여성: “남자는 항상 우릴 들들 볶아요”

일라이자: “구체적인 예를 들어 줄래요?”

...

젊은 여성: “그는 내가 항상 우울하다고 해요”

일라이자: “우울하다는 얘길 들어서 안됐습니다.”

젊은 여성: “사실이에요. 나는 불행해요.”

일라이자: “여기 오면 불행에 도움이 될 수 있다고 생각해요?”


이런 발전을 이룬 AI 분야의 선구자들은 낙관론과 유토피아적인 비전을 공유했다. 이들은 가까운 미래에 AI가 인간의 주관이나 편견에 오염되지 않은 판단과 지식을 낳음으로써, 인간과 기계 사이의 갈등을 해소함은 물론 주관성과 객관성 사이에 존재하던 오랜 갈등과 긴장을 완전히 해소할 수 있을 거로 전망했다.

'논리 이론가'를 만든 사이먼은 이 프로그램이 인공지능 컴퓨터 같은 “물질로 구성된 시스템이 어떻게 마음의 속성을 가질 수 있는지”를 보임으로써 서양 철학의 오래된 '마음/몸(mind/body)의 문제'를 완전히 해결했다고 했다. 논리 문제를 푸는 컴퓨터는 기계적 연산을 하는 컴퓨터의 연장이라고 볼 수 있었지만, 사이먼에게 인공지능은 과거의 컴퓨터와는 전혀 다른 새로운 패러다임이었다.

1958년에 사이먼과 뉴얼은 10년 내 컴퓨터 프로그램이 세계 체스 챔피언을 이기고, 새로운 수학 명제를 만들어 증명할 것이라고 단언했으며, 1967년에 마빈 민스키는 10년 내에 AI를 만드는 데 필요한 모든 문제가 해결된다고 전망했다.

같은 해에 사이먼은 심리학 이론이 컴퓨터 프로그램 비슷해질 것이라고 했고, 1970년에 민스키는 몇 년 사이에 인간의 일반지능 정도를 가진 AI 기계를 가지게 될 것이라고 피력했다. 연구자들의 낙관론은 단순히 인간처럼 생각하는 AI를 만드는 데에 머물지 않았다.

이들은 AI가 서양 철학의 오랜 주제였던 인식론과 존재론의 난제들을 해결해줄 수 있다고 믿었다. 예를 들어, AI가 가능한 선택지를 평가하고 이 중 하나를 고르는 과정에 대한 이해는 자유의지와 결정론 사이의 철학적 모순을 해결해 줄 수 있다는 것이었다. 더 나아가서 맥카시는 믿음, 지향(intentions), 욕구와 같은 인간의 정신적인 특질을 기계에 부여할 수 있다고 주장했다.

AI에 대한 이런 낙관론에 대한 비판은 철학자들에게서 나왔다. 영국의 철학자 루카스(J. R. Lucas)는 인간의 마음이라는 것이 부분으로 환원되지 않는다는 점에 근거해서 마음이 기계의 메커니즘과는 본질로 다르며, 따라서 아무리 AI가 발전해도 인간의 마음을 흉내 낼 수 없다고 주장했다.

그는 수학에서 참이라고 인정된 괴델의 정리에 근거해서 이런 주장을 폈다. 괴델의 정리에 따르면 수학적 명제들은 닫힌 형식 체계 내에서만 진리 값을 갖는데, 인간은 (괴델의 정리에서 보듯이) 형식 체계밖에 위치할 수 있지만 하나의 체계에만 머무르는 컴퓨터는 그럴 수 없다는 것이었다.

머니투데이

휴버트 드레이퍼스



머니투데이

미국의 철학자 휴버트 드레이퍼스(Hubert Dreyfus)는 마르틴 하이데거나 메를로퐁티 같은 유럽 철학 전통에 근거해서, 인간의 사고가 정해진 규칙에 따라서 상징을 조작하는 것이라는 AI 연구의 근간을 공격했다.

드레이퍼스에 의하면 인간의 사고와 행동은 우리가 이미 알고 있는 복잡한 '맥락'(context) 속에서 일어난다. 이것은 컴퓨터가 정보를 처리하는 선형적인 방식이 아니라, 거의 무의식적으로, 직관적으로, 여러 단계를 건너뛰면서 나타난다는 것이다. 드레이퍼스는 AI가 이런 “맥락”을 포함하지 않는 한 실패할 수밖에 없는 프로그램이라고 비판했다.

머니투데이

존 설의 중국어방 논변. 방 안에 있는 사람은 중국어를 전혀 이해하지 못하면서도 매뉴얼을 이용해서 중국어를 이해하는 것 같은 인상을 줄 수 있다. 인공지능도 마찬가지라는 것이 설의 주장이다. Source: Wikimedia.

<이미지를 클릭하시면 크게 보실 수 있습니다>


또 다른 철학자 존 설은 유명한 ‘중국어 방’(Chinese Room) 논변을 폈다. 중국어를 전혀 모르는 사람이 단어 카드가 잔뜩 들어 있는 방에 있다. 적절한 중국어 매뉴얼이 주어지면 그는 방 밖에서 입력하는 중국어 질문에 대해 적당한 중국어 대답을 할 수 있다. 밖에서 보면 마치 중국어를 이해하는 듯 보이지만, 사실 이 모든 과정은 중국어를 전혀 모르는 채 진행된 것이다. 설은 이것이 AI 컴퓨터가 질문에 답하는 방식이라고 생각했다.

일부 AI 전문가들은 이런 철학자들의 비판에 응수하기도 했고 다시 역비판하기도 했지만, 대부분은 무시하거나 조롱했다. 철학자들은 컴퓨터 프로그램을 써 본 경험이 없는 비전문가이기에 이들의 비판에 귀를 기울일 필요가 없다는 것이다.

스탠퍼드 대학교의 AI 연구팀은 드레이퍼스를 불러서 자신들이 개발한 체스 프로그램과 대국을 시켰고, 이 경기에서 드레이퍼스가 패하자 이를 근거로 그를 실컷 야유했다. 존 설의 ‘중국어 방’ 논변에 대해서도 인지과학자와 철학자들로부터 숱한 비판이 쏟아졌지만, AI 연구자들은 그가 AI를 이해하지 못한다며 ‘중국어 방’ 논변을 언급하는 것 자체를 피했다.

그렇지만 AI 프로그래머들이 무시할 수 없는 비판도 있었다. 그 비판은 놀랍게도 ‘일라이자’를 개발한 와이젠바움에게서 나왔다. 와이젠바움은 자신의 간단한 프로그램과 대화를 나눈 MIT의 직원들이 이 프로그램을 진짜 사람으로 착각하고, 프로그램에 자신의 사생활에 대해서 온갖 얘기를 털어놓는 것을 보고 충격받았다.

그들은 자신이 대화를 나눈 ‘의사’가 프로그램에 불과하며, 이 기록을 와이젠바움이 쉽게 볼 수 있었다는 사실을 알고 심하게 화를 냈다. 일라이자의 개발자 와이젠바움은 이 경험에서 자신의 AI 프로그램이 인간성에 위협이 될 수 있음을 깨달았고, 1972년에 이런 주장을 담은 ‘컴퓨터 권력과 인간의 이성’(Computer Power and Human Reason)을 출판해서 AI 발전의 속도를 늦춰야 한다고 주장했다.

머니투데이

실제 <일라이자> 화면 캡춰.


와이젠바움은 초기에 제너럴 일렉트릭 사에서 ‘뱅크오브아메리카’의 전산화 작업에 관여했다. 그는 자신이 수행한 전산화가 수백만 명의 사람들의 삶에 큰 영향을 줄 수 있음을 깨달았고, 일라이자에 매혹된 사람들을 보면서 사람들이 컴퓨터가 제공하는 환영을 그대로 믿어버리는 것이 충분히 가능하다고 생각하게 되었다. 일라이자 같은 인공지능은 실제로는 아무런 감정이 없는데, 환자들은 의사가 마치 애정과 연민을 가지고 상담한다고 생각한 것이다. 그렇지만 프로그램은 아무런 감정이 없는 존재였다.

인간만이 동정심과 지혜를 가지고 있으며, 인간만이 감정과 같은 요소를 포함해서 선택을 내릴 수 있었다. 따라서 와이젠바움은 AI가 인간이 하는 중요한 결정을 대신하게 해서는 안 된다고 강조했다. AI의 결정은 감정이 없기 때문이다. AI가 법관의 판결을 내릴 수는 있지만, 이런 역할을 하게 해서는 안 된다는 것이었다. 그가 보기에 인간의 마음은 오랜 역사를 통해서 만들어졌을 뿐만 아니라, 인간의 몸과 밀접한 연관을 맺으면서 형성된 것이었다. 따라서 이런 인간의 마음은 AI에 의해서 모사(simulate)될 수 없었다. AI는 인간이 그 결과와 한계를 정확히 알 때 인간에게 유용한 도구가 될 수 있다는 것이 그의 결론이었다.

머니투데이

1960년대의 와이젠바움. 모뎀을 통해 작동되는 컴퓨터를 시연하고 있다.

<이미지를 클릭하시면 크게 보실 수 있습니다>


와이젠바움의 이런 도덕적인 비판은 AI 연구자들을 매우 당혹게 했다. 그가 누구보다도 컴퓨터와 AI를 잘 알고 있던 전문가였기 때문이다. 일부 AI 전문가들은 AI가 인간의 편견을 공유하지 않기 때문에 결정을 내리는 데 유용한 도구가 될 수 있다고 항변했고, 다른 전문가들은 완벽하게 결과를 예측하는 프로그램을 만드는 것은 불가능해 AI의 발전을 멈추기보다는 이를 발전시키면서 그 영향을 단계마다 평가해보는 것이 유일한 현실적인 방법이라고 주장했다.

전체적으로 1960년대에서 1980년대에 이르기까지 AI 연구자들은 AI에 가해진 이런 비판을 심각하게 받아들이지 않았다. 그런데 1980년대 이후에 AI에 대한 기호적 접근방법의 문제점이 누적되면서, 연구자 공동체 내에서도 이런 비판들은 다시 조명되었다.

드레이퍼스나 존 설의 이름을 직접 언급하지 않아도 엔지니어들은 자신들의 논의에 이러한 비판과 대안을 반영하기 시작했다. 이들은 인간 지식과 행동의 맥락을 AI 프로그램에 삽입하려고 노력했고, AI에 대해 얘기할 때에도 AI가 무엇을 ‘안다’ ‘이해한다’ ‘자각한다’는 표현을 더 신중하게 사용하기 시작했다. 초기에는 와이젠바움이 극단주의자라고 비난받았지만, 지금은 AI가 낳는 윤리적 문제들이 인류가 해결해야 할 가장 중요하고 심각한 문제로 평가되면서 그가 재조명되고 있다.

AI가 우리를 어디로 향하게 할지 궁금한가? 1960~1970년대에 벌어졌던 여러 논쟁에는 지금 우리가 고민하는 문제의 씨앗이 있다. 우리가 이 과거를 복원하려는 이유는, 시인 바이런이 얘기했듯이, “미래에 대한 최선의 예언자는 과거”이기 때문이다.

홍성욱 서울대학교 생명과학부 교수

<저작권자 ⓒ '돈이 보이는 리얼타임 뉴스' 머니투데이, 무단전재 및 재배포 금지>
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.