컨텐츠 바로가기

11.17 (일)

"AI 언어 능력 급성장…수년내 인공지능과 사랑에 빠지는 ‘HER’ 현실화”

댓글 1
주소복사가 완료되었습니다
지난 2012년 딥러닝(Deep Learning)의 등장과 함께 본격적인 개화기를 맞은 인공지능(AI)이 올해에는 자연어(自然語·사람이 일상적으로 사용하는 언어)를 중심으로 새로운 전기를 맞을 전망이다. AI의 언어 독해 능력과 문맥 이해, 목소리 변조 등의 기술이 급속도로 발전하면서 학계에서는 여태까지 보지 못했던 종류의 대화형 AI의 등장을 기대하는 분위기다

특히 지난해 10월 구글이 논문으로 발표한 AI 언어모델인 BERT(Bidirectional Encoder Representations from Transformers)가 변화의 선봉에 서있다. BERT는 가장 대표적인 자연어처리 평가지표인 GLUE(General Language Understanding Evaluation)와 SQuAD(Stanford Question Answering Dataset)에서 인간보다 더 뛰어난 성적을 보여주면서 전 세계 학계에 충격을 안겼다.

조선비즈

윤성로 서울대 전기정보공학부 교수. /조선DB



윤성로 서울대학교 전기정보학부 교수는 7일 조선비즈와의 인터뷰에서 "올해 가장 주목해야 할 인공지능 기술 흐름은 바로 대화형 AI"라며 이중에서도 구글이 내놓은 BERT를 예시로 언급했다. 그는 "구글은 이전보다 훨씬 효율적인 딥러닝 구조, 천문학적인 투자를 통해 확보한 하드웨어와 엄청난 양의 데이터 학습을 거쳐 괴물같은 아기(인공지능)를 탄생시켰다"고 설명했다.

윤성로 교수는 국내에서 AI를 연구개발하는 학자들 중 가장 주목 받고 있는 젊은 공학자 중 한 명이다. 2013년에는 미국전기전자학회(IEEE)가 선정한 '젊은 공학자상'을 수상한데 이어 같은 해 생명정보학에 기반한 AI 기술로 국제 경제현상을 분석하는 연구로 주목을 끌기도 했다. 최근에는 마이크로소프트(MS), IBM 등 해외 IT 기업과 AI 언어 모델을 연구 중이며 국내 현대차그룹, SK 등과도 AI 프로젝트를 진행하고 있다.

◇ 딥러닝과 함께 눈뜬 AI, 이제 '입'이 열린다

지난 수년간 AI의 발전을 이끌어온 건 이미지를 토대로 학습하는 비주얼(Visual) AI였다. AI가 수백만, 수천만장의 이미지를 학습하고 이를 토대로 필요한 정보를 추출하는 방식이다. 대표적으로 의학 분야에서 이같은 비주얼 AI의 효용성이 높았다. 특히 영상의학 분야에서는 AI의 신뢰도가 97%를 넘나들며 사람보다 뛰어나다는 평가를 받기도 했다.

음성 기반의 AI는 이에 비해 성장의 속도가 더뎠다. 이미지의 경우 표본이 많을 뿐 더러 학습 방식도 비교적 단순했지만, 인간의 언어체계는 그보다 훨씬 복잡하다. 게다가 아마존, 마이크로소프트, 네이버, 카카오 등 대다수 IT 기업이 채용하고 있는 언어 모델인 RNN(순환신경망모델)은 대화형 AI로 성장하는데 있어 뚜렷한 한계가 존재했다.

우선 RNN은 AI가 언어를 학습하는 데 있어서 입력의 순서가 큰 영향을 미친다. 가령 처음에 입력한 언어 정보가 뒤로 갈수록 사라지는 현상이 발생한다. 이 때문에 AI는 사용자가 입력하는 전체 문장을 완벽하게 파악하지 못하게 된다. 기존 AI 스피커가 단순한 형태의 대화만 가능하고, 질문이 길어질수록 답변의 정확도가 떨어지는 것도 이와 무관치 않다.

구글이 선택한 건 어텐션(Attention) 기반의 언어모델이다. 어텐션의 원리는 말그대로 입력 정보 중 중요한 단어에 집중해 사용자의 발언 의도를 분석하는 방식이다. 중요한 단어들을 계속해서 업데이트하며 학습하고 사용자의 발화 의도와 문맥 분석에 집중하며 학습을 거듭한다. 구글이 이 어텐션을 바탕으로 구글이 2017년에 내놓은 딥러닝 아키텍처가 바로 '트랜스포머'다.

조선비즈

구글의 AI 언어모델인 BERT는 자연어처리 평가인 SQuAD에서 인간(91점)보다 높은 93점을 기록했다. /SQuAD 홈페이지 캡처



윤성로 교수는 "구글은 트랜스포머 아키텍처를 양방향으로 활용해 BERT를 설계했는데 이 방식이 대화형 AI 개발에 있어서 굉장히 효율적인 방식이었다"며 "이같은 구조가 기존 RNN을 대체하고 훨씬 더 능률적으로 언어 능력을 고도화할 수 있게 됐다"고 설명했다.

이어 "BERT는 자연어를 이해하는 성능을 보면, 일부는 인간과 비슷하고 더 나은 점도 있다. 가령 반지의 제왕처럼 장황하고 복잡한 소설을 학습시키고 난 뒤 '반지가 지금 어디있지?' 와 같은 질문을 해도 대답할 수 있을 정도"라며 "지금과 같은 속도라면 영화 ‘HER’에 등장하는 것과 같은 고도의 대화형 AI의 등장도 기대할 수 있다"고 설명했다.

◇ '공부의 신'으로 재탄생한 AI

구글의 BERT 외에도 AI를 학습시키는 방식 자체를 혁신하려는 시도가 학계를 중심으로 활발해지고 있다. AI를 키우는 딥러닝 네트워크를 구성하기 위한 최적의 알고리즘을 AI가 찾아내게끔 하는 오토머신러닝(오토ML)이 가장 대표적이다.

일반적으로 기존 딥러닝 연구는 AI 연구자의 '수작업'에 많은 부분을 의존하고 있다. 윤 교수는 "딥러닝 네트워크를 구성하는 데 있어서 생각보다 사람이 해야하는 일이 많다"며 "AI 분야의 장인들로 꼽히는 사람들조차도 한땀한땀 데이터를 입력해야 하는 작업이 많고 어떤 학습 방법이 맞을지 판단하는 것조차도 많은 실험이 필요하다"고 설명했다.

실제 AI 연구자들에게 사실 데이터의 성격과 연구 목적에 맞는 머신러닝 아키텍처를 디자인하는 것은 매우 어려운 작업이다. 학습 네트워크를 만들고 나서 튜닝(Tunning) 하는 작업까지 합치면 적지않은 시간과 노력이 필요하고, 심지어 만들어 놓은 아키텍처가 가장 효율적인 방식이라고 장담하기도 어렵다.

이가운데 최근 주목받는 오토ML 기술은 NSA(Neural Architecture Search)다. 말그대로 AI가 스스로의 학습 아키텍처를 찾아내는 알고리즘이다. 비유하자면, 연구자가 AI에 학습할 과목과 주어진 시간, 핵심 조건을 알려주면 가장 효율적인 학습 모델과 시간표를 AI 스스로 수립하는 것이다. 이는 AI 연구개발에 필요한 비용과 시간을 크게 단축하게 된다.

윤 교수는 "2012년에 딥러닝이 개화한 이후 인공지능은 다양한 분야로 전이되고 있고 근본적인 관점에서의 발전도 진행되고 있다"며 "AI 학습에 있어 가장 중요한 알고리즘의 발전이 있었는데, 이는 결과적으로 AI의 제트엔진 같은 역할을 할 것"이라고 강조했다. 이어 "특히 기존의 학습방식을 개선해 AI가 스스로 만들어낸 알고리즘이 사람이 설계한 것보다 나은 결과를 내는 사례가 계속 나오고 있다"고 설명했다.

황민규 기자(durchman@chosunbiz.com)

<저작권자 ⓒ ChosunBiz.com, 무단전재 및 재배포 금지>
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.