인공지능 챗봇 이루다. 이루다 페이스북 캡처 |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
인공지능 챗봇 ‘이루다’를 개발한 스타트업 스캐터랩은 “사용자들의 부적절한 대화를 발판으로 삼아 더 좋은 대화를 하는 방향으로 학습을 시키려고 준비하고 있다”며 “1차 결과물은 (올해)1분기 내에 적용할 수 있을 것으로 예상한다”고 밝혔다. 또 “개발 일정상 여자 버전인 루다가 먼저 나온 것 뿐”이라며 “아마도 올해 중으로 남자 버전의 루다도 출시할 수 있을 것 같다”고 말했다.
스캐터랩 김종윤 대표는 지난 8일 자사 블로그(→https://blog.pingpong.us/luda-issue-faq/)에 올린 “오늘 루다 관련 논란에 대해 공식 입장을 밝힙니다”란 글을 통해 이 같이 말했다. 김 대표는 “그 동안의 서비스 경험에 비추어봤을 때, 인간이 (성별과 무관하게) AI에게 사회적으로 용인되지 않는 인터랙션을 한다는 건 너무 자명한 사실이었고, 충분히 예상할 수 있는 일이었다”며 “문제가 될 수 있는 특정 키워드, 표현의 경우 루다가 받아주지 않도록 설정했다. 일부 놓친 키워드는 서비스를 하면서 지속적으로 추가하고 있다”고 말했다. 이어 “모든 부적절한 대화를 키워드로 막을 수 있는 건 아니다”라며 “저희가 사전에 준비할 수 있는 정도로는 충분히 대응을 해놓은 상태였다”고 덧붙였다.
인공지능 챗봇 이루다. 이루다 페이스북 캡처 |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
김 대표는 장기적으로는 이루다가 관계에 맞는 자연스러운 대화를 할 수 있을 것이라고 전망했다. 그는 “업데이트를 해도 사람들은 또 기발한 방법으로 부적절한 대화를 하는 방법을 생각해낼 것”이라며 “그럼 그걸 또 학습 재료로 삼아 학습할 수 있을 것이다. 이 과정을 반복하다보면 루다는 점점 더 좋은 대화를 하는 방법을 배워갈 것”이라고 말했다.
마이크로소프트사가 2016년 트위터를 통해 선보였던 AI ‘테이’처럼 부적절한 대화로 문제를 일으키다 이루다 운영이 중단되는 일은 없을 것이라고 장담했다. 김 대표는 “루다는 사용자와의 대화를 바로 학습에 적용하지는 않고 레이블러들이 개입해서 무엇이 안 좋은 말이고, 무엇이 괜찮은 말인지 적절한 학습 신호를 주는 과정을 거칠 계획”이라며 “나쁜 말을 무작정 따라하는 게 아니라 오히려 그게 나쁜 말이라는 걸 더 정확히 알게 되는 계기로 삼을 수 있다”고 설명했다.
홍진수 기자 soo43@kyunghyang.com
▶ 인터랙티브:자낳세에 묻다
▶ 경향신문 바로가기
▶ 경향신문 구독신청하기
©경향신문(www.khan.co.kr), 무단전재 및 재배포 금지
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.