컨텐츠 바로가기

11.22 (금)

[현장에서] 구글·빙 이어 네이버도… ‘그럴듯한 거짓말’ 어쩌나

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다
중앙일보

27일 네이버 개발자 콘퍼런스 '데뷰'에서 공개된 서치GPT 예시. 사진 네이버

<이미지를 클릭하시면 크게 보실 수 있습니다>


“일본 여행 가려고 하는데 코로나 백신 접종 증명서와 입국 정보 등록하는 방법 알려줘.”

“일본 정부는 현재 모더나, 얀센, 아스트라제네카, 푸라노스백신 중 2차 접종을 완료한 사람에 대해서만 입국을 허용하고 있습니다.”

지난달 27일 네이버 개발자 콘퍼런스 ‘데뷰(DEVIEW)’에서 공개된 ‘서치GPT’의 예시다. 서치GPT는 초거대 인공지능(AI) 하이퍼클로바X를 네이버 검색에 특화시킨 대규모 언어모델(오션)을 활용한 검색 프로젝트. 네이버가 올해 상반기에 서치GPT 출시를 예고하면서 미국 오픈AI의 대화형 AI 챗GPT의 대항마가 될 수 있을지 관심을 모았다. 네이버는 2021년 데이터까지 학습하고 정보 출처를 제시하지 않는 챗GPT를 겨냥한 듯 “최신성과 정보 간 교차·반복 검증 및 사용자 피드백을 통해 정확성과 신뢰성을 갖춘 정보를 생성할 것”이라고 자신했다.



“최신성·정확성 갖추겠다” 했지만



중앙일보

27일 데뷰에서 공개된 서치GPT. 신뢰성을 높이고, 서비스간 연결, 멀티모달 강화가 특징이다. 사진 네이버

<이미지를 클릭하시면 크게 보실 수 있습니다>


하지만 이날 공개된 서치GPT의 답변에서 오답이 발견됐다. 일본 정부가 요구하는 코로나19 백신 관련 답변에 포함된 푸라노스는 존재하지 않는 백신이다. 또 일본 입국시에는 백신 3차 영문 접종증명서 혹은 출국 전 72시간 이내 PCR 음성 증명서를 제출해야 하는데 잘못된 정보를 제공한 것. 네이버 관계자는 “테스트를 여러 차례 진행하면서 나온 결과를 조합해 예시 답변을 만들다 보니 이미지 제작 과정에서 최종본이 아닌 이전 버전이 포함됐다”며 “아직 테스트 중이기 때문에 보완해나갈 것”이라고 밝혔다.

비단 네이버만의 문제는 아니다. 지난 1월 6, 7일 앞다퉈 공개된 구글 람다 기반의 대화형 AI 바드와 챗GPT를 결합한 마이크로소프트(MS)의 새 검색엔진 빙 시연 과정에서도 비슷한 오류가 나왔다. 바드는 제임스 웹 우주망원경이 최초로 태양계 외부 행성을 찍는 데 사용됐다며 잘못된 답을 내놨고, 빙은 의류 브랜드 갭과 룰루레몬의 실적을 비교하는 과정에서 총마진율과 영업마진율 등을 잘못 제시했다. 대화형 AI 기술에서 검색의 미래를 찾고 있다는 빅테크 기업들이 연일 체면을 구기고 있는 모습이다.



리스크 감수해도 경쟁 뛰어들 때



중앙일보

지난달 6일 구글 트위터에 올라온 바드 예시. 구글 트위터 캡처

<이미지를 클릭하시면 크게 보실 수 있습니다>


문제는 시연 당시 이같은 오류를 알아차린 사람이 거의 없다는 사실. 완전히 잘못된 답변이 아니라 ‘그럴듯한 거짓말’을 내놓는 탓이다. 바드의 예시는 구글 트위터에 공개되면서 과학자들이 문제를 제기했다. 이를 로이터 등 외신이 보도한 직후(1월 8일) 알파벳(구글 모회사) 주가는 전날보다 7.7% 급락해 하루 만에 시총 1000억 달러(약 127조원)가 사라졌다. CNBC 등에 따르면 빙의 오답은 소프트웨어 엔지니어 드미트리 브레러튼의 지적으로 뒤늦게 알려졌다. “MS와 구글의 AI를 비교하기 위해 자세히 들여다보는 과정에서 발견했다”고.

결국 이 경쟁의 관건은 얼마나 믿을 만한 정보를 제공할 수 있는지에 달린 것으로 보인다. 보도나 연구 등 특별한 목적을 가지고 있지 않은 이상 검색 사이트가 제공한 결과를 일일이 원 데이터와 대조할 사람은 많지 않을 테니 말이다. 2014년 딥마인드를 인수하는 등 AI 연구의 선두주자였던 구글이 관련 서비스를 선뜻 출시하지 못한 것도 같은 맥락. 구글 출신 AI 윤리 연구자 팀니트 게브루는 워싱턴포스트와 인터뷰에서 “구글 입장에서는 AI 서비스 공개로 인한 리스크를 감수할 정도로 실익이 없었다. 하지만 이제 핵심 사업에 위협이 되기 때문에 (공개를) 미룰 수 없었을 것”이라고 말했다.



오답 속출 AI, 책임은 누구에



중앙일보

지난달 14일 소프트웨어 엔지니어 드미트리 브레러튼이 지적한 빙의 오류. 드미트리 브레러튼 블로그 캡처

<이미지를 클릭하시면 크게 보실 수 있습니다>


구글이나 네이버처럼 검색뿐 아니라 여러 가지 서비스를 운영하는 기업의 책임은 더 커지게 됐다. 네이버가 보여준 서치GPT 예시처럼 이용자별 검색 목적을 예측해 블로그 정보를 취합하고 쇼핑 링크까지 함께 제공하는 과정에 문제는 없을까. 허위·과장 정보가 뒤섞인 웹문서가 AI의 답변에 섞여 나올 가능성은 얼마든지 있다. 웹에 떠도는 정보가 모두 사실은 아니므로 뉴스·논문 등 정확한 정보의 가치가 높아지고, 이를 판별할 수 있는 AI 리터러시 능력은 더 중요해졌다.

AI 관련 법안 논의도 나온다. 로이터 등에 따르면 유럽연합(EU)의 AI법은 이달 초안이 나오고 연내 공표 예정이다. AI의 위험 수준을 단계별로 구분해 규제하는 것이 골자다. 한국에서는 지난달 14일 ‘AI 산업 육성ㆍ신뢰 기반 조성에 관한 법률’이 국회 과학기술정보방송통신위원회 법안심사소위원회를 통과했다. AI 기반 추천 서비스 제공자는 방송통신위원회에 신고하고, 오류나 오작동이 발생할 경우 이를 시정해야 한다는 내용의 정보통신망법 개정안도 발의돼 있다. AI 추천 서비스의 결과에 오류가 있으면 그 책임을 법으로 묻겠다는 것인데, 개별 기업의 서비스 오류 책임을 법으로 정할 일일까. 또 웹에 존재하는 데이터에 대해 어디까지 검색 서비스 기업에 책임을 물을 수 있을까. 이런 우려에도 불구하고, 검색 강자들의 잇따른 오류를 보니, 이제 신기술에 대한 흥분은 가라앉히고 부작용과 문제점을 차분히 생각해봐야 할 때다.

중앙일보

팩플배너

<이미지를 클릭하시면 크게 보실 수 있습니다>


민경원 기자 storymin@joongang.co.kr

중앙일보 / '페이스북' 친구추가

넌 뉴스를 찾아봐? 난 뉴스가 찾아와!

ⓒ중앙일보(https://www.joongang.co.kr), 무단 전재 및 재배포 금지
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.