컨텐츠 바로가기

11.26 (화)

이슈 인공지능 시대가 열린다

[이성엽의 IT프리즘]AI는 법률상담을 할 수 있을까

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다
뉴스1

이성엽 고려대 기술경영전문대학원 교수/기술법정책센터장


(서울=뉴스1) 이성엽 고려대 기술경영전문대학원 교수/기술법정책센터장 = 2022년 챗GPT 등장으로 시작된 생성형 인공지능(AI) 열풍은 법률 분야도 예외가 아니다. 리걸테크 분야 글로벌 선두 기업인 미국의 렉시스넥시스는 각국 법률 데이터와 언어를 학습시켜 법률 해설, 판례·논문 검색, 법률 문서 작성 서비스를 제공하는 모델을 만들어 냈고, 3월 한국에도 생성형 AI 기반 솔루션 '렉시스플러스 AI'를 출시했다.

지난 3월 20일에는 국내 모 중견 로펌이 토종 법률상담 AI 챗봇을 내놓았다. 이 서비스는 온라인 채팅 방식으로 실시간 무료 법률상담을 해준다. 이 서비스를 위해 약 9개월 동안 소속 변호사들이 1만여 개 질문과 답변을 직접 만들어 AI를 학습시켰다. 현재 이 서비스는 100개 질문 중 88개에 정확하게 답할 수 있는 수준이라고 한다. 이 서비스를 통해 일반인들은 법률 정보를 신속하게 획득하게 될 수 있으며, 해당 로펌도 변호사의 생산성 향상은 물론 로펌의 홍보에 도움이 될 것으로 보인다.

다만, 언론보도를 종합해 보면, 대한변호사협회는 이 서비스에 대해 법 위반의 가능성을 제기하면서 해당 로펌에 대한 징계를 논의하고 있다. 그 사유는 크게 세 가지다.

첫째, “24시간 무료 법률상담 서비스”라는 서비스명이 변호사 광고 규정 제8조 제1항 '변호사 등은 무료 또는 부당한 염가의 법률상담 방식에 의한 광고를 하여서는 아니 된다'라는 규정을 위반하여 공정한 수임질서를 해치고 있다고 한다. 이에 대해 해당 로펌은 공식 명칭을 법률상담 대신 '법률 Q&A'로 변경했다.

둘째, 이용자가 법률 질문을 입력하면 해당 답변과 함께 포털 화면 하단에 상담을 위한 변호사 광고가 뜨는데, 이 광고를 통해 로펌이 포털에서 직간접적 수익을 얻을 가능성이 높다고 봤다. 그런데 이는 비변호사인 제3자를 통해 법률 서비스를 제공하거나 이익을 분배받아서는 안 된다는 변호사법 제34조(변호사가 아닌 자와의 동업 금지 등) 제5항 위반이라는 취지다. 이에 대해 해당 로펌은 보도자료 제공이 광고는 아니며, 변호사 광고에 해당 로펌의 변호사 광고는 없으며, 법률 정보 제공을 법률 서비스로 볼 수는 없다는 입장이다.

셋째, 해당 서비스를 학습시키기 위한 자료들이 해당 로펌이 지금까지 수행했던 소송사건들을 바탕으로 구성됐을 확률이 높다며, 의뢰인들에게 개인정보 활용 동의 등을 받지 않았으면 변호사법 제24조(품위유지 의무 등)와 변호사윤리장전 제5조(품위유지 의무) 등을 위반한 것으로 봤다. 이에 대해 해당 로펌은 판례들을 이용했을 뿐 직접 수임한 사건을 활용한 적이 없기 때문에 개인정보 침해 이슈는 없다는 입장이다.

리걸테크 기업인 로톡과 8년간의 지루한 싸움에서 패한 대한변호사협회가 이제 다시 법률 AI와 싸움을 시작했다. 그러나 법 해석에 대한 논쟁은 형식을 실질에 짜맞추기 위한 공방일 뿐이다. 본질은 과연 AI를 이용한 법률상담이나 법률문서작성을 어느 범위에서 인정하는 것이 법치주의, 민주주의 관점에서 정당하냐는 것이다.

미국 스탠퍼드대 인간중심 AI 연구소는 생성형 AI는 개인의 사법 접근성 문제, 법률 대리인의 업무 처리, 판사의 판결 등을 보조할 잠재력을 보유하고 있고 개인은 생성형 AI를 통해 필요한 법률 문서를 준비하고, 변호사는 법률 연구와 문서 작업, 판사는 판결의 정확성과 효율성을 개선시킬 수 있다고 보았다. 다만, 생성형 AI는 거짓말을 할 수 있고, 사실, 사례, 원칙 등을 만들어 낼 수 있어 판결과 같은 법적 의사결정에 있어 생성형 AI에 전적으로 의존하는 것은 법조인의 직업윤리는 물론 법치주의에 심각한 문제를 야기할 수 있다고 경고했다.

사실 법률 분야의 AI 도입은 양면성을 지닌다. 법률 분야는 법조문, 판례, 법이론 등이 공개되어 있는데, 법적 결론이 대부분이 선례에 구속된다는 점에서 생성형 AI의 결론이 타당할 가능성이 높아 활용도가 매우 높을 수 있지만, 한편으로는 법적 결정은 사람의 생명, 신체, 재산 관련 결정이라는 점에서 아무리 기계인 AI의 결론이 타당성이 높다고 하더라도 인간의 최종적 개입이 불가피하다는 점이다.

작년 존 로버츠 미국 연방대법원장은 AI가 가난한 소송 당사자의 사법 접근성을 높이고, 법률 연구에 혁명을 일으키는 것은 물론 법원이 사건을 더 빠르고 저렴하게 해결하도록 지원할 수 있는 잠재력이 있다고 평가했다. 다만, 법적 결정은 종종 인간의 판단을 적용해야 하는 회색 영역을 포함한다며 판사만이 피고인 발언의 진실성을 평가할 수 있는 영역이 있다고 했다. 피고인의 떨리는 손과 목소리, 억양의 변화, 땀방울, 순간의 망설임, 눈맞춤 등의 미묘한 차이는 인간 판사만이 포착할 수 있다는 것이다.

다시 돌아가 한국의 상황을 돌아보면, 인간의 최종적 개입과 책임 귀속을 전제로 법률 AI를 최대한 활용할 수 있는 유연한 법 해석이 필요하다. 법 해석의 한계를 넘어서는 경우 입법적 개선도 필요하다. 또한 판례 공개의 확대, 생성형 AI 기술의 발전, 데이터 학습을 위한 면책 규정의 도입 등 법률 AI 산업 발전을 위한 조치를 고민해야 한다. 이미 챗GPT는 한국법에 대한 답변을 생성하고 있다. 그러면 오픈AI도 변호사법을 위반하고 있는 것인가.

인쇄술이 법이론의 엄청난 확산을 가져왔고, 인터넷이 법률 정보의 대중화를 가져온 것처럼, 이제 AI는 법률가라는 전문직의 생산성을 엄청나게 향상시키는 것은 물론 법률소비자의 사법 시스템 접근을 획기적으로 제고하게 될 것이다. 이런 기술변화를 일자리 대체 차원에서만 이해해서는 안 된다. 우리 사법 시스템도 AI를 맞이하고 수용할 준비를 해야 한다.

Copyright ⓒ 뉴스1. All rights reserved. 무단 전재 및 재배포, AI학습 이용 금지.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.