컨텐츠 바로가기

11.24 (일)

이슈 인공지능 시대가 열린다

심야 자율주행버스 사고 나면 ‘영업 비밀’?…책임 소재 불분명

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다
국내 인공지능법 ‘영업비밀’ 단서 조항

사고 원인 가려낼 데이터 확보 불투명


한겨레

4일 오후 서울 중구 남산예장버스주차장에 심야 자율주행버스 '심야 A21'가 주차돼 있다. 연합뉴스

<이미지를 클릭하시면 크게 보실 수 있습니다>


인공지능(AI)이 운전하는 자율주행 버스에서 사고가 난다면 원인과 책임 소재는 어떻게 가릴 수 있을까.

서울시가 지난 4일 세계 최초로 심야 자율주행 버스 노선을 도입한 가운데, 자율주행 차량 같은 고위험 인공지능이 일으키는 안전사고나 기본권 침해에 대한 뚜렷한 대책이 없다는 우려가 나온다. 사고 관련 기록 확보가 사고 원인과 책임 소재를 밝히는 데 중요한 판단 근거가 되지만, 현재 논의 중인 국내 ‘인공지능법’에는 자율주행·인공지능 관련 기업 등에 이를 강제할 근거가 뚜렷하지 않아서다.

자율주행 버스와 같은 자율주행 차량에서 사고가 나면 국토교통부에 신고해야 한다. 국토부 ‘사고조사위원회’ 조사 결과, 만약 해당 사고가 자율주행시스템 문제로 밝혀지면 영업중지 조처를 하게 된다. 이후 보험회사를 통해 책임소재 규명과 피해자 보상이 이뤄진다. 사고 원인이 제작결함이면 보험회사가 제작사에 대해 구상권을 청구한다.

문제는 이 과정에서 사고 원인과 책임소재를 가리기 위한 ‘객관적인 데이터’를 확보할 수 있느냐다. 현재 국회에서 논의되고 있는 ‘인공지능 기본법’(인공지능산업 진흥 및 신뢰기반 조성 등에 관한 법률안·지난 3년간 여야 의원들이 개별 발의한 7개 인공지능산업 육성 법안 통합)에는 자율주행차량 제조업체가 사고 관련 데이터를 ‘영업비밀’에 해당한다고 판단할 경우 자료 제출 요구에 응하지 않을 수 있도록 하는 단서 조항을 뒀다. 또한 국토부 사고조사위원회에 신고되지 않는, 초상권 침해 같은 기본권과 관련된 피해 구제는 정보주체인 개인이 직접 기업에 인공지능 동작 원리 등에 대한 설명을 요구해야 한다. 이 경우도 기업이 영업비밀을 앞세워 응하지 않으면 피해 구제와 관련한 객관적인 기록을 받아보기 어렵다.

김병욱(민변 디지털정보위원회) 변호사는 17일 한겨레에 “어떤 인공지능 작동 원리에 따라 사고가 났는지, 자율주행차 자체의 결함인지 등을 따져야 제대로 된 손해배상이 가능한데, 현행법과 국회에서 논의 중인 인공지능법만으로는 객관적인 기록 확보 자체가 어렵다”며 “자료제출 등을 기업 자율에 맡겨놓은 상황에서 정확한 사고 원인과 책임 소재를 가릴 수 있을지 의문”이라고 짚었다.

한겨레

앞서 유럽연합은 이런 문제의식을 담아 지난 8일 고위험 인공지능에 대해 위험관리, 데이터 관리, 문서화 의무, 인권영향 평가 등의 의무를 부과하고, 위반할 경우 높은 제재를 부과하는 ‘인공지능법안’(AI Act)에 합의했다. 사람의 안전과 기본권에 위험한 영향을 미치는 자동차·항공·기계·장난감·의료기기·교육·금융·출입국·사법 등에 쓰이는 인공지능이 여기에 해당한다. 특히 고영향(high impact) 범용 인공지능에 대해선 위험 평가, 적대적 테스트, 중대 사고 보고를 의무화했다. 이를 위반한 인공지능 사업자에 대해서는 전 세계 매출액의 최대 7%에 해당하는 과징금을 부과한다.

김 변호사는 “유럽연합의 인공지능법을 보면, 기술문서 작성을 의무화하는 방식으로 자율주행 인공지능 개발 과정에서부터 발생한 문제를 의무적으로 문서로 보관하도록 해, 만약 사고가 발생하면 해당 문서를 통해 사고 발생 원인을 추적하고, 어떤 잘못인지 확인할 수 있게 돼 있다”며 “반면, 국회에 계류 중인 우리나라 인공지능법안에는 사실상 이와 관련한 의무 규정을 두지 않았다”고 말했다.

지난 8월 국가인권위원회는 현재 논의 중인 인공지능법안을 두고 “인공지능 사업자 등이 고위험 영역 인공지능을 개발·활용할 경우에 대한 실효적인 규제 수단은 규정하고 있지 않다”고 의견을 표명한 바 있다. 인권위는 “‘고위험 영역 인공지능’의 범위를 확대·재정의하고, 인공지능 감독·규제 담당기관이 고위험 영역 인공지능 알고리즘의 투명성, 설명 가능성, 인권침해·차별 예방조치 여부 등을 사전에 엄격히 점검하도록 하며, 활용 중에 문제가 발생한 경우 인공지능 감독·규제 기관이 일시 사용중지 명령 등 적정한 조처를 하도록 해야 한다”고 밝혔다.

진보네트워크센터·참여연대·정보인권연구소 등 13개 시민사회단체도 지난 13일 성명을 내어 “현재 국내 인공지능 법안은 국민의 안전과 기본권을 보호해야 하는 의무와 관련한 규정을 전혀 두고 있지 않다”며 “국민의 안전과 인권에 미치는 위험성을 예방하고, 그로 인한 피해 방지와 구제를 위한 강력한 규범을 법에 담아야 한다”고 촉구했다. 국회 과학기술정보방송통신위원회는 전체회의를 열어 위원회 대안으로 마련된 인공지능 기본법안을 심의·처리할 예정이다.

박지영 기자 jyp@hani.co.kr

▶▶한겨레의 벗이 되어주세요 [후원하기]
▶▶한겨레 뉴스레터 모아보기▶▶[기획] 누구나 한번은 1인가구가 된다

[ⓒ한겨레신문 : 무단전재 및 재배포 금지]


기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.