고영향AI 기준, 기업 의무는 시행령으로
AI 학습데이터 저작권 후속 논의 불가피
경영 리스크 우려... 충분한 의견 수렴을
26일 오후 서울 여의도 국회에서 열린 본회의 중 '인공지능 발전과 신뢰 기반 조성 등에 관한 기본법안(AI기본법)'이 통과되고 있다. 뉴시스 |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
인공지능(AI) 산업에 대한 지원과 규제 근거가 담긴 ‘AI 기본법’이 26일 국회 본회의를 통과했다. AI 산업을 규율하는 법이 제정된 것은 유럽연합(EU)의 AI법(AI ACT) 이후 세계에서 두 번째다. 국가 간 AI 기술 경쟁이 심화하는 상황에서, 법을 만들어 발 빠르게 불확실성을 줄이고 진흥 기반을 마련했다는 점은 긍정적으로 평가된다. 그러나 규제의 상당 부분을 시행령에 위임한 채 ‘개문발차’식으로 통과된 터라 향후 충분한 의견 수렴과 촘촘한 보완이 필요하다는 지적이 나온다.
AI 창작물 워터마크 표시 의무화
이날 의결된 ‘인공지능 발전과 신뢰 기반 조성 등에 관한 기본법(AI 기본법)’에 따르면 과학기술정보통신부 장관은 3년마다 AI 산업 생태계 진흥과 경쟁력 강화를 위한 기본계획을 세워야 한다. 정부가 데이터센터 등 AI 인프라에 대규모 투자를 하기 위한 법적 근거도 담겼다.
AI를 개발·이용하는 기업의 책무 역시 포함됐다. ‘고영향 AI’ 사업자는 이용자에게 위험성을 사전에 고지해야 하고, AI 영상·사진 같은 창작물에는 ‘인공지능이 만들었다’는 워터마크 표시도 의무화된다. 딥페이크(AI로 생성한 영상 조작물) 범죄 확산을 막고 저작권을 확인하기 위한 조치다. 국내 기업은 물론 해외 빅테크(거대 기술기업) 역시 이를 따라야 하며, 사업자가 의무를 위반하면 3,000만 원 이하의 과태료가 부과된다.
그래픽=박구원 기자 |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
정보기술(IT) 업계는 대체로 AI 기본법 제정을 환영하고 있다. 새 법률이 규제보다 진흥에 초점을 맞췄다는 평가 속에 정부가 AI 개발에 행정·재정 지원을 제공할 근거가 마련됐기 때문이다. 업계 한 관계자는 "빅테크와 경쟁해야 하는 입장에서 기본법의 제정은 절실했다"고 말했다.
"긍정 영향까지 과도하게 규제할라"
다만 규제의 핵심 부분이 포괄적으로 규정된 것은 한계다. 사람의 생명과 안전, 기본권에 중대한 영향을 미칠 수 있는 AI 서비스를 뜻하는 ‘고영향 AI’가 대표적이다. 기본법은 △보건의료 이용 △채용·대출심사 등 개인의 권리·의무 평가 △범죄수사를 위한 생체인식정보 활용을 비롯해 고영향 AI의 11개 영역을 제시하고 있는데, 영역이 넓어 해석에 따라 과도한 규제로 이어질 수 있다는 우려가 나온다. 최경진 가천대 법학과 교수(한국인공지능법학회장)는 “예를 들어 의료 영역에 쓰이는 AI가 모두 부정적인 영향을 끼치는 건 아니기 때문에 시행령을 통해 규제 대상을 명확히 해야 한다”며 “’고영향’라는 용어 탓에 긍정적인 영향까지 규제할 수 있어 유권해석 가이드라인도 필요하다”고 설명했다.
AI 사업자가 지켜야 할 의무 범위도 보다 구체화돼야 한다는 지적이다. 기본법에 명시된 사업자의 의무는 ‘인공지능 수명주기 전반에 걸친 위험식별, 평가 및 완화’ 정도로 선언적 수준에 그친다. AI법제를 전문 분야로 하는 한 변호사는 “기본법에 과기정통부의 의무 위반에 대한 사실조사 권한이 포함된 만큼 의무 규정이 구체화하지 않는다면 AI 사업자의 경영 리스크가 커질 것”이라고 짚었다.
기업들은 법 시행 전부터 '책임 있는 AI 개발'을 위한 대책을 준비해왔다. 네이버는 6월 'AI 세이프티 프레임워크'를 발표했고, 카카오는 10월 'AI 세이프티 이니셔티브'를 구축해 공개했다. 양측 모두 개발되는 AI 모델과 서비스의 위험도를 정기적으로 평가하고, 위험 수준이 높다고 판단되면 배포를 중단한다는 내용을 담고 있다. 삼성전자와 LG AI연구원, SK텔레콤과 KT도 AI 위험 관리 정책을 발표했다. 이런 상황인 만큼 법조계에선 “그간 정치적 이유로 법 제정 과정에서 숙의가 부족했는데, 시행령을 제정하는 동안에는 더 폭넓은 의견 수렴이 돼야 한다”는 목소리가 나온다.
"일본·EU의 저작권 면책규정 참고될 것"
AI 학습 데이터 공개 여부를 둘러싼 논란도 계속될 전망이다. 문화체육관광부는 AI의 창작 과정에서 저작권 준수 여부를 파악하기 위해 학습 데이터 목록을 투명하게 공개할 의무를 명시해야 한다고 주장한다. 출판·언론단체도 성명을 통해 저작권 보호 조치 강화를 요구하고 있다.
반면 학습 데이터 공개를 의무화할 경우 저작권 침해 소송이 늘게 돼 AI 개발을 오히려 제한할 가능성이 높아 신중해야 한다는 분석도 나온다. 전우정 한국과학기술원(KAIST·카이스트) 문술미래전략대학원 교수는 “일본, EU 등은 저작권법 또는 관련 지침에 생성형 AI 학습용 텍스트데이터마이닝(TDM)에 대한 면책 규정을 도입했는데, 이를 참고해 규제의 균형을 맞출 필요가 있다”고 조언했다.
신혜정 기자 arete@hankookilbo.com
인현우 기자 inhyw@hankookilbo.com
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.