컨텐츠로 건너뛰기
검색
메트로신문사 언론사 이미지

[AI기본법 시행](上) 한국형 AI 기본법 출범… 자율과 통제 사이 줄타기

메트로신문사 김서현
원문보기

[AI기본법 시행](上) 한국형 AI 기본법 출범… 자율과 통제 사이 줄타기

서울맑음 / -3.9 °
고영향·생성형 AI만 규제 대상, 산업 진흥에 방점

오는 22일 '인공지능(AI) 발전과 신뢰 기반 조성 등에 관한 기본법'(이하 인공지능기본법)이 본격 시행된다. 세계 최초의 국가 단위 전면 시행이라는 상징성 속에서, 이 법이 산업 혁신을 촉진할 제도적 기반이 될지, 아니면 새로운 규제 부담으로 작용할지를 두고 다양한 해석이 나오고 있다.

19일 <메트로경제 신문> 취재에 따르면 이번 인공지능기본법은 사전 규제보다는 사후 관리와 자율 규범을 중심으로 설계돼, 산업 진흥과 위험 관리의 균형을 의도적으로 맞춘 것이 특징이다.

한국의 인공지능기본법은 규제 중심인 EU의 AI Act와는 궤를 달리한다. EU가 AI의 위험 수준을 네 단계로 나눠 촘촘하게 규제하는 방식을 택했다면, 한국은 산업 진흥에 더 무게를 둔 '선별적 규제' 모델을 채택했다. 규제 대상은 모든 AI가 아니라 사회적 파급력이 큰 고영향, 고성능, 생성형 AI라는 세 가지 유형으로 한정된다. 이는 기술 혁신의 동력을 꺾지 않으면서도 필요한 영역에서만 국가가 개입하겠다는 전략적 선택이다.

법적 적용 대상인 AI 시스템의 정의도 명확해졌다. 목표·자율성·적응성·결과물 추론이라는 네 가지 요소를 모두 갖춘 시스템만이 법의 테두리에 들어온다. 단순히 정해진 규칙을 반복하는 자동화 프로그램은 제외되며, 데이터를 학습해 스스로 판단하고 예측하는 시스템만이 인공지능으로 분류된다. 또한 법은 AI 개발자와 서비스 제공자, 그리고 이용자와 결과물에 영향을 받는 자의 역할을 구분하여 향후 발생할 책임 소재의 기틀을 마련했다.

가장 직접적인 규제를 받는 '고영향 인공지능'은 금융, 고용, 의료 등 개인의 권리와 생명에 직결된 분야로 특정됐다. 대출 심사나 채용 평가에 쓰이는 AI는 이제 사람이 관리하는 체계를 갖춰야 하며, 안전성 확보를 위한 자발적인 조치를 증명해야 한다. 또한 텍스트나 영상을 만드는 생성형 AI에는 워터마크 부착 등 표시 의무가 부여된다. 이용자가 자신이 마주한 결과물이 AI의 창작물임을 인지할 수 있도록 투명성을 보장하기 위함이다.

산업계의 반응은 엇갈린다. 정부는 1년 이상의 계도 기간을 두고 사실조사권 집행을 최소화하며 '산업 길라잡이' 역할을 하겠다고 강조하지만, 스타트업 업계는 여전히 공포감을 숨기지 못하고 있다. 대기업과 달리 규제 준수를 위한 법무 대응 능력이 부족한 소규모 기업들에는 법 시행 자체가 진입 장벽이 될 수 있다는 우려다. 실제로 최근 조사에 따르면 국내 AI 스타트업의 대다수가 실질적인 대응 체계를 갖추지 못한 상태다.

실제로 지난해 12월 스타트업얼라이언스가 국내 AI 스타트업 101곳을 조사한 결과, 98%가 AI 기본법에 대한 실질적 대응을 하지 못한 것으로 드러났다. '내용을 잘 모르고 준비도 안 돼 있다'거나 '법은 인지하지만 대응은 미흡하다'는 응답이 각각 48.5%에 달했고 제대로 준비 중이라는 답변은 2%에 불과했다.


IT 업계 관계자는 "대기업처럼 대형 로펌의 자문을 받거나 사내 법무팀을 가동할 여력이 없는 소규모 업체들에겐 법 조문 하나하나가 거대한 진입 장벽"이라며 "정부가 계도 기간을 둔다고는 하지만, 사실조사권이 명문화된 것만으로도 공격적인 기술 개발과 투자 유치 과정에서 심리적 위축이 불가피할 것"이라고 주장했다.

반면 시민단체들은 이번 법안이 금지 AI 규정의 부재, 고영향 사업자에 대한 미흡한 처벌, 국방·안보 목적 AI에 대한 면죄부 부여 등 치명적인 독소조항과 한계를 지니고 있다고 규탄한다. 비록 '우선허용·사후규제' 원칙이 폐기되고 영향받는 자의 설명요구권이나 생성형 AI 표시 의무가 포함된 점은 다행이나, 실질적인 피해 구제 조항이나 학습 데이터 공개 의무가 빠져 있어 AI의 편향성과 인권 침해를 막기에는 실효성이 현저히 떨어진다는 평가다.

시민단체 관계자는 "실제 AI의 편향, 오류, 남용으로 인해 차별적 결정, 감시, 안전 위험 등이 발생하더라도 이에 대해 피해 당사자가 인지하지 못하거나 그 원인을 제대로 파악할 수 없을 가능성이 높다는 점이야말로 가장 큰 문제"라고 지적했다.