컨텐츠 바로가기

09.12 (목)

장준영 세종 AI센터장 "韓 AI 기본법, 절충형 말고 비전 더 명확해야"

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다
[디지털데일리 이건한 기자] 국내 AI 산업 및 정책 부문의 화두인 AI 기본법 논의, 제정 방향을 두고 목표와 비전을 보다 명확히 해야 한다는 제언이 나왔다.

한국데이터법정책학회, 고려대 이성엽 교수 연구실이 20일 한국프레스센터에서 공동주최한 '제12회 AI윤리법제포럼 세미나'에서는 장준영 법무법인 세종 변호사 겸 AI센터장이 'AI 규제법의 국내외 동향 분석, 평가와 향후 과제'를 발제했다. 장 센터장에 따르면 현재 한국이 참고할 만한 해외 AI 규제법 대상은 크게 5개 국가(EU, 미국, 중국, 일본, 영국)와 1개 기구(OECD, 경제협력개발기구)로 구분된다.

디지털데일리

<이미지를 클릭하시면 크게 보실 수 있습니다>




해외 AI 규제법 동향은... EU·미국·중국 3色

가장 주목할 대상은 올해 가장 먼저 AI법을 발효한 EU(유럽연합)이다. EU가 AI 법을 대하는 특징은 '발빠른 움직임', '빅테크 규제의 본격화'로 정리된다. 장 센터장은 EU의 정책 방향성은 주로 AI 사용자(시민) 권리 보호를 중점으로, 기업 대상의 발빠른 규제를 마련함으로써 EU가 글로벌 AI 규제법 표준 역할을 선점하는 것이라고 설명했다. 과거 유럽이 강력한 개인정보 보호법인 GDPR(일반정보보호규정)을 선제적으로 발효하며 얻은 효과와 상당히 유사한 전략으로 평가됐다.

특히 EU AI법은 AI를 '금지', '고위험', '제한적 위험', 최소·무위험 등으로 나눠 시스템적으로 접근하는 것이 특징이다. 기술중립성이나 진흥보단 무분별한 개발을 막고 기업들에게 광범위한 규제를 가한다는 점에서 AI 시장을 선도하는 미국 빅테크 기업들을 견제하는 방향으로 해석되고 있다.

미국은 2023년 공표한 'AI 위험관리 프레임워크'를 비롯해 주정부 단위 AI 규제법이 만들어지고 있다. 특징은 EU와 달리 기술진흥 중심, 시장 친화적이란 점이다. 법 위반에 대한 제재가 상당히 느슨한 편이며 가이드라인 수준으로 기업에 대한 법적 강제성도 없다. 다만 AI 기술, 서비스에 대한 최소한의 안전망 마련을 위해 미국 내 주요 빅테크 간 AI 가이드라인 합의, 연방정부나 공공기관 수준에서 지켜야 할 행정명령 등을 부차적으로 활용 중이다.

다만 주별 입장은 조금 다르다. 유타주는 구속력이 없었던 기존 미국 내 행정명령에 법적 강제성을 부여한 수준으로 인공지능 수정법을 제정했으며, 캘리포니아주도 최근 일정 규모 이상의 AI 시스템은 통제가 어려운 경우 언제든 중단 가능한 '킬 스위치'를 두도록 하는 '첨단 AI 시스템을 위한 안전과 보안 혁신법'을 발의하여 현재 상원을 통과한 상태다. 또한 일부 전문가들 사이에선 미국이 중국의 AI 추격을 견제하기 위해 중장기적으로 보다 구속력이 강한 EU AI 법의 입장을 취할 것이란 전망도 따른다.

영국과 일본은 미국과 유사한 시장 중심적 규제 스타일로 평가되고 있다. 영국은 EU와 달리 시스템별 구분이 아닌 분야별, 기관별, 상황별로 AI 접근식을 달리하고 탄력적으로 대응하는 방향을 지향한다. 특히 일본의 경우 국내에서 아직 논란 중인 공개된 AI 데이터 학습 활용 방안을 두고 '공개된 데이터는 공정이용에 해당한다'는 입장도 내놓는 등 느슨하고 기술 및 기업 친화적 정책을 지향하고 있다.

디지털데일리

<이미지를 클릭하시면 크게 보실 수 있습니다>




중국은 일당정치, 사회주의 국가란 특성에 맞춰 국익 중심의 AI 규제를 지향한다. AI 관련 콘텐츠 부문만 보더라도 사회주의 핵심가치를 반영하도록 강제하는 등 국가가 AI 산업을 강하게 통제하려는 면모가 엿보인다. 또한 장 센터장은 중국이 국익에 따른 AI 이슈 대응 또한 상당히 빠른 편이라고 평가했다. 국가 및 사회에 부정적 영향을 미칠 것으로 판단될 경우 빠른 형태로 규제법을 만들어 통제하는 스타일이란 이야기다.

이밖에 주요국 경제개발 기구인 OECD 또한 EU보다 앞서 국가 단위 AI 활용 원칙을 규정하고, 올해는 생성형 AI 등장에 따른 변화를 반영해 이를 업데이트한 바 있다. 국제기구 특성상 주요 내용은 포용과 성장, 지속가능성, 인간중심, 안전성 확보 등 큰 범주의 요소가 많다. 구속력이 약하나 주요 국가 대표들이 동의하고 채택한 기본 원칙이란 점에서 의미를 갖는다.

한국은 제21대 국회에서 10여개 AI 기본법이 발의됐으나 계류 중 폐기됐으며 제22대 국회에서도 6개의 법안이 발의된 상황이다. 전반적인 형태는 EU와 미국 스타일의 절충안으로 평가되고 있다. 시스템적으로 고위험 AI에 대한 책무, 생성형 AI 투명성 강화, 국가 AI 컨트롤타워 설치 등은 EU와 유사하며 규제 위반 시 처벌 수준이 약한 것은 시장 친화적인 미국과 유사하기 때문이다.

한국만의 AI 법 지향점, 구체성 공고히 해야

하지만 장 센터장은 한국이 보다 명확한 AI 기본법 제정 방안을 마련해야 한다고 강조했다.

그는 "우리의 방식이 하이브리드나 절충형이라 이야기되지만, 실질적으론 밝혀지기 않은 AI의 위험성에 따른 잠재적 파급 효과가 클 수 있다. 또한 AI 산업 육성을 위한 지원, 윤리원칙 기반의 인간의 자발적 노력을 어디까지 제도화할 것인지에서 우리만의 중요점을 찾아내는 것이 앞으로의 숙제로 본다"고 말했다.

특히 AI법 적용 주체와 범주를 구체화하는 것의 중요성을 강조했다. 강한 규제든, 약한 규제든 적용 대상이 명확하지 않을 경우 불필요한 사회적 혼란과 기업의 활동 위축을 낳을 수 있기 때문이다. 각자의 스타일이 명확한 EU, 영국, 일본 등도 이를 상당히 명확화하고 있다.

반면 한국은 아직 AI의 전반적 개념과 위험도 구분 등 다소 예리하지 못한 수준의 논의가 이뤄지고 있는 점에서 불확실성이 따르는 상태다. 이에 특히 화두인 고위험 AI 범위 분류 역시 일괄 규정이 아니라 사용자, 적용 처벌 위험도에 비례하여 이해관계자들에게 걸맞은 서비스 책무 수준을 예측할 수 있는 수준의 법률안 마련도 필요하다는 지적이 따랐다.

디지털데일리

<이미지를 클릭하시면 크게 보실 수 있습니다>




이에 장 센터장은 최종 시사점을 도출하며 "AI 기본법을 만드는 궁극적 목표부터 명확히 하라"고 제언했다. 국민의 권리가 중요한지, AI 기업들의 혁신이 더 중요한지 고민하고 논의하란 의미다. 이것도 저것도 아닌 모호한 법이 오히려 시민사회 보호나 기업의 경쟁력 진흥 등 어느 쪽도 만족시키지 못하고 명분만 좋은 법이 될 것을 우려한 것으로 보인다.

장 센터장은 "과학기술정보통신부는 공식적으로 한국의 AI '주요 3개국(G3)' 도약을 주요 목표로 발표했다. G3로 평가하는 지표가 인간 권리 증진에 있는지, 시장 규모에 두는지에 따라 방향이 달라질 것"이라며 "만약 시장 규모에 방점을 둔다면 AI 기업을 지원하는 방향이 옳겠지만 치우치는 건 옳지 않다. 정책 방향성을 정하고 정책적 자원 투입의 우선순위 지정 또한 중요하다는 의미"라고 말했다.

- Copyright ⓒ 디지털데일리. 무단전재 및 재배포 금지 -
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.