컨텐츠로 건너뛰기
검색
테크42 언론사 이미지

AI 기본법 시행 D-2, 서비스 뭐가 바뀌나

테크42 정재엽 기자
원문보기

AI 기본법 시행 D-2, 서비스 뭐가 바뀌나

속보
코스피, 급락 출발 ··· 4,800선 움직임
  • 생성형·고영향 AI 사업자 투명성 확보 의무, 위반 시 3000만원 과태료
  • 금융·의료·자율주행 분야 위험관리·설명 의무 강화…해외 기업도 규제 대상
  • 스타트업 101곳 중 2%만 대응 계획 수립…"기준 모호해 현장 혼란"
ⓒTech42

ⓒTech42


세계에서 두 번째로 포괄적인 AI 규제 법안이 오는 1월 22일 시행되며 네이버·카카오·금융권 등 국내 주요 AI 서비스에 투명성 및 안전성 확보 의무가 부과된다.

과학기술정보통신부는 2025년 1월 21일 공포된 '인공지능 발전과 신뢰 기반 조성 등에 관한 기본법'(이하 AI 기본법)이 2026년 1월 22일부터 시행된다고 밝혔다. 이번 법 시행으로 한국은 유럽연합(EU)에 이어 세계에서 두 번째로 체계적인 AI 규제 체계를 갖춘 국가가 됐다.

AI 기본법의 핵심은 '생성형 AI'와 '고영향 AI' 사업자에 대한 의무 부과다. 생성형 AI는 챗GPT, 네이버 하이퍼클로바X(HyperCLOVA X), 카카오 카나나처럼 입력 데이터를 기반으로 글·소리·그림·영상 등을 생성하는 AI 시스템을 말한다. 고영향 AI는 사람의 생명·신체 안전·기본권에 중대한 영향을 미치는 AI로, 의료기기 진단·금융 신용평가·채용·대출 심사·자율주행 시스템 등이 해당된다.

가장 먼저 적용되는 것은 투명성 확보 의무다. 생성형 AI 및 고영향 AI를 이용한 제품이나 서비스를 제공하는 사업자는 해당 사실을 이용자에게 사전에 명확히 고지해야 한다. 특히 딥페이크 등 실제와 구분하기 어려운 결과물의 경우 생성형 AI로 만들어졌다는 사실을 명확하게 표시해야 한다. 이를 위반할 경우 최대 3000만원의 과태료가 부과된다.

고영향 AI 사업자에게는 더 강화된 책무가 주어진다. 위험관리 방안 수립·운영, AI 의사결정 결과에 대한 설명 제공, 이용자 보호 방안 마련, 사람의 관리·감독 체계 구축, 안전성·신뢰성 확보를 위한 문서 작성 및 보관 등이 필수다. 금융권의 신용평가 시스템, 의료 AI 진단 소프트웨어, 자율주행차량 등이 이 범주에 포함될 전망이다.

국내 주요 플랫폼 기업들의 대응도 주목된다. 네이버는 자체 개발한 대규모 언어모델(LLM) '하이퍼클로바X'를 기반으로 검색·쇼핑·광고 등 전 서비스에 AI를 적용하고 있으며, 카카오는 소형언어모델(sLM) '카나나'를 카카오톡에 통합해 AI 에이전트 서비스를 준비 중이다. 두 기업 모두 생성형 AI 사업자로서 투명성 확보 의무를 이행해야 한다.


금융권도 변화가 불가피하다. 은행·카드사·보험사의 AI 기반 신용평가·대출심사·보험심사 시스템이 고영향 AI로 분류될 경우, 알고리즘 편향성 테스트 강화와 AI 의사결정에 대한 설명 가능성 확보가 필수가 된다. 한 금융권 관계자는 "AI 기반 신용평가 시스템의 경우 왜 특정 고객이 대출 거부되었는지 명확히 설명할 수 있어야 한다"고 말했다.

의료 분야 역시 큰 영향을 받는다. AI 기반 영상진단 보조 소프트웨어, 질병 예측 시스템 등이 고영향 AI로 분류될 가능성이 높다. 다만 의료 AI는 이미 식품의약품안전처의 '디지털의료제품법' 규제를 받고 있어, 기존 규제 요구사항을 충족할 경우 AI 기본법의 고영향 AI 책무 이행으로 간주될 예정이다.

국내에 주소나 영업소가 없는 해외 AI 사업자도 규제 대상이다. 오픈AI(챗GPT), Google(제미나이), 앤스로픽(클로드) 등 글로벌 AI 기업들이 한국 시장에서 일정 규모 이상의 서비스를 제공할 경우 국내 대리인을 지정해야 한다. 이는 EU AI법(AI Act)의 역외 적용 원칙과 유사한 접근이다.


자율주행 분야에서는 현대자동차·기아 등 완성차 업체뿐 아니라 웨이모·테슬라 같은 해외 기업도 국내 진출 시 국내 대리인 지정과 안전성 확보 의무를 준수해야 한다.

안전성 확보 의무도 새롭게 도입됐다. AI 모델을 만들 때 사용한 컴퓨팅 계산량이 10의 26승 부동소수점 연산(FLOPs, AI 학습에 필요한 연산량을 측정하는 기준) 이상인 대규모 AI 시스템은 별도의 안전성 관리 의무를 져야 한다. 이는 챗GPT-4 수준의 초거대 AI 모델이 해당되며, 미국 등 주요국의 AI 규제 기준을 참고한 것이다. 대규모 AI 모델이 예측하기 어려운 위험을 일으킬 수 있다는 점을 고려해 사전에 안전장치를 마련하도록 한 조치다.

국내 AI 스타트업의 대다수가 법 시행 준비가 미흡한 것으로 나타났다. 스타트업얼라이언스 조사에 따르면 98%가 실질적 대응 체계를 갖추지 못했다. 소셜미디어와 온라인 커뮤니티에는 스타트업 종사자들의 불안감이 고스란히 드러나고 있다. AI 스타트업 관계자들은 "소규모 팀으로는 법 조문 해석조차 어렵다", "고영향 AI 지정 기준이 모호해 서비스 출시 일정조차 잡을 수 없다", "데이터 투명성 확보 등 기준 불명확으로 현장 혼란만 가중된다"는 우려를 잇따라 제기했다.


정부는 법 시행 초기 기업들의 혼란을 최소화하기 위해 최소 1년 이상의 계도 기간을 운영할 계획이다. 실제 과태료 부과는 빨라도 2027년 이후가 될 전망이다. 과기정통부는 사실 조사도 인명 사고·인권 훼손 등 사회적 문제를 야기하거나 국가적 피해를 초래한 경우에만 예외적으로 실시한다고 밝혔다.

과기정통부는 안전·신뢰 기반 조성 제도의 현장 안착을 위해 고영향 AI 기준·예시 가이드라인, AI 안전성·투명성 확보 의무 고시 및 가이드라인, AI 영향평가 가이드라인 등 세부 지침을 마련할 예정이다. AI 사업자가 자사 서비스의 고영향 AI 해당 여부 확인을 요청할 경우, 과기정통부는 30일 이내에 답변해야 하며 필요시 1회에 한해 30일 연장이 가능하다.

배경훈 부총리 겸 과기정통부 장관은 "AI 기본법이 국내 AI 산업 발전을 돕는 든든한 파트너가 되도록 지원하겠다"며 "규제보다는 산업 진흥이 우선이라는 기조 아래, 기업들이 새로운 규제 환경에 안착할 수 있도록 통합안내지원센터를 운영할 것"이라고 말했다.

업계에서는 AI 기본법이 한국 AI 산업의 글로벌 경쟁력에 미칠 영향에 대해 엇갈린 반응을 보이고 있다. 일각에서는 투명성과 안전성을 갖춘 AI 시스템 구축이 장기적으로 기업 신뢰도를 높일 것이라는 긍정적 전망을 내놓는 반면, 다른 쪽에서는 과도한 규제가 혁신을 저해할 수 있다는 우려를 제기하고 있다.

한편 AI 기본법은 규제뿐 아니라 AI 산업 육성을 위한 지원 근거도 담고 있다. AI 연구개발(R&D), 학습용 데이터 구축, AI 도입·활용 지원, 중소기업 특별 지원, 창업 활성화, 해외시장 진출 지원, AI 집적단지 조성, 실증기반 조성 등 다양한 산업 지원 정책이 추진된다.

정재엽 기자

저작권자 © Tech42 - Tech Journalism by AI 테크42 무단전재 및 재배포 금지