컨텐츠로 건너뛰기
검색
이데일리 언론사 이미지

[해설] 자율주행 레벨4처럼 완전무인은 고영향AI…중복 규제 가능성도

이데일리 김현아
원문보기

[해설] 자율주행 레벨4처럼 완전무인은 고영향AI…중복 규제 가능성도

속보
트럼프 "그린란드 요구 거부하면 기억해 둘 것"
세계 최초 AI기본법 내일 시행
고영향 AI 분류에 산업계 촉각
AI채용, 담당자가 기준 조정해 결과 바꿀 수 있으면 제외
영역별 규제 중첩 우려 커
정부 "헬프데스크로 컨설팅 지원"
[이데일리 김현아 김아름 기자]구글 ‘웨이모’처럼 자율주행 레벨4 서비스를 운영하는 기업과 AI 기반 채용 시스템 운영사, 1만명 이상을 대상으로 AI 대출 심사를 적용하는 금융권은 ‘고영향 AI’로 분류될 경우 사전 고지 의무를 부담한다. 아울러 안전성·신뢰성 확보와 이용자 설명 요구에 대응할 체계를 갖춰야 한다. 의무를 이행하지 않으면 과학기술정보통신부가 사실조사에 착수해 시정명령을 내릴 수 있다.

생성형 AI를 서비스로 제공하는 사업자에게는 ‘투명성(표시) 의무’도 적용된다. 애니메이션·웹툰 등 일반 AI 생성물은 가시적 워터마크뿐 아니라 디지털 워터마크, 알림창·UI 안내 등 비가시적 방식도 허용된다. 다만 결과물이 다운로드·공유 등으로 서비스 밖으로 반출될 경우 표시 강도는 높아진다. 특히 딥페이크처럼 현실과 구분이 어려운 생성물은 이용자가 명확히 인식할 수 있는 표시를 의무화했다.

정부는 세계 최초로 AI 규제법(AI 기본법)이 시행되는 데 따른 현장 혼선을 고려해 최소 1년 이상 계도기간을 운영하고, 이 기간 규제 집행을 유예하기로 했다. 기업의 해석 부담을 줄이기 위해 ‘헬프데스크’를 통해 법 적용 상담과 컨설팅도 지원한다는 방침이다. 다만 첫 시행인 만큼 업계가 제도에 적응하는 과정에서 일정 수준의 혼란은 불가피할 전망이다.

[이데일리 김정훈 기자]

[이데일리 김정훈 기자]


고영향 AI ‘판정’ 쥔 키워드는 ‘사람 개입·통제’

내일(22일)부터 세계 최초로 시행되는 ‘AI기본법’에서 산업계가 가장 촉각을 곤두세우는 대목은 ‘고영향 AI’ 판단 기준이다. 특히 채용 분야는 한 번의 판단이 개인의 기회와 생계로 직결되는 데다 공정성 논란, 개인정보 이슈까지 맞물려 “어디까지가 고영향이냐”를 두고 기업들의 긴장감이 크다.

과학기술정보통신부 고위 관계자는 고영향 AI를 가르는 핵심 잣대로 ‘사람의 개입과 통제 가능성’을 제시했다. 그는 “레벨4 자율주행차처럼 사람이 개입할 수 없는 구조는 고영향으로 판단할 수밖에 없다”며 “채용 AI도 사람이 개입하지 않고 결과만 ‘툭’ 던져 그대로 활용하면 고영향이지만, 사람이 개입하도록 설계하면 고영향에서 벗어날 여지가 있다”고 말했다.

채용 분야에서는 ‘설명 가능성’과 ‘조정 가능성’이 분기점이 될 수 있다는 게 정부 설명이다. 예컨대 채용 담당자가 AI 에이전트에 “왜 여성 비율이 70%인가”처럼 근거를 요구했을 때, AI가 데이터·기준을 설명하고 담당자가 기준을 조정해 결과를 다시 산출하는 절차가 가능하다면 단순 자동결정과는 성격이 달라질 수 있다는 취지다. 이 관계자는 “시행령의 판단 기준에 따라 시스템에 사람이 개입할 여지가 있는지를 보게 될 것”이라며 “개입이 어렵다면 고영향으로 분류될 가능성이 크다”고 했다.



안전성 의무는 구글도 오픈AI도 대상 아냐…고영향AI 규제 중첩 걱정


기업들이 가장 민감하게 바라보는 ‘고영향 AI’와 달리, ‘안전성 확보 의무’ 적용 대상 사업자는 아직 국내외에 사실상 없다. 기준이 매우 높아서다. 학습에 사용된 누적 연산량이 10의 26제곱 플롭스(FLOPS) 이상인 최첨단 모델을 운영하는 경우에만 안전성 의무가 부과되는데, 현재 구글 ‘제미나이’나 오픈AI ‘GPT’도 이 기준에는 미치지 못한다.

다만 이 기준이 영원히 ‘빈칸’으로 남지는 않을 전망이다. 일론 머스크 테슬라 CEO 등 일부는 인간 수준의 범용 인공지능(AGI)이 2027~2030년께 등장할 수 있다고 보고 있어, 조만간 안전성 의무 대상이 현실화될 가능성도 거론된다.

AI 기본법상 안전성 의무 대상 사업자가 등장하면, AI 시스템의 개발·활용·폐기 전 과정에서 발생할 수 있는 위험을 사전에 식별·평가하고, 이를 줄이기 위한 체계적 관리 조치를 마련해야 한다. 일종의 ‘전 생애주기 안전관리’가 법적 의무로 붙는 셈이다.


업계가 당장 체감할 규제는 안전성 의무보다, ‘고영향 AI’가 어디까지로 굳어지느냐에 가깝다. 더 큰 문제는 고영향 판단이 ‘AI 기본법 하나’로 끝나지 않는다는 점이다.

법조계에서는 규제 공백보다 “규제 중첩과 충돌”이 기업 부담을 키울 수 있다고 경고한다. 강정희 변호사(법무법인 태평양)는 고려대 기술법정책센터 세미나에서 “AI 기본법의 리스크는 규제가 없는 공백이 아니라, 여러 법과 기관이 동시에 작동하면서 발생하는 규제 중첩과 충돌”이라고 진단했다. 채용 AI는 개인정보보호위원회의 감독과 고용·노동 영역의 공정성 규율이 동시에 적용될 수 있고, 금융·의료·미디어로 갈수록 다중 규제 구조가 더 복잡해질 수 있다는 지적이다. 기업 입장에선 ‘어느 기관 기준을 우선 적용해야 하는지’가 불명확해져, 결국 가장 보수적인 기준을 택하면서 컴플라이언스 비용과 법적 리스크가 커질 수 있다는 것이다.

정부 “부처별 기준 맞춘다”…AI 기본법 혼선, 헬프데스크로 잡는다

정부는 AI 기본법 적용 과정에서 불거질 수 있는 기준 혼선을 줄이기 위해 관계부처 협의를 통해 정합성을 높이겠다는 입장이다. 과기정통부 고위 관계자는 “의료는 복지부, 고용은 고용부, 금융은 금융위처럼 도메인 지식이 필요한 영역은 관계부처 의견을 받아 목록을 정리하고 함께 논의해 왔다”며 “기업들이 혼자 끙끙 앓지 않도록 헬프데스크를 통해 법 해석과 컨설팅을 지원하겠다”고 말했다.

업계에서는 채용이나 자율주행 레벨4를 포함한 ‘고영향 AI’ 판단이 실제 현장 사례에 본격 적용되기 시작할 때, 규제의 무게중심이 어디로 옮겨갈지 윤곽이 드러날 것으로 보고 있다.