컨텐츠 바로가기

04.24 (수)

AI경쟁 한발 늦은 韓 … 규제보다 산업 촉진에 초점

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다
다음달 9일 샘 올트먼 오픈AI 최고경영자(CEO)의 방한을 계기로 국내에서도 무섭게 진화하는 생성형 인공지능(AI) 서비스 진흥과 적정 규제에 대한 논의가 불붙을 것으로 보인다.

기본적으로 한국 정부 기조는 AI 산업 육성과 관련 생태계 진흥에 초점을 맞춰 제도 정비에 나선다는 것이다. 우리나라가 미국, 중국 등과 함께 세계에서 몇 안되는 AI 원천 기술 개발국이라는 점에서 자칫 규제 중심으로 법·제도를 정비하면 'AI 주권'이 위협받을 수 있을 것이란 공감대가 형성되고 있다.

국내에선 2020년 7월 발의된 '인공지능 연구개발 및 산업 진흥, 윤리적 책임 등에 관한 법률안'을 시작으로 2022년 12월 '인공지능산업 육성 및 신뢰 기반 조성 등에 관한 법률안'까지 총 7개 관련 법률안이 발의됐다. 이후 지난 2월 국회 과학기술정보방송통신위원회의 법안심사소위원회가 지금까지 여야에서 각기 발의한 7개 법안을 모두 폐기하고, 그 내용을 통합 조정한 대안을 심사소위 대안으로 가결했다.

해당 통합 법안의 가장 큰 특징은 AI 기술 발전 촉진을 위해 '우선 허용, 사후 규제' 원칙을 명문화했다는 점이다. 일례로 누구든지 AI 기술과 알고리즘을 연구개발하고 관련 제품을 출시하도록 보장했다.

다만 의료 행위, 전기·가스 공급과 같이 생명과 안전, 기본권에 중대한 영향을 미칠 우려가 있는 '고위험 AI'에 대해선 사업자가 이용자에게 AI 사용 사실을 사전에 반드시 고지하고 신뢰성 확보 조치를 취하도록 했다.

고위험 AI 서비스의 시장 진출 자체를 봉쇄할 수 있도록 하는 유럽의 규제 초안과 비교해 한층 시장 친화적 규제 접근이라는 평가다. 또한 정부가 3년마다 AI 기본계획을 수립하는 한편, 관련 예산 배분을 심의·관장할 컨트롤타워로 국무총리 산하에 민관 협력 인공지능위원회를 두는 것이 핵심 내용이다. 해당 법안은 상임위원회 의결을 거쳐 법제사법위원회와 본회의 심의를 남겨놓은 상황이다.

당초 위원회 대안으로 상정해 즉각 법안을 통과시키려는 움직임이 감지됐지만 현재 논의가 답보 상태인 것으로 알려졌다. 참여연대와 민주사회를 위한 변호사모임 디지털정보위원회를 비롯한 5개 단체가 지난달 "고위험 AI에 대한 정의는 자의적이고 구체적인 위험 방지 대책도 전무한 만큼 법안의 전면 재검토가 필요하다"고 공식적으로 반발했다.

이런 분위기 속에서 네이버, 카카오 등 올해 하반기 자체 생성형 AI 모델과 이에 기반한 버티컬 서비스 출시를 준비하고 있는 국내 빅테크들은 자체적으로 'AI 윤리 준칙'을 두고 있다.

아울러 전 세계적으로 AI가 만들어내는 이미지, 영상, 음성 등이 갈수록 정교해지면서 관련 오·남용 문제가 사회적 화두로 떠오르자 최근 국내에서도 AI로 만든 콘텐츠임을 의무적으로 표시하도록 하는 법률안이 발의됐다.

한편 정부는 생성형 AI 모델의 위험성과 성능 등에 대해 제3 기관이 평가할 수 있도록 지원하는 방안을 추진하고, 올 하반기에는 AI 윤리와 관련된 검·인증 체계를 마련하기로 했다. 이와 관련해 업계에선 이미 AI 서비스에 대한 윤리 점검 프로그램 등이 구축돼 있는 만큼 강도 높은 사후 규제를 지양해야 한다는 의견도 나온다.

[고민서 기자 / 우수민 기자]

[ⓒ 매일경제 & mk.co.kr, 무단전재 및 재배포 금지]
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.