"주요국 AI 모델 편향성·데이터 규제, 무역장벽 될 수 있어"
"아태지역부터 공신력 확보 숙제…AI 리스크 우선순위 매길 것"
27일 경기 성남시 판교 글로벌 연구개발(R&D) 센터에서 한국 인공지능(AI) 안전연구소가 출범했다. 취재진 질문에 답하는 김명주 AI 안전연구소 초대 소장./뉴스1 ⓒ News1 윤주영 기자 |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
(경기=뉴스1) 윤주영 기자 = 27일 판교 글로벌 연구개발(R&D) 센터에서 출범한 '한국 인공지능(AI) 안전연구소'는 AI 모델의 편향성, 환각 등 위험성을 최소화하는 연구를 수행한다. 안전성 관련 평가기준 및 정책도 수립한다.
다만 이는 국내 AI 기업을 규제하는 게 아닌, 해외 진출에 필요한 안전성 관련 규제준수(컴플라이언스)를 선제적으로 돕자는 취지다.
이날 개소식에서 만난 김명주 AI 안전연구소 초대소장은 유럽 일반 개인정보 보호법(GDPR) 등을 예시로 들었다.
그는 "GDPR로 인해 유럽에 진출하는 정보기술(IT) 기업 등은 유럽 시장법을 새로 따라야 한다"며 "우리 AI 기업도 이러한 장벽에 가로막힐 수 있으므로 연구개발(R&D) 단계서부터 규제, 인증 및 여러 표준절차를 살피는 게 필요하다"고 말했다.
학습 데이터 보안, 언어모델 편향성 등을 다루는 규제가 주요국 위주로 형성되면 일종의 무역장벽이 된다는 의미다. 유럽연합(EU)의 AI법 'AI 액트'도 올해 8월 발효되는 등 진입장벽은 점점 높아지는 추세다.
연구소는 이를 막고자 글로벌 AI 안전성 강화 네트워크 일원으로서 기술 표준을 논의하는 데 참여한다. 한국 AI기업이 국내 AI 기본법을 준수하면 해외 규제를 면제받는 '규제 호환성'을 확보하는 것이 목표다.
관건은 글로벌 네트워크에서 우리 연구소가 가진 공신력·영향력을 키우는 것이다.
김 소장은 "아시아 태평양 네트워크부터 대표해야 한다는 미션을 받았으나 현재 AI 안전성 평가 분야는 싱가포르가 주도하고 있어 이를 따라잡아야 한다"고 말했다.
연구소가 향후 만들어낼 안전성 평가 지표, 위험 측정 설루션 등은 충분히 실전 경험을 쌓아야 한다. 연구소가 유수의 IT기업과 접촉하며 연구를 수행하기 용이한 판교에 자리 잡은 이유이기도 하다. 네이버, KT, LG AI 연구원 등 산·학·연 24곳서 참여한 '대한민국 AI 안전 컨소시엄'과도 협력할 계획이다.
김 소장은 "장기적으론 오픈AI, 앤스로픽 등 해외 빅테크 기업과도 네트워크를 형성해 (연구 등) 퀘스트를 할 수 있어야 한다"고 강조했다.
연구소의 내년 과제가 확정되진 않았으나 김 소장은 AI의 리스크를 분류화(도메인)한 뒤 우선순위를 매기는 게 급선무라고 했다. 이는 세계 AI 안전연구소들도 공통으로 꼽는 주요 과제다.
연구소는 내년 안전성 평가 지표 마련 등 비R&D 과업에 약 40억 원, 설루션 개발 등 R&D에 약 80억 원 예산을 운용할 계획이다. 인원의 경우 한국전자통신연구원(ETRI) 산하 기관으로 출발해 약 13명인데 내후년까지 30명 규모로 늘린다.
legomaster@news1.kr
Copyright ⓒ 뉴스1. All rights reserved. 무단 전재 및 재배포, AI학습 이용 금지.
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.