김윤수 테크성장부
국가대표 인공지능(AI) 타이틀을 두고 경합하는 ‘독자 AI 파운데이션 모델’ 개발사가 15일 1차 평가를 거쳐 다섯 팀에서 세 팀으로 압축됐다. 정부는 이를 시작으로 최종 두 팀을 추려 그래픽처리장치(GPU)와 데이터 지원을 집중함으로써 글로벌 빅테크에 맞먹는 모델 확보를 꾀한다.
이번 경합에 업계 관심이 집중되는 동안 해외에서는 그록과 관련된 논란이 불거졌다. AI 서비스 그록이 아동을 성적 대상으로 한 딥페이크 이미지를 생성하면서 각국에서 제재 움직임이 확대되고 있다. 1년 전 기술 혁신으로 글로벌 빅테크에 충격을 줬던 딥시크도 안전성 우려로 주요국에서 외면당했고 현재 중국 외 미국·유럽·인도·한국 등에서는 시장점유율이 5%에 못 미친다. 딥페이크 범죄나 정보 유출, 심지어 불법 무기 개발 같은 부작용을 통제하는 안전성이 시장에서 성능 못지않은 핵심 경쟁력이 된 것이다.
독자 AI 파운데이션 모델도 고성능 AI 모델로서 안전성 우려에서 자유로울 수 없다. 누구나 쓸 수 있는 오픈소스(개방형) 모델이라서 특히 그렇다. 오픈소스 모델은 “민간의 다양한 서비스 출시를 유도하고 국내 AI 산업 생태계의 활력을 제고한다”는 정부 취지대로 개방성을 앞세워 생태계를 빠르게 넓히는 데 유리하지만 외부 개발자가 모델을 임의로 변형할 수 있어 통제력은 더 낮다. 이에 최근 미국 미래생명연구소(FLI)의 ‘AI 안전성지수’에서 xAI·메타·딥시크·즈푸AI·알리바바 등 오픈소스 진영에서 내로라하는 5대 개발사 모두 1점 안팎의 낙제점을 받기도 했다.
독자 AI 파운데이션 모델 2차 평가부터는 성능뿐 아니라 안전성 전용 벤치마크(평가지표) 도입 등 관련 평가 비중을 확대할 필요가 있다. 이번 1차 평가는 13가지 공통 벤치마크를 통해 다각도로 이뤄졌지만 대부분 성능 평가 위주였다. 전문가 평가에서도 ‘안전하고 신뢰성 있는 AI 모델 개발 기술력’이 35점 만점 중 10점짜리 ‘개발 전략 및 기술’ 항목에 함께 반영된 정도다. 위험한 AI에 대한 규제 기준도 필요하다. ‘고영향 AI’ 규제 조항을 담은 ‘AI 발전과 신뢰 기반 조성 등에 관한 기본법(AI 기본법)’이 22일 시행을 앞뒀지만 여전히 기준이 추상적이라 실효성이 부족하다는 지적이 나온다.
김윤수 기자 sookim@sedaily.com
[ⓒ 서울경제, 무단 전재 및 재배포 금지]
