[박찬 기자]
오픈AI와 구글이 최근 최신 인공지능(AI) 모델을 공개하며 세부적인 안전 정보를 공개하지 않아 빈축을 사고 있다. 숨 가쁘게 모델이 쏟아지는 가운데, 시스템 카드 공개가 늦어지는 것은 물론, 이제는 아예 건너뛰는 사례까지 발생하고 있다.
구글은 17일(현지시간) '제미나이 2.5 프로' 안전 평가 결과를 담은 기술 보고서를 공개했다. 이는 3월26일 모델 출시 후 거의 3주 만이다.
하지만, 세부 정보 부족으로 인해 실질적인 위험 평가가 어렵다는 지적이 잇따르고 있다. AI 모델의 위험성과 기능을 분석한 내부 검토 결과를 담고 있으나, 전문가들은 구체적인 수치나 검증 가능한 내용이 거의 포함되지 않았다고 비판했다.
![]() |
오픈AI와 구글이 최근 최신 인공지능(AI) 모델을 공개하며 세부적인 안전 정보를 공개하지 않아 빈축을 사고 있다. 숨 가쁘게 모델이 쏟아지는 가운데, 시스템 카드 공개가 늦어지는 것은 물론, 이제는 아예 건너뛰는 사례까지 발생하고 있다.
구글은 17일(현지시간) '제미나이 2.5 프로' 안전 평가 결과를 담은 기술 보고서를 공개했다. 이는 3월26일 모델 출시 후 거의 3주 만이다.
하지만, 세부 정보 부족으로 인해 실질적인 위험 평가가 어렵다는 지적이 잇따르고 있다. AI 모델의 위험성과 기능을 분석한 내부 검토 결과를 담고 있으나, 전문가들은 구체적인 수치나 검증 가능한 내용이 거의 포함되지 않았다고 비판했다.
피터 윌더퍼드 AI 정책 및 전략 연구소 공동 창립자는 "보고서가 매우 빈약하고, 모델이 공개된 지 몇주나 지난 후에야 나왔다"라며 "구글이 공적으로 밝힌 안전 약속을 지키고 있는지 검증할 수 없다"라고 말했다.
기술 보고서는 일반적으로 기업이 대외적으로 공개하지 않는 정보, 특히 잠재적 위험을 포함한 중요한 세부 사항을 담는다. 그러나 구글은 경쟁사들과는 달리, 모델이 '실험적' 단계에서 벗어났다고 판단될 때만 기술 보고서를 발행한다. 또, 모든 '위험 능력' 평가 결과를 포함하지 않고 별도 감사를 통해 일부만 공개하는 방식을 고수하고 있다.
이번 제미나이 2.5 프로 보고서에는 구글이 지난해 도입한 프론티어 세이프티 프레임워크(FSF)에 대한 언급도 빠져 있어, 향후 AI가 초래할 수 있는 심각한 문제에 대한 대비 조치가 충분히 반영되지 않았다는 비판이 나오고 있다.
특히 구글은 규제 당국과의 약속으로 인해 더욱 엄격한 기준이 요구된다. 2년 전 미국 정부에 "중요한 공공 AI 모델에 대해 안전 보고서를 정기적으로 공개하겠다"라고 약속했으며, 이후 다른 국가들에도 비슷한 투명성 약속을 한 바 있다.
토머스 우드사이드 시큐어 AI 프로젝트의 공동 창립자도 이를 지적했다. "구글이 마지막으로 위험 능력 테스트 결과를 발표한 것은 2024년 6월이며, 해당 모델은 그해 2월에 이미 공개된 상태였다"라고 말했다.
여기에 17일 발표한 '제미나이 2.5 플래시'에 대한 안전 보고서는 아직 공개되지 않았으며, 구글 측은 "곧 발표할 예정"이라고 밝혔다.
이런 문제는 구글만이 아니다. 오픈AI는 지난주 'GPT-4.1'을 공개하며 시스템 카드를 아예 포함하지 않았다. 샤오키 암도 오픈AI 대변인은 "GPT-4.1은 프런티어 모델이 아니기 때문에 별도의 시스템 카드를 공개하지 않을 것"이라고 밝혔다.
오픈AI도 최근 몇 개월간 안전성 보고서와 관련해 지적을 받아 왔다. 지난해 12월 'o1'과 'o1-프로' 출시 당시 실제 배포된 모델보다 성능이 낮은 다른 버전의 안전성 보고서를 발표했다는 의혹이 나왔다. '딥 리서치'도 출시 몇주가 지나서야 시스템 카드를 공개했다.
이에 대해 전직 오픈AI 안전 연구원인 스티븐 애들러는 "안전성 보고서는 어떤 법적 의무도 아닌 자발적인 조치"라고 설명했다. 즉, 기업들이 보고서를 공개하지 않아도 법적으로 처벌받지 않는다.
하지만 우드사이드 창립자는 "모델이 정교해질수록, 그것이 초래할 수 있는 위험도 커진다"라며 "그럴수록 안전성 평가가 더 중요해진다"고 강조했다.
한편, 오픈AI와 구글 등은 AI 안전 보고를 법제화하려는 움직임에 반대해 왔다. 지난해 캘리포니아주의 SB 1047 법안이 대표적인데, 여기에는 AI 개발자가 모델 안전 평가 결과 공개 의무화가 포함됐다.
박찬 기자 cpark@aitimes.com
<저작권자 Copyright ⓒ AI타임스 무단전재 및 재배포 금지>
이 기사의 카테고리는 언론사의 분류를 따릅니다.