[박찬 기자]
대형언어모델(LLM)이 학습한 내용을 얼마나 '기억'하고, 얼마나 '일반화'하는지에 대한 근거가 처음으로 제시됐다. 트랜스포머 아키텍처의 GPT 스타일 모델은 매개변수 하나당 약 3.6비트(bit)의 정보를 기억하는 고정된 용량을 가진다는 내용으로, 이는 인공지능(AI)이 정보를 무작위로 저장하는 것이 아니라 제한된 기억 능력을 여러 데이터에 분산해 사용한다는 구조라는 것을 보여 준다.
메타와 구글 딥마인드, 코넬대학교, 엔비디아 공동 연구진은 3일(현지시간) GPT 계열 LLM의 기억 용량을 정량적으로 측정한 '언어 모델은 얼마나 기억할까(How much do language models memorize)'라는 논문을 아카이브에 게재했다.
언어 데이터는 패턴과 문법, 의미 중복 등으로 인해 모델이 정답을 기억했는지 일반화했는지를 구분하기 어렵다. 이를 극복하기 위해 연구진은 전례 없는 실험 방법을 도입했다. 완전히 무작위 비트 문자열로 구성된 데이터셋을 트랜스포머 모델에 학습한 것이다.
![]() |
(사진=셔터스톡) |
대형언어모델(LLM)이 학습한 내용을 얼마나 '기억'하고, 얼마나 '일반화'하는지에 대한 근거가 처음으로 제시됐다. 트랜스포머 아키텍처의 GPT 스타일 모델은 매개변수 하나당 약 3.6비트(bit)의 정보를 기억하는 고정된 용량을 가진다는 내용으로, 이는 인공지능(AI)이 정보를 무작위로 저장하는 것이 아니라 제한된 기억 능력을 여러 데이터에 분산해 사용한다는 구조라는 것을 보여 준다.
메타와 구글 딥마인드, 코넬대학교, 엔비디아 공동 연구진은 3일(현지시간) GPT 계열 LLM의 기억 용량을 정량적으로 측정한 '언어 모델은 얼마나 기억할까(How much do language models memorize)'라는 논문을 아카이브에 게재했다.
언어 데이터는 패턴과 문법, 의미 중복 등으로 인해 모델이 정답을 기억했는지 일반화했는지를 구분하기 어렵다. 이를 극복하기 위해 연구진은 전례 없는 실험 방법을 도입했다. 완전히 무작위 비트 문자열로 구성된 데이터셋을 트랜스포머 모델에 학습한 것이다.
무작위 데이터에는 패턴이 없기 때문에 모델의 재현 능력은 전적으로 기억한 정보량을 반영한다. 이를 통해 모델의 매개변수와 기억된 정보량 사이에 직접적인 관계를 수치로 도출할 수 있다는 것이다.
그 결과, GPT 스타일 모델은 매개변수 하나당 약 3.6비트의 정보를 기억하는 고정된 용량을 가진다는 것이다. 또 모델을 32비트 부동소수점(float32) 정밀도로 학습할 경우 최대 3.83비트까지 증가하는 것으로 나타났다.
3.6비트를 저장하면 2^3.6으로 약 12.13개의 고유 값이 허용된다. 이는 영어 글자 하나(약 4.7비트)를 저장하는 데도 충분하지 않지만, 영어 철자 10개로 구성된 단어를 인코딩(약 3.32비트)하는 데는 충분하다.
이 기억 용량은 모델 크기에 따라 저장할 수 있는 총 정보량으로 환산될 수 있다. 예를 들어, 50만개의 매개변수를 가진 모델은 약 225킬로바이트(KB)의 정보를 기억할 수 있으며, 15억개의 매개변수를 가진 대형 모델은 약 675메가바이트(MB)에 달하는 데이터를 저장할 수 있다.
이 비율은 모델의 구조나 정밀도가 달라져도 거의 일정하게 유지됐다. 즉, 모델의 깊이나 너비, 정밀도(float16, float32 등) 등이 다르더라도 매개변수당 기억 용량은 유사하게 나타났다.
https://twitter.com/jxmnop/status/1929903028372459909
이번 연구의 핵심 중 하나는 모델이 더 많은 데이터를 학습한다고 더 많이 기억하는 것은 아니라는 점이다.
오히려 모델의 기억 용량은 고정됐기 때문에 학습 데이터가 많아질수록 기억 용량이 전체 데이터셋에 분산되며, 결과적으로 개별 데이터는 덜 기억되는 경향을 보인다. 이는 데이터 양이 늘어날수록 특정 정보를 반복하거나 그대로 재현할 가능성이 낮아진다는 것을 의미하며, 모델의 기억 편중을 줄이고 일반화 능력을 강화하는 효과로 이어진다는 설명이다.
즉, 학습 데이터가 적으면 모델은 더 많은 정보를 기억하며, 데이터가 많아질수록 기억보다는 일반화된 패턴 학습으로 전환되는 특성을 보였다는 것이다. 이 과정에서 성능이 일시적으로 저하된 뒤 다시 향상하는, 이른바 '이중 하강(double descent)' 현상도 확인됐다.
이런 결과는 AI 모델의 훈련 과정에서 민감한 정보를 그대로 기억하거나 저작권이 있는 텍스트를 그대로 출력할 수 있다는 우려를 일부 해소할 수 있다. 대규모 데이터셋으로 학습하면 오히려 안전한 일반화(safe generalization) 가능성이 커진다는 것이다.
연구진은 AI가 특정 데이터를 학습했는지를 판별하는 '멤버십 추론 공격(Membership Inference Attack)' 가능성도 분석했다. 그 결과, 데이터셋이 커질수록 이런 공격의 정확도가 낮아지며, 이는 대규모의 모델 훈련이 개인정보 보호 위험을 줄이는 데 도움이 된다는 주장을 뒷받침한다.
그러나 예외적인 경우도 있다고 지적했다. 특정 문체나 희귀한 표현 등은 더 쉽게 기억될 수 있다는 것으로, 이번 연구는 전체적인 경향을 설명하는 데 초점을 맞췄다고 밝혔다.
이번 연구는 LLM의 기억 능력과 일반화 사이의 경계를 수치화한 최초의 시도 중 하나로 평가받고 있다. 특히 최근 AI 기업과 콘텐츠 제작자 간의 저작권 소송이 이어지는 가운데, 모델이 원본 콘텐츠를 그대로 출력한다는 주장을 뒤집는 근거로 활용될 가능성이 크다. 대표적으로 뉴욕 타임스는 챗GPT가 기사 원본을 그대로 '베꼈다고' 주장하고 있으며, 오픈AI는 이를 부인하고 있다.
연구진은 "결론적으로 더 많은 데이터를 학습하면 모델이 더 안전해진다"라고 주장했다. 데이터가 많을수록, 모델은 개별 샘플을 덜 기억하고 더 일반화된 방식으로 작동한다는 결론이다.
박찬 기자 cpark@aitimes.com
<저작권자 Copyright ⓒ AI타임스 무단전재 및 재배포 금지>
이 기사의 카테고리는 언론사의 분류를 따릅니다.