AI모델의 사이버보안 위험 보고서 공개
무차별 대입·제로데이 공격에 활용될 가능성 제시
무차별 대입·제로데이 공격에 활용될 가능성 제시
[이데일리 임유경 기자] 챗GPT 개발사 오픈AI가 자사 최신 인공지능(AI) 모델의 사이버 공격 능력 고도화가 가속화되고 있으며 향후 출시될 모델들은 ‘높은’ 수준의 위험을 초래할 가능성이 있다고 경고했다.
10일(현지시간) 미 온라인 매체 악시오스는 오픈AI가 자체 위험 평가 프레임워크로 측정한 AI 모델 평가 보고서를 입수해 주요 내용을 보도했다.
오픈AI는 보고서에서 최근 발표된 모델의 사이버 공격 능력 향상이 뚜렷해진 것을 확인했다고 밝혔다. 특히 모델들이 더 자율적으로 작동할 수 있게 되면서 무차별 대입 공격 능력에 활용될 가능성이 커졌다고 경고했다. 무차별 대입 공격은 가능한 모든 비밀번호 조합을 계속 생성하면서 로그인을 시도하는 공격이다.
10일(현지시간) 미 온라인 매체 악시오스는 오픈AI가 자체 위험 평가 프레임워크로 측정한 AI 모델 평가 보고서를 입수해 주요 내용을 보도했다.
샘 올트먼 오픈AI 최고경영자(CEO)(사진=AFP) |
오픈AI는 보고서에서 최근 발표된 모델의 사이버 공격 능력 향상이 뚜렷해진 것을 확인했다고 밝혔다. 특히 모델들이 더 자율적으로 작동할 수 있게 되면서 무차별 대입 공격 능력에 활용될 가능성이 커졌다고 경고했다. 무차별 대입 공격은 가능한 모든 비밀번호 조합을 계속 생성하면서 로그인을 시도하는 공격이다.
오픈AI는 또 새 AI 모델들이 기존에 알려지지 않았던 보안 취약점을 노린 제로데이 공격을 개발해낼 가능성, 또는 복잡한 기업·산업 침투 작업을 지원해 현실 세계에 영향을 주는 공격을 도울 수 있는 가능성이 있다고 제시했다.
AI모델의 사이버보안 성능은 빠르게 향상되는 중이다. GPT-5 모델은 지난 8월 열린 해킹 취약점 찾기 대회인 ‘캡처 더 플래그’에서 27%의 점수를 기록한 반면, GPT-5.1 코덱스 맥스 모델은 지난달 76%를 기록했다. 앞서 오픈AI는 생물무기(bioweapons) 위험과 관련해 비슷한 경고를 내놨고, 지난 7월에는 실제 챗GPT 에이전트가 생물무기 위험 ‘높음’ 수준으로 평가된 바 있다.
오픈AI는 “이 같은 경향에 따라 향후 나올 AI 모델들도 사이버 위험 능력이 계속 발전할 것으로 예상된다”며 “우리는 새 모델이 사이버보안 측면에서 ‘높은’ 위험 수준에 도달할 수 있다고 가정하고 모델을 계획·평가 중”이라고 밝혔다. ‘높음’은 위험 등급 중 두 번째로 높은 수준으로, 모델이 일반에 공개되기 부적합하다고 여겨지는 ‘치명적’ 바로 아래 단계다. 오픈AI는 아직 사이버보안 위험이 ‘높음’으로 평가된 최초의 모델이 언제 나올지 등은 구체적으로 밝히지 않았다.
오픈AI 관계자는 악시오스에 이 같은 사이버 위험 능력은 AI에 장시간 스스로 작업을 이어서 수행할 수 있는 능력이 부여되면서 높아졌다는 점을 언급하면서 “특히 위협이 되는 장시간 무차별 대입 공격은 방어체계가 잘 갖춰진 환경에서는 쉽게 탐지할 수 있다”며 AI에 대한 지나친 공포는 경계했다. 또 “오픈AI는 2023년 출범한 프론티어 모델 포럼과 함께 업계 전반의 사이버보안 위협 대응을 강화하고 있으며, 별도의 자문 기구인 프론티어 리스크 카운슬을 설립해 “경험 많은 사이버 방어 전문가들과 긴밀히 협업”할 계획”이라고 밝혔다.
