<이미지를 클릭하시면 크게 보실 수 있습니다> |
내년에는 사이버 공격에 인공지능(AI) 기술을 악용하는 사례가 본격화할 것으로 전망됐습니다.
과학기술정보통신부는 오늘(18일) 국내외 정보보안 전문가와 함께 작성한 올해 사이버 위협 분석과 내년 전망 보고서를 발표했습니다.
내년 사이버 위협 전망에 따르면 AI 서비스 사용이 일반화되며 챗GPT와 같은 검증된 모델을 사용한 선전·선동이나 피싱 공격이 증가할 것으로 예측됐습니다.
오픈AI에 따르면 러시아와 중국 등 일부 국가에서 인터넷상 여론 조작 및 정치적 선전에 챗GPT를 사용한 사례가 발견됐습니다.
보고서는 "AI를 활용해 정교하게 작성한 허위 콘텐츠는 진짜와 구별하기 힘들고 가짜뉴스와 SNS를 통해 빠르게 확산한다"며 "특정 집단에 의한 여론 조작으로 사회적 갈등과 혼란이 증가할 가능성이 크다"고 우려했습니다.
보고서는 "생성형 AI가 기업 내부 시스템과 연동돼서 구축된 경우 민감한 데이터의 노출과 오용 가능성이 커진다"며 "기업들이 AI 모델 도입 단계에서 보안을 내재화하고 상시 모니터링 체계를 구축해야 한다"고 조언했습니다.
생성형 AI 외에도 목적 자체가 불법적인 사기(Fruad)GPT, 웜(Worm·악성코드 생성)GPT 등 악성 AI 모델이 다크웹 등에서 퍼질 것으로도 예상됐습니다.
보고서는 자율주행차, 스마트 빌딩·교통 시스템 등 디지털 융합 기술이 확산함에 따라 이를 노린 사이버 위협도 커질 가능성이 있다고 봤습니다.
아울러 우크라이나-러시아 전쟁 장기화 등 글로벌 분쟁 심화에 따른 정부 기관 및 사회 기반 시설에 대한 사이버 공격 증가 가능성도 우려했습니다.
보고서는 올해 일어난 주요 사이버 위협 양상으로 ▲ 스팸, 피싱 증가에 따른 국민 피해 ▲ 소프트웨어 공급망 공격 등 복합적인 공격 전술 ▲ 랜섬웨어 공격기법 고도화를 꼽았습니다.
한지연 기자 jyh@sbs.co.kr
▶ 네이버에서 SBS뉴스를 구독해주세요!
▶ 가장 확실한 SBS 제보 [클릭!]
* 제보하기: sbs8news@sbs.co.kr / 02-2113-6000 / 카카오톡 @SBS제보
Copyright ⓒ SBS. All rights reserved. 무단 전재, 재배포 및 AI학습 이용 금지
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.