컨텐츠 바로가기

11.25 (월)

이슈 오늘의 미디어 시장

CCTV의 눈에 AI 두뇌 탑재, 뒷골목 ‘잠재적 그 놈’을 추적

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다
전자통신연구원의 현실판 ‘마이너리티 리포트’ 영상 보안 체계

AI가 옷차림ㆍ발자국 소리 등 분석해 범죄 가능성 확률 단위로 알려줘
한국일보

한국전자통신연구원(ETRI)이 개발한 범죄 예측 시스템 화면에서 과거부터 누적된 범죄 데이터와 현장 폐쇄회로(CC)TV에 포착된 사람들의 움직임 등 속성 사이 상관관계를 인공지능(AI)이 분석하고 있는 화면. ETRI 제공

<이미지를 클릭하시면 크게 보실 수 있습니다>


지난해 말 기준 국내 공공ㆍ민간 폐쇄회로(CC)TV 전체 대수는 1,000만대를 넘어선 것으로 추정된다. 현재 CCTV의 주 활용도는 과거 촬영본을 검색해 범죄자를 추적하거나 CCTV가 설치돼 있다는 자체만으로 범죄 시도가 줄어들 것이란 기대효과 정도다. 사후적 조치를 넘어 영화 ‘마이너리티 리포트’처럼 일어날 범죄를 미리 알고 예방할 순 없을까. 국내 연구진이 CCTV의 ‘눈’에 인공지능(AI) ‘두뇌’ 탑재로 범죄를 예측하는 현실판 마이너리티 리포트 기술 개발에 주력하고 있다.

한국전자통신연구원(ETRI)은 2일 범죄 데이터를 학습한 AI가 CCTV가 찍고 있는 실시간 화면을 분석해 어떤 유형의 범죄가 발생할지 확률적으로 보여주는 ‘예측적 영상보안 원천기술’을 개발 중이라고 밝혔다. 지난 해부터 개발에 돌입한 이 기술은 내년엔 지방자치단체, 경찰청 등과 시범사업을 진행한다. 기술 개발의 완료 목표 시점은 2022년이다.

미국의 ‘프레드폴’ 등 기술 선진국에선 범죄유형이나 장소, 시간 등 과거 사건을 분석해 미래 범죄 가능성을 예측해 주는 프로그램이 이미 활성화돼 있다. 우리 기술의 차별점은 범죄 데이터뿐 아니라 CCTV 영상분석 기술까지 더했다는 점이다. CCTV로 수집되는 실시간 상황 정보에 범죄 데이터를 접목해 먼 미래가 아닌 현재 기준에서 몇 분 또는 몇 시간 후의 범죄 발생 위험도를 예측하는 것이다.
한국일보

한국전자통신연구원(ETRI) 연구진들이 여러 CCTV 화면 속에서 외형적 정보로 특정인을 찾아내는 '사람 재식별기술(Person RE-ID)'을 시연하고 있다. ETRI 제공

<이미지를 클릭하시면 크게 보실 수 있습니다>


실시간 영상분석이 중요한 이유는 그 당시 위험하다고 판단하지 못했지만 범죄 발생 이후 CCTV 영상을 되감아 보면 뒤늦게 이상행동이 감지되는 경우가 많기 때문이라는 게 ETRI의 설명이다. 김건우 ETRI 신인증ㆍ물리보안연구실장은 “서울 신림동에서 발생했던 원룸 침입 사건 CCTV를 돌려보면 남성이 골목에서부터 계속 여성을 쫓아가는 걸 확인할 수 있다”며 “평상시 골목과는 다른 패턴을 AI가 인지해 관제센터에 알려주고 빠르게 대응할 수 있도록 하는 게 이번 기술 개발의 취지”라고 설명했다.

CCTV 속 상황을 정확하게 판단하려면 여러 요소를 복합적으로 분석하는 고성능 AI가 필수다. 이를 위해 ETRI는 움직임뿐 아니라 청각, 시각적 요소도 분석하도록 시스템을 고도화하는 중이다. 두 사람 이상의 발자국 소리가 감지될 때 긴박한 뜀박질인지 지속적 미행인지 등을 판별하거나 모자, 마스크, 배낭 등 착용하고 있는 외형적 속성도 AI가 파악할 수 있도록 개발하고 있다.

이렇게 상황을 인식한 AI는 과거 범죄 통계와의 유사성 등을 비교, 범죄 위험도를 확률 단위(%)로 표시한다. 강도 사건이 발생했던 한 후미진 골목 새벽 2시, 모자를 쓴 사람이 앞사람과 일정 거리를 두고 몇 미터 이상을 같은 경로로 이동하고 있을 경우엔 위험도를 높게 책정해 알람을 주고, 비슷한 패턴이지만 오후 2시 서울 명동이라면 위험도는 크게 낮아지는 식이다. 범죄 통계 데이터가 많을수록 AI 분석 능력이 높아지기 때문에 ETRI는 법원 판결문 2만건에서 나타나는 범죄 관련 요소 등을 AI에 계속해서 학습시키고 있다.

하지만 AI에 의한 초강력 감시사회로 인한 사생활 침해, 개인정보 유출 등의 논란에서 자유롭지 못한 것도 사실이다. 김건우 연구실장은 “얼굴 같은 민감 정보는 암호화 해 수집하고 범죄와의 연관성이 입증된 때에 권한이 있는 사람만 원본을 확인할 수 있는 ‘영상 프라이버시 마스킹’ 기술도 적용할 예정”이라며 “범죄자로 낙인 찍는 게 아니라 현재 상황이 위험할 수 있다는 분석까지만 AI가 하고 최종 판단은 관제센터의 사람에게 주는 방법도 생각할 수 있다”고 설명했다. 김 실장은 이어 “위험발생 가능성을 최대 80%까지 예측하는 첨단 시스템으로 발전시키도록 노력하겠다”고 강조했다.

맹하경 기자 hkm07@hankookilbo.com
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.