컨텐츠 바로가기

05.22 (수)

“컴퓨터 눈, 인간보다 정교해질 것··· 고양이 종도 가려내”

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다
컴퓨터의 눈이 인간보다 더 정교해질 날이 머지 않았다.

닐 알드린 구글 소프트웨어 연구원은 22일 “컴퓨터가 인간을 뛰어넘는 이미지 인식 능력을 갖게 될 것”이라며 “컴퓨터가 고양이를 보면 고양이의 종까지 알 수 있는 수준으로 발전할 것”이라고 말했다.

경향신문

닐 알드린 구글 소프트웨어 연구원이 22일 서울 역삼동 구글코리아에서 구글의 이미지 인식 기술에 대해 설명하고 있다.구글코리아 제공

<이미지를 클릭하시면 크게 보실 수 있습니다>


알드린 연구원은 이날 서울 역삼동 구글코리아에서 화상으로 기자 간담회를 열고 구글의 이미지 인식 기술이 어떻게 발전해왔는지를 설명했다.

구글의 이미지 인식 기술은 신경망을 통해 학습하는 인공지능이 적용되면서 한층 진일보 했다. 구글 이미지 인식 기술의 현주소는 사진 관리 서비스인 ‘구글 포토’를 통해 확인할 수 있다.

필름 카메라 시대에서 디지털 카메라 시대로 전환되면서 개개인의 사진 촬영 횟수와 사진 데이터의 양은 크게 늘어났다. 데이터가 방대해지면서 과거처럼 인물 또는 이벤트 별로 사진을 정리하는 것도 어려워졌다. 구글 포토는 이용자가 직접 사진을 정리하지 않아도, 사진을 인물·장소·사건 별로 분류해주는 서비스다. 이렇게 정리된 사진은 검색을 통해 확인하는 것도 가능하다. 예컨대 ‘고양이’를 키워드로 검색하면 컴퓨터가 고양이가 찍힌 사진을 자동 분류해 결과물을 보여주는 식이다. ‘검도’나 ‘생일’처럼 특정 행위나 기념일을 검색어로 사용하는 것 역시 가능하다.

알드린 연구원은 “이러한 검색은 수년 전 머신러닝이 적용되기 전에는 불가능했다”며 “고양이를 검색한다고 할 때 고양이 별로 체형과 색깔 등이 다 달라 과거에는 제대로된 고양이 이미지를 찾아낼 수 없었다”고 말했다.

현재의 이미지 인식 기술은 수많은 여과망을 가진 정수기와 비슷하다. 첫째 단계에서는 사진에서 고양이와 고양이가 아닌 것, 즉 배경을 구분하고 그 다음 단계에서는 고양이의 털 색깔을 분류하는 식이다. 다양한 필터를 거친 후에는 최종적으로 고양이를 찍은 사진인지 아닌지를 알려준다. 알드린 연구원은 “과거의 이미지 인식 기술은 이미지를 표현하는 방식이 주어진 과제를 해결하는데 최적화되지 않아 문제 해결에서도 최적의 결과를 내놓지 못했다”며 “하지만 현재의 기술은 이미지가 어떤 의미를 가졌는지 최적화된 표현을 할 수 있어 최적의 답을 내놓을 수 있다”고 말했다

구글은 이미지 분류가 월활하도록 컴퓨터에게 900만장의 이미지를 학습시켰다. 이들 이미지에는 이미지가 갖는 의미를 6000여개로 분류한 이름표(라벨)가 붙었다. 알드린 연구원은 “부착된 라벨이 정확한지 사람이 직접 검토해서 수정한게 10만장”이라며 “이미지에 라벨이 붙은 숫자도 지난 3년간 25배 증가했다”고 말했다.

구글의 최종적인 목표는 컴퓨터의 이미지 인식 능력이 인간을 넘어서는 것이다. 이용자가 원하는 이미지를 찾아주는 것뿐 아니라, 이용자가 알지 못하는 정보도 컴퓨터가 함께 전달하는 방식을 구글은 꿈꾸고 있다. 알드린 연구원은 “컴퓨터가 이미지를 보고 라벨을 부착할 뿐 아니라 어떤 장소와 어떤 맥락에서 사진이 촬영됐는지도 알고 싶다”며 “소를 찍은 사진이 있다면, ‘소가 어떤 산 앞의 초원에서 풀을 뜯어 먹고 있다’고 컴퓨터가 얘기할 수 있기를 원한다”고 말했다.

<이효상 기자 hslee@kyunghyang.com>

[경향비즈 바로가기], 경향비즈 SNS [페이스북]
[인기 무료만화 보기]

[©경향신문(www.khan.co.kr), 무단전재 및 재배포 금지]
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.