컨텐츠 바로가기

11.24 (일)

이슈 미래 모빌리티 생태계

주변환경 3D 인식성능↑…‘자율주행차’ 핵심기술 개발 성공

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다
헤럴드경제

이번 연구를 수행한 임성훈(왼쪽부터) 교수, 최원혁 석박사통합과정, 신민규 석사과정.[DGIST 제공]

<이미지를 클릭하시면 크게 보실 수 있습니다>


[헤럴드경제=구본혁 기자] 대구경북과학기술원(DGIST) 전기전자컴퓨터공학과 임성훈 교수팀이 단안 카메라를 활용 3D 객체의 위치를 높은 정확도로 추정할 수 있는 딥러닝 기술을 개발했다. 3D 객체 추정은 자율주행에 필요한 핵심기술로서, 기존 자율주행 기술의 원가를 줄이고 차량을 경량화하는 등의 응용이 가능할 것으로 기대된다.

3D 객체 추정은 자율주행차가 주변 환경을 인식하고, 그에 따라 안전하게 움직일 수 있게 하는 중요한 기술이다. 이 기술을 통해 자율주행차는 주변의 사람, 도로 표지판, 다른 차량 등의 위치와 거리 및 크기를 정확하게 파악하여 안전한 주행이 가능하게 된다.

기존 사용되고 있는 단안 카메라를 이용한 객체 추정 방법은, 비용이 절감된다는 큰 장점이 있다. 하지만 한 장의 이미지만으로 3D 정보를 얻어내는 것이 어렵다는 문제점을 가지고 있다. 특히 객체와 카메라 간의 거리를 정확히 추정하는데 어려움이 있어 다소 성능이 떨어진다는 문제가 있었다.

임성훈 교수팀은 이러한 문제점을 해결하기 위해, 신경망이 객체의 깊이를 잘 구분할 수 있도록 돕는 새로운 메트릭 학습 기법을 제안했다. 이 기법은 각각의 객체의 깊이 정보를 이용하여 신경망이 형성하는 특징 공간을 정렬하게 함으로써, 깊이를 쉽게 구분하도록 도와준다.

헤럴드경제

추정된 3D 객체 예시.[DGIST 제공]

<이미지를 클릭하시면 크게 보실 수 있습니다>


제안된 메트릭 학습 기법은 거의 모든 기존 단안 카메라 추정 신경망에 적용이 가능하다. 또한 이미지 내에서 객체의 위치를 특정하는 과정에서 발생하는 오류를 보정할 수 있는 새로운 방법을 제안해 깊이 추정과 전체적인 3D객체 추정의 성능을 효과적으로 개선할 수 있었다.

임성훈 교수는 “이번 연구를 통해 개발한 학습기법은 자율주행 시각인지 모델의 연산 시간을 유지하면서 성능을 크게 향상시키는 기술”이라 며 “앞으로 이 기술을 더욱 발전시킨다면 자율주행 기술의 발전에 매우 긍정적인 영향을 미칠 것으로 기대된다”고 말했다.

nbgkoo@heraldcorp.com

Copyright ⓒ 헤럴드경제 All Rights Reserved.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.