컨텐츠 바로가기

09.30 (월)

이슈 로봇이 온다

"생각으로 로봇팔 자유롭게 조종"…3차원 뇌­-기계 인터페이스 개발

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다

정재승 카이스트 교수 연구팀

아시아경제

정재승 카이스트 바이오및뇌공학과 교수

<이미지를 클릭하시면 크게 보실 수 있습니다>


[아시아경제 김봉수 기자] 뇌과학자로 유명한 정재승 카이스트 교수 연구팀이 생각만으로도 로봇 팔을 자유롭게 조종할 수 있는 시스템을 개발했다. 전신마비 환자 등을 위한 보조기구 개발은 물론, 확장 가상세계(메타버스)·스마트 모바일·게임 기기 등에 활용될 수 있어 주목된다.

한국과학기술원(KAIST·카이스트)는 정재승 바이오및뇌공학과 교수 연구팀이 3차원 공간상에서 생각만으로 로봇팔을 높은 정확도 (90.9~92.6%)로 조종하는 `뇌-기계 인터페이스 시스템'을 개발했다고 23일 밝혔다. 인공지능과 유전자 알고리즘을 사용해 인간의 대뇌 심부에서 측정한 뇌파만으로 팔 움직임의 의도를 파악해 로봇팔을 제어하는 새로운 형태의 뇌-기계 인터페이스 시스템이다.

뇌 활동만으로 사람의 의도를 파악해 로봇이나 기계가 대신 행동에 옮기는 `뇌-기계 인터페이스' 기술은 최근 급속도로 발전하고 있다. 사용자의 뇌 활동을 통해 의도를 읽고 로봇이나 기계에 전달하는 기술로서 로봇, 드론, 컴퓨터뿐만 아니라 스마트 모바일 기기, 메타버스 등에서의 이용될 차세대 인터페이스 기술이다. 기존엔 외부 신체 기관을 통해 명령을 간접 전달(버튼, 터치, 제스처 등)해야 하지만 명령을 뇌로부터 직접적 전달해 가장 진보됐다.

문제는 손을 움직이는 정도의 의도 파악을 넘어, 팔 움직임의 방향에 대한 의도를 섬세하게 파악해 정교하게 로봇팔을 움직이는 기술은 아직 정확도가 높지 않다는 점이다. 뇌파는 개개인의 차이가 매우 크고, 단일 신경 세포로부터 정확한 신호를 읽는 것이 아니라 넓은 영역에 있는 신경 세포 집단의 전기적 신호 특성을 해석해야 하므로 잡음이 크다는 한계도 있다.

아시아경제

뇌-기계 인터페이스 개념도

<이미지를 클릭하시면 크게 보실 수 있습니다>


연구팀은 이런 문제 해결을 위해 최첨단 인공지능 기법의 하나인 '축적 컴퓨팅 기법'을 이용해 뇌-기계 인터페이스에서 필요한 개개인의 뇌파 신호의 중요 특성을 인공신경망이 자동으로 학습해 찾을 수 있도록 구현했다. 즉 조종 '방향'에 대한 의도를 뇌 활동만으로 인식하는 인공지능 모델을 개발했다. 3차원 공간상에서 24개의 방향을 90% 이상의 정확도로 정교하게 해석할 수 있다. 실제 실험에서도 3차원상에서 24가지 방향 즉, 각 차원에서 8가지 방향을 디코딩할 수 있으며 모든 방향에서 평균 90% 이상의 정확도 (90.9%~92.6% 범위)를 보였다. 또 3차원 공간상에서 로봇팔을 움직이는 상상을 할 때의 뇌파를 해석해 성공적으로 로봇팔을 움직였다.

특히 딥러닝 등 기존 기계학습 기술은 높은 사양의 GPU 하드웨어가 필요했지만, 이번 연구에서는 축적 컴퓨팅(Reservoir Computing) 기법을 이용해 낮은 사양의 하드웨어에서도 인공지능 학습이 가능해 메타버스와 스마트 모바일 기기에서도 폭넓게 응용될 수 있다.

정 교수는 "뇌파를 통해 생각만으로 로봇팔을 구동하는 `뇌-기계 인터페이스 시스템'들이 대부분 고사양 하드웨어가 필요해 실시간 응용으로 나아가기 어렵고 스마트기기 등으로 적용이 어려웠다"면서 "이번 시스템은 90%~92%의 높은 정확도를 가진 의도 인식 인공지능 시스템을 만들어 메타버스 안에서 아바타를 생각대로 움직이게 하거나 앱을 생각만으로 컨트롤하는 스마트기기 등에 광범위하게 사용될 수 있다"고 말했다.

이번 연구 결과는 국제학술지 `어플라이드 소프트 컴퓨팅(Applied Soft Computing)' 3월호에 출판됐다.

김봉수 기자 bskim@asiae.co.kr
<ⓒ경제를 보는 눈, 세계를 보는 창 아시아경제(www.asiae.co.kr) 무단전재 배포금지>
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.