컨텐츠 바로가기

11.16 (토)

[현장 속으로] 앞 거의 못 보는 소녀 VR기기 쓰자 “단발머리 … 어, 우리 엄마?”

댓글 1
주소복사가 완료되었습니다

가상현실 시각 보조 앱 ‘릴루미노’

이미지 보정해 또렷한 모습 보여줘

5000시간 독화술 배운 AI 프로그램

입술 모양 읽어 무슨 말 하는지 맞혀

입는 로봇, 전신 마비 환자 동작 도와

손목 장치로 파킨슨병 앓아도 글씨 써

IT기술, 장애인 삶에 적용 되려면

제품 개발 지원, 의보 적용 등 필요

장애인 새 삶 찾아주는 착한 IT 기술
중앙일보

점자 스마트워치인 ‘닷워치’.[사진 각 사]

<이미지를 클릭하시면 크게 보실 수 있습니다>




안경을 쓰고도 종이를 코끝에 대야 겨우 큰 글씨를 읽는 소년. 고글형 가상현실(VR·Virtual Reality) 기기를 쓰더니 연신 “와, 신기해요”라고 외쳤다. 소년은 교실 끝에 선 남성의 손가락이 하트를 그린 것도, 그가 안경을 쓰고 있는 것도 알아봤다.

소년처럼 앞을 거의 보지 못하는 또 다른 소녀. VR 기기를 쓴 소녀 앞에 한 여성이 앉았다. 누구냐고 묻자 소녀는 말했다. “단발머리예요. 안경은 안 썼고…. 어, 엄마인가?” 한 번도 목소리를 듣지 않고는 엄마를 알아보지 못했던 딸이 ‘눈으로’ 자신을 알아보자 엄마는 주르륵 눈물을 흘렸다.

중앙일보

황반변성 환자의 시야가 시각 보조 앱 ‘릴루미노’를 통해 교정된 모습.[사진 각 사]

<이미지를 클릭하시면 크게 보실 수 있습니다>


삼성전자가 지난달 공개한 시각 보조 애플리케이션 릴루미노(Relumino)를 한빛맹학교 학생들이 시연한 장면이다. 완전히 앞이 보이지 않는 수준(전맹)이 아니라면 이 앱의 도움을 받을 수 있다. 사용법은 이렇다. VR 기기에 스마트폰을 장착하고 앱을 작동시키면 후면 카메라가 눈앞에 펼쳐지는 장면을 시각장애인이 인식하기 쉬운 형태로 바꿔 준다. 사물의 윤곽선을 강조하고 색을 대비시키거나 중심 사물을 부각시키는 등의 이미지 손질을 통해서다.

기존에도 이런 효과를 내는 시각 보조 기기가 없었던 건 아니다. 하지만 대당 가격이 1000만원이 넘어 웬만한 이들에겐 그림의 떡이었다. 릴루미노는 훨씬 저렴한 비용으로 사용할 수 있고, 휴대성이 높다는 점에서 호평을 받았다.

장애. 가로막히고(障) 거리낀다(?)는 뜻의 글자가 조합된 단어다. 빠르게 발전하는 정보기술(IT)이 장애인의 앞을 가로막은 걸림돌을 치워 주고 있다. “로봇 공학과 인공지능 기술이 지금 속도로 발전하면 조만간 장애가 무의미한 시대가 올 것”이란 전망도 나온다.

◆보고 듣는 인공지능 … 장애인의 눈과 귀

중앙일보

마이크로소프트의 ‘시각 AI(Seeing AI)’는 사람 얼굴을 보고 나이와 성별, 표정을 분석해 전달한다.[사진 각 사]

<이미지를 클릭하시면 크게 보실 수 있습니다>




최근 2, 3년 사이 급속히 발전하는 딥러닝(Deep Learning·기계의 자기 학습방법) 기술은 시각 장애를 극복하는 데 유용하게 활용된다. 인공지능의 보고(이미지 인식) 듣는(음성 인식) 능력이 극대화되면서 시각 및 청각장애인들의 삶의 질이 급속도로 개선되는 것이다.

마이크로소프트가 지난해 연례 개발자 콘퍼런스에서 공개한 ‘시각 인공지능(Seeing AI)’ 기술이 대표적이다. 일곱 살 때 시력을 잃은 이 회사의 개발자 사킵 사이크가 개발에 참여했다. 이 서비스는 인공지능이 인식한 이미지를 음성으로 설명해 준다. 프로그램에 연동된 선글라스를 끼고 주변 환경을 촬영하면 “모자 쓴 사람이 스케이트 보드를 타고 지나가요” “여자 아이가 주황색 원반을 던지네요” 같이 장면을 묘사한다. 사람의 얼굴을 찍으면 “40살의 남자인데 놀란 표정이에요”처럼 나이와 성별, 표정 정보를 전달한다. 메뉴판을 찍은 뒤 “어떤 음식이 있느냐”고 물으면 “샐러드·파니니·파스타가 있다”고 설명한다.

중앙일보

마이크로소프트의 ‘시각 AI(Seeing AI)’는 사람 얼굴을 보고 나이와 성별, 표정을 분석해 전달한다.[사진 각 사]

<이미지를 클릭하시면 크게 보실 수 있습니다>


이미지 인식 기술은 청각장애인들에게도 도움을 준다. 구글 딥마인드는 옥스퍼드대와 함께 입술 모양으로 어떤 말을 하는지를 읽어 내는 소프트웨어를 개발했다. 5000시간 이상 TV 프로그램을 보면서 사람의 입 모양과 음성 정보를 학습했다. 소리를 듣지 못하는 청각장애인들이 이 소프트웨어의 도움을 받으면 매번 사람의 입을 빤히 쳐다보지 않아도 그가 무슨 말을 했는지 파악할 수 있게 된다.

음성인식 기술도 장애인의 삶을 크게 바꿔 놓고 있다. 소리 정보가 쉽게 문자로 전환돼 청각장애인들이 훨씬 더 풍부한 정보를 접하게 된 건 물론이다. 음성인식을 기반으로 한 스마트홈 시스템 등은 지체장애인들이 굳이 움직이지 않아도 조명을 끄고 가전을 작동시킬 수 있게 돕는다.

◆로봇 공학의 발전 … 전신 마비도 극복 가능

거동이 불편한 이들도 IT 기술 발전으로 새로운 삶을 살고 있다. 특히 로봇 공학의 발달은 전신마비 환자에게 획기적인 소식이다.

대표적인 기술은 웨어러블 로봇이다. ‘입는 로봇’이라는 뜻의 웨어러블 로봇은 안전벨트 등으로 신체를 감싼다. 로봇이 지탱해 주는 덕에 사람은 평소의 근력보다 훨씬 큰 힘을 내거나 로봇에만 의존해 움직일 수도 있게 된다.

중앙일보

마비 환자의 움직임을 돕는 웨어러블 로봇 ‘엑소’.[사진 각 사]

<이미지를 클릭하시면 크게 보실 수 있습니다>


일본은 이런 웨어러블 로봇을 의료·재활 분야에 특히 적극적으로 도입하고 있다. 일본 사이버다인의 ‘할(HAL)’은 처음 개발된 지 20년 가까이 된 제품이다. 착용자의 피부에 센서를 붙이면 근육이 움직이려는 방향으로 모터가 작동한다. 미국의 웨어러블 로봇 제조사 엑소바이오닉스의 보행보조 로봇 ‘엑소(EKSO)’, 이스라엘 기업 리워크로보틱스의 ‘리워크(REWALK)’ 등도 재활 시장에서 주목받는 제품이다.

서진호 한국로봇융합연구원 안전로봇사업단장은 “기술만 놓고 보자면 5년 안에 전신마비 환자도 일상생활을 할 수 있는 수준으로 웨어러블 로봇이 발전할 것”이라며 “관건은 기술이 시장에 급속히 도입될 수 있도록 규제를 완화하고 경제적 지원을 강화하는 것”이라고 말했다.

중앙일보

파킨슨병 환자의 손떨림을 완화시켜 주는 ‘엠마워치’.[사진 각 사]

<이미지를 클릭하시면 크게 보실 수 있습니다>


장애의 불편을 덜어 주는 보조장비도 급격히 진화하고 있다. 마이크로소프트는 최근 파킨슨병을 앓는 환자의 손떨림을 완화시켜 주는 웨어러블 기기 ‘엠마 워치’를 소개했다. 손목시계처럼 생긴 이 장비는 작은 진동 모터를 장착했다. 환자의 손떨림이 일어나는 반대방향으로 진동을 줘 손떨림이 크게 느껴지지 않게 한다. 이 장비를 착용한 파킨슨병 환자는 실제로 펜을 쥐고 정상인과 큰 차이 없이 글씨를 쓰기도 했다. 김영욱 한국마이크로소프트 부장은 “스마트폰으로 사진을 찍을 때 손떨림을 방지하는 기술과 큰 차이가 없다”며 “시장성이 크진 않겠지만 누군가 필요할 거라 생각해 개발했다”고 설명했다.

중앙일보

휠체어용 전동키트 ‘토도드라이브’를 장착하는 모습.[사진 각 사]

<이미지를 클릭하시면 크게 보실 수 있습니다>


국내 스타트업 토도웍스는 수동 휠체어에 부착하면 휠체어를 전동처럼 움직일 수 있게 하는 전동키트 ‘토도드라이브’를 개발했다. 조이스틱을 움직이면 원하는 방향으로 휠체어를 움직일 수 있다. 사물인터넷(IoT) 기술을 접목해 스마트폰만으로 휠체어를 움직일 수도 있다.

이런 IT 기술의 발달이 장애인의 삶에 직접 적용되려면 정부와 금융권의 도움이 필요하다는 주장이 많다. 장애인 이동권 증진을 위한 협동조합 ‘무의’의 홍윤희 이사장은 “많은 장애인이 ‘IT 기술 덕에 삶의 질이 나날이 나아지고 있다’고 느끼고 있다”며 “하지만 이런 기술이 더 빨리 장애인의 실생활에 적용되려면 관련 기술 개발에 대한 금융 지원, 관련 제품에 대한 의료보험 적용과 규제 완화 등이 필요하다”고 말했다.

[S BOX] 뇌·컴퓨터 연결 기술 완성 땐 소리 못 들어도 뇌파로 소통
정보기술(IT) 업계는 뇌 과학이 궁극적으로 발전해 뇌와 컴퓨터가 연결되면 청각 장애도 무의미해질 것이라고 내다본다. 굳이 소리를 내지 않고도 소통할 수 있는 시대가 온다는 얘기다.

올 4월 미국 새너제이에서 열린 페이스북 연례개발자회의에서 공개된 ‘빌딩8’ 연구가 대표적이다. ‘침묵의 언어 인터페이스’로도 불리는 이 연구는 뇌와 컴퓨터를 바로 연결할 수 있을 것이란 기대에서 출발했다. 발표를 맡은 ‘빌딩8’팀의 레지나 듀건은 “이미 뇌파를 통해 컴퓨터 마우스를 움직이는 게 가능하다”며 “이 기술이 완성된다면 장애도 언어의 장벽도 허물 수 있을 것”이라고 강조했다. 60명의 전문가가 참여한 빌딩8 프로젝트는 뇌파를 통해 분당 100단어를 컴퓨터에 입력할 수 있을 것으로 기대하고 있다.

뇌와 컴퓨터의 직접 연결에 도전한다는 점에서 이 프로젝트는 일론 머스크의 새 회사 ‘뉴럴링크’의 목표와 같다. 뉴럴링크는 인간의 뇌에 액체 상태의 전자그물망을 주입한다는 개념이다. 이 그물망이 뇌세포 사이에 자리를 잡은 뒤 전기 신호를 감지해 생각을 컴퓨터에 올리고 내려받는다는 구상이다.



임미진 기자 mijin@joongang.co.kr

▶모바일에서 만나는 중앙일보 [페이스북] [카카오 플러스친구] [모바일웹]

ⓒ중앙일보(http://joongang.co.kr) and JTBC Content Hub Co., Ltd. 무단 전재 및 재배포 금지
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.