컨텐츠 바로가기

06.04 (화)

이슈 애니메이션 월드

KOBA 2024 현장 속으로… 클론보이스, 모션캡쳐, AI 영상 검색 및 편집 기술 돋보여

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다
‘Spark Your Creativity’ 주제, 32회 맞은 국제방송⋅미디어⋅음향⋅조명 전시회 (KOBA 2024) 현장
글로벌 방송, 미디어, 음향, 조명 기업들 참여… 기술력으로 승부하는 한국 방송·미디어 기업들 주목
AI 기반 클론보이스 더빙, 미국 샌프란시스코에 첫 선 보인 ‘YanusSTUDIO’, AI 영상 검색 기술 돋보여
테크42

ⓒTech42

<이미지를 클릭하시면 크게 보실 수 있습니다>


올해로 32회째를 맞이하는 ‘국제방송⋅미디어⋅음향⋅조명 전시회 (KOBA 2024)’가 오는 24일까지 4일간의 일정으로 개최됐다.

산업통상자원부로부터 국제인증을 받은 전시회로서 ‘KOBA 2024’의 위상은 그 어느 때보다 높아지고 있다. 세계 각국의 우수한 방송, 미디어, 음향, 조명 관련 장비들이 선보이는 현장은 매년 급변하는 글로벌 방송·미디어 산업의 기술과 트렌드를 한눈에 확인할 수 있는 자리가 되고 있다.

테크42

ⓒTech42

<이미지를 클릭하시면 크게 보실 수 있습니다>


전시 현장은 첫날인 21일부터 국내외 방송·미디어 업계 관계자를 비롯해 일반인 참관객들로 북적였다. 특히 올해는 국내 방송사 중 KBS가 참여해 이목을 끌었다. 그 외에도 Sony, Panasonic, Canon 등 글로벌 기업들의 참여가 돋보였다.

이날 기술력으로 승부하는 국내 기술 기업들에 대한 관심 역시 적지 않았다. 인공지능(AI) 기술을 활용해 다국어 자막 생성과 더빙을 서비스 ‘레터웍스’를 개발한 스타트업, ‘트위그팜’은 이날 행사 부스에 생성형 AI 기반 클론보이스 더빙 기능을 소개했다.

자체 모션캡쳐 기술로 국내외 게임·방송 업계에서 주목 받고 있는 모션테크놀로지는 이번 전시회에서 지난 3월 미국 샌플란시스코에서 열린 ‘GDC 2024’에 첫 선 보인 ‘YanusSTUDIO’ 등 4개의 체험존을 운영하며 이목을 집중시키고 있다.

AI 영상 분석 전문 기업 씨이랩은 자사 플래그십 서비스 ‘VidiGo(비디고)’ 내 AI 영상 검색 기술을 탑재한 ‘VidiGo Search Engine(비디고 서치엔진)’을 선보여 주목을 받았다.

내 목소리를 복제한 더빙 콘텐츠를 만드는 AI 기술 선보여

테크42

ⓒTech42

<이미지를 클릭하시면 크게 보실 수 있습니다>


트위그팜은 이번 전시에서 자사의 다국어 자막, 더빙 서비스인 ‘레터웍스’에 클론보이스 기반의 더빙 기능을 추가해 선보였다.

이 기능의 특징은 사용자가 자신의 목소리를 입력하면 이를 복제해 더빙 콘텐츠를 생성하는 것이다. 주목할 점은 사용자의 목소리로 영어 더빙이 가능하다는 점이다. 이러한 기능은 단 몇 번의 클릭 만으로 쉽게 사용할 수 있다.

이 기능이 추가됨에 따라 이미 기존 인공지능을 통한 다국어 자막 생성에서 높은 품질을 선보인 트위그팜의 ‘레터웍스’는 한 차원 업그레이드된 서비스로 진화하게 된 셈이다.

테크42

ⓒTech42

<이미지를 클릭하시면 크게 보실 수 있습니다>


이날 현장에서 만난 백철호 트위그팜 이사는 “20~30문장 분량의 화자 목소리 데이터를 입력하면 최소한의 모델링이 가능하다”며 “단지 30문장 정도를 읽기만 하면 그 음성을 백터화해 고유한 어어 모델을 만들어 클론보이스 서비스가 가능하다”고 설명했다.

“클론보이스 기능은 이번 전시회에서 처음 선보이는 것으로, 다음달 상용 서비스로 출시할 예정입니다. 저희 레터웍스 서비스는 동영상 콘텐츠가 많은 기업들이 기존 콘텐츠를 재가공해 새로운 가치를 만들어내는 과정에 유용하게 적용할 수 있습니다. 특히 더빙 콘텐츠의 경우 교육 기업에서 관심이 크죠. 미국과 일본의 경우 자막 문화가 아닌 더빙 문화인데 기존 성우 등을 쓰는 비용을 저희 서비스를 통해 획기적으로 줄이고 해외 진출 시간을 단축할 수 있기 때문입니다.”

한편 트위그팜은 문화나 언어, 길이의 제약을 반영해 새로운 콘텐츠가 생성되는 서비스도 준비 중이다.

사람과 가상의 캐릭터가 한 공간에서 연기한다

테크42

ⓒTech42

<이미지를 클릭하시면 크게 보실 수 있습니다>


이날 전시회 현장에는 독특한 장면을 연출한 모션테크놀로지의 부스에도 사람들이 몰렸다. 모션테크놀로지는 이번 전시회 부스에 OptiTrack, Xsens, EZtrack, YanusSTUDIO, Manus, Stretchsense 등 모션캡쳐에 특화된 장비와 서비스를 선보였다. 특히 부스 방문객들이 주요 장비들을 직접 현장에서 관람하고 체험할 수 있게 해 방송 업계 관계자들의 관심을 집중시켰다.

모션테크놀로지가 이번 전시 부스에서 운영하는 체험존은 총 4개로 OptiTrack, EZtrack 장비를 활용해 실시간 댄스 시연을 선보이는 '버츄얼프로덕션 존', Xsens 장비를 통해 디지털 휴먼의 움직임을 실시간으로 확인할 수 있는 '디지털 휴먼 존', Manus와 Stretchsense 장비 체험을 통해 정밀한 손가락 추적 센서를 경험할 수 있는 '핸드 모션캡쳐 존', 페이셜 애니메이션에 특화된 ‘페이셜 모션캡쳐 존’ 등이다.

특히 ‘페이셜 모션캡쳐 존’은 모션테크놀로지가 자체 개발한 ‘YanusSTUDIO’가 적용됐다. 이는 페이셜 애니메이션에 특화된 소프트웨어로 페이셜 제작 과정을 단순화하며 퀄리티를 향상시키는 기능을 제공하는 것으로 알려졌다. 더구나 이 소프트웨어는 지난 3월 미국 샌프란시스코에서 열린 ‘GDC 2024’dp 첫 선을 보이며 뛰어난 성능과 가성비로 주목 받은 바 있다.

테크42

ⓒTech42

<이미지를 클릭하시면 크게 보실 수 있습니다>


이날 현장에서 만난 양기혁 모션테크놀로지 대표는 “쉽게 말해 가상공간을 구성하거나 실제 공간에 가상 캐릭터를 연결할 때 쓸 수 있는 기술과 장비로 구성된 ‘버추얼 프로덕션’”이라며 “모션 캡쳐 기술을 통해 카메라에 부착된 마커들을 통해 실제 사람과 가상 캐릭터가 한 공간에서 연기할 수 있게끔 하는 시스템”이라고 설명했다.

“국내에서는 모션캡쳐 기술을 개발하는 곳이 저희 외에는 없습니다. 대부분 수입해서 판매를 하거나 응용해 콘텐츠를 만드는데 집중하죠. 이에 비해 저희는 자체 기술 개발과 함께 콘텐츠 제작 등을 종합적으로 선보이고 있습니다. 주로 CG 분야에 적용되는 터라 국내를 비롯해 미국, 일본, 중국 등 영화 산업이 발달한 국가들을 중심으로 주 고객사가 형성돼 있죠.”

영상 속 인물, 객체, 대사 데이터화해 AI로 검색한다

테크42

ⓒTech42

<이미지를 클릭하시면 크게 보실 수 있습니다>


이날 AI 영상 분석 전문 기업 ‘씨이랩’은 AI 분석으로 영상을 요약하고 숏폼으로 자동 제작하는 비디고 하이라이트(VidiGo Highlight), 자사 플래그십 서비스인 ‘비디고(VidiGo)’ 내 AI 영상 검색 기술을 탑재한 ‘비디고 서치 엔진(VidiGo Search Engine)’을 선보였다.

2010년에 설립된 씨이랩은 대용량 영상 데이터의 가공과 활용에 특화된 기술력으로 지난 2021년 2월 코스닥에 상장하는 성과를 올리기도 했다. 주요 사업으로는 AI를 통한 실시간 대규모 영상분석(VidiGo, X-AIVA), AI 학습용 합성데이터 생성(X-Labeller, X-GEN), GPU 활용 최적화(Uyuni) 등이 있다.

특히 이번 전시회에서 씨이랩이 선보인 AI 기반 영상 검색 솔루션, 비디고 서치엔진은 동영상 장면 검색과 아카이브 관리에 특화된 기능을 담고 있다. 특징은 영상 속 인물, 객체, 대사 등을 데이터화해 필요한 장면을 효율적으로 검색할 수 있다는 점이다. 즉 이제까지 영상 편집 등에서 특정 영상 장면을 찾는데 일일이 스크립트를 뒤져가며 찾아야 했던 시간을 대폭 절감할 수 있게 한 것이다.

테크42

ⓒTech42

<이미지를 클릭하시면 크게 보실 수 있습니다>


현장에서 만난 함재식 씨이랩 매니저는 먼저 비디고 하이라이트와 관련해 “영상 원본을 입력하거나 유튜브 영상의 URL만 입력해도 각각의 분량을 정해 숏폼 콘텐츠로 만들 수 있고, 텍스트 요약을 제공한다”며 “숏폼의 경우 맥락 기반으로 길이와 탬플릿을 설정해 자동으로 제작과 공유가 가능하다”고 강조했다.

이어 비디고 서치 엔진에 대해서는 “AI 영상 분석을 통해 영상 내 특정 장면을 검색할 수 있는 솔루션으로 방송국, 엔터테인먼트, OTT 등 대용량 영상 스토리지를 보유한 산업 분야에 적용이 가능하다”고 설명했다.

“예를 들어 인기 프로그램 ‘나 혼자 산다’에서 주인공이 밥을 먹는 장면 등을 검색하면 빠르게 특정 구간을 찾아 제시할 수 있습니다. 영상에 포함된 음성이나, 특정 이미지 백터 기반으로 데이터를 추출해 검색을 하는 거죠.”

한편 이번 ‘KOBA 2024’에서는 한국방송기술인연합회와 한국이앤엑스가 주최하는 ‘KOBA 2024 미디어 컨퍼런스’가 함께 개최됐다. 전기 기간 동안 미디어 트렌드, 미디어 클라우드, AI 콘텐츠 제작, UHD 방송 제작, 전파기술동향, 라디오 트렌드, 실감 음향, 제작 트렌드, XR 제작, 방송 표준, 조명 트렌드 등 국내외 미디어 동향과 같은 주요 방송기술 및 정책 등 방송산업 전반에 관련된 이슈를 주제로 16개 세션에서 약 30여 차례의 강의가 진행되고 있다.

황정호 기자

저작권자 © Tech42 - Tech Journalism by AI 테크42 무단전재 및 재배포 금지
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.