컨텐츠 바로가기

11.25 (월)

이슈 인공지능 시대가 열린다

이미지를 텍스트로 답하는 카카오 멀티모달AI ‘허니비’ 공개

댓글 첫 댓글을 작성해보세요
주소복사가 완료되었습니다

MME, MMBench, SEED-Bench 등 벤치마크에서

타 모델 대비 최고 성능 달성

카카오브레인 “더 발전된 AI 모델 확보위해 끊임없이 연구할 것”

[이데일리 김현아 기자]카카오브레인이 이미지를 인식해 텍스트로 답하는 멀티모달 언어모델 오픈소스 ‘허니비’를 공개했다.

이데일리

‘허니비’ 예시. 이미지 올리면 텍스트로 답해준다. 사진=카카오브레인

<이미지를 클릭하시면 크게 보실 수 있습니다>


이데일리

‘허니비’ 예시. 영문도 가능하다. 사진=카카오브레인

<이미지를 클릭하시면 크게 보실 수 있습니다>




카카오브레인이 자사가 개발한 멀티모달 언어모델 오픈소스 ‘허니비(Honeybee)’를 ‘깃허브(Github)’에 19일 공개했다.

깃허브는 소프트웨어 개발 프로젝트를 위한 소스코드 관리서비스를 제공하는 일종의 원격 저장소다. 영리 서비스와 오픈소스를 위한 무상 서비스 모두를 제공하는데, ‘허니비’는 오픈소스로 공개됐다.

허니비 기능은?

허니비는 멀티모달 언어모델(MLLM, Multimodal Large Language Model) 오픈소스다.

현재 멀티모달 언어모델에 대한 연구는 공개된 모델의 수가 적고, 학습 방법 역시 자세히 공개되지 않아 개발이 어려운 상황이다. 이에 카카오브레인은 멀티모달 언어모델의 발전에 기여하고자 자체 개발한 ‘허니비’의 소스코드를 공개하기로 결정했다.

MLLM은 이미지와 명령어(프롬프트)를 입력하면, 텍스트로 답변하는 모델로 텍스트로만 입·출력하는 대규모 언어모델(Large Language Model)에서 확장된 형태라고 할 수 있다.

이미지와 텍스트를 모두 입력할 수 있기에 이미지에 담긴 장면을 묘사하거나 이미지와 텍스트가 혼합된 콘텐츠에 관한 질문을 이해하고 답변할 수 있는 능력을 가지게 된 것이다.

예를 들어 ‘허니비’에 ‘농구 경기 중인 두 명의 선수’ 이미지와 함께 ‘왼쪽 선수는 몇 번 우승했나요?’라는 질문을 영어로 입력하면, ‘허니비’가 입력된 이미지 내용과 질문을 종합적으로 이해하고 답변을 생성해낸다.

타사 제품 대비 성능 우수

카카오브레인에 따르면 ‘허니비’는 ‘MME’, ‘MMBench’, ‘SEED-Bench’ 등의 벤치마크(성능 실험)에서 모델이 공개된 타사 MLLM 대비 최고 성능을 달성했다. 특히 지각 능력과 인지 능력을 평가하는 ‘MME’ 벤치마크에서는 2800점 만점 중 1977점을 받았다.

또한 관련 논문 ‘Honeybee: Locality-enhanced Projector for Multimodal LLM(허니비: 멀티모달 LLM을 위한 로컬리티 강화 프로젝터)’은 지난해 논문 공개 사이트 ‘아카이브(arXiv)’에 게재된 바 있다.

논문에는 이 기술에 대해 “이미지 데이터를 처리해 딥러닝 모델이 더 효과적으로 학습하고 이해할 수 있도록 돕는 기술”이라며 “시각 프로젝터(Visual projector)가 사전 훈련된 비전 인코더와 대규모 언어 모델(LLM)을 연결하는 데 중요한 역할을 하며, 이를 통해 시각적 이해를 깊게 하면서 LLM의 능력을 활용할 수 있다”고 설명했다.

소스코드 깃허브에 공개

카카오브레인은 ‘허니비’의 MLLM 특성에 따라 이미지를 입력하고 텍스트로 질문하면 답변 생성 및 사용자와의 상호작용이 가능해 향후 효과적인 교육 및 학습 보조 도구로 사용될 것으로 전망하고 있다.

김일두 카카오브레인 각자 대표는 “허니비 모델의 추론을 가능하게 하는 코드도 깃허브에 공개했으며, ‘허니비’를 활용한 각종 서비스 확장을 고려 중”이라며 “더욱 발전된 AI 모델 확보를 위해 끊임없이 연구하고 개발할 것”이라고 전했다.


기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.