<이미지를 클릭하시면 크게 보실 수 있습니다> |
[디지털투데이 AI리포터] 인공지능(AI) 기술의 발전은 빠르게 진행되고 있지만, AI 모델의 성능 향상이 정체기에 도달했을 지도 모른다는 연구 결과가 나왔다.
12일(현지시간) IT매체 아스테크니카(ArsTechnica)에 따르면, 오픈AI 연구원들은 다음 정식 모델 출시의 코드명인 오리온(Orion)이 최근 몇 년 동안 GPT-3과 GPT-4 사이에서 보였던 것보다 더 작은 성능 향상을 보이고 있다고 말했다.
오픈AI의 공동 창립자 일리아 수츠케버는 기존의 사전 교육에서 얻을 수 있는 것이 한계에 부딪혔다는 우려를 덧붙였다. 그는 "이제 우리는 다시 경이와 발견의 시대로 돌아왔다"며, "모두가 다음 것을 찾고 있다. 올바른 것을 확장하는 것이 그 어느 때보다 중요하다"고 언급했다.
교육 문제의 가장 큰 부분은 새로운 거대언어모델(LLM)이 교육할 수 있는 양질의 새로운 텍스트 데이터가 부족하다는 것. 연구기관 에포크(Epoch AI)는 올해 초 논문에서 이 문제를 정량화하여 '인간이 생성한 공개 텍스트의 추정 재고'와 비교해 LLM 학습 데이터 세트의 증가율을 측정했다. 그 결과, 연구진은 언어 모델이 2032년 사이에 인간이 생성한 공개 텍스트의 재고를 완전히 활용할 것으로 예상된다고 전망했다.
현재의 LLM 교육 방법이 정체되기 시작했다면, 다음 큰 돌파구는 전문화를 통해 이루어질 수 있다고 매체는 덧붙였다. 가까운 미래의 AI는 인간 지식에 대한 더 새롭고 난해한 길을 개척하는 박사 과정 학생처럼 더 좁고 좁은 전문 분야에 초점을 맞출 수 있을 것이라고 전망된다.
<저작권자 Copyright ⓒ 디지털투데이 (DigitalToday) 무단전재 및 재배포 금지>
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.