AWS 자체 AI 칩, 생성형 AI 개발 비용 줄여줘
앤트로픽, AI 칩 활용…클로드5 성능 100배 향상 예상
SKT, AWS 베드록 활용…텔코LLM 개발 효율화
함기호 AWS코리아 대표는 16일 서울 강남구 코엑스에서 열린 ‘AWS 서밋 서울 2024’ 행사의 기조연설을 통해 현재 국내 클라우드 산업의 화두를 이같이 짚었다.
함기호 AWS코리아 대표가 16일 서울 강남구 코엑스에서 열린 ‘AWS 서밋 서울 2024’에서 기조연설을 하고 있다.(사진=AWS코리아) |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
그는 먼저 한국 기업들이 친환경 클라우드 인프라를 통한 탄소 감축 실현에 높은 관심을 보이고 있다고 언급했다. 함 대표에 따르면 한국은 아시아 태평양 지역에서 AWS의 저전력 프로세서인 그라비톤 인스턴스를 두 번째로 많이 사용하는 국가다. 그는 “그라비톤을 활용하면 에너지 효율이 높아져서 탄소 배출을 획기적으로 줄일 수 있는데, 한국 고객사들 사이에서 특히 그라비톤 도입이 매우 활발하다”고 했다.
그는 또 한국 기업들이 생성형 AI의 비용 최적화에도 높은 관심을 보이고 있다고 했다. 함 대표는 “AWS가 자체 제작한 학습용 AI 칩인 ‘트레이니움’과 추론용 칩인 ‘인퍼런시아’는 그래픽처리장치(GPU) 최적화와 비용 절감을 동시에 실현할 수 있도록 설계됐다”고 소개하며 “두 칩을 도입했거나 검토 중인 한국 고객사가 빠르게 증가하고 있고, 국내 가상인가 제작 스타트업 클레온(Klleon)은 인퍼런시아를 활용하고 있는 대표적인 사례”라고 언급했다.
비용뿐 아니라 AI 모델 성능 개선에도 클라우드 기업이 미치는 영향이 크다. 이날 기조연설 무대에 오른 글로벌 AI 모델 개발사 앤트로픽의 니라브 킹스랜드 제휴총괄은 “우리가 모델을 새롭게 출시하는 사이클마다 AWS의 AI 칩의 품질은 2~3배 향상되고 있다”며 “이 같은 지원에 힘입어 몇 년 뒤 선보일 클로드5는 현재 클로드3 모델보다 100배 이상 성능이 향상될 것으로 예상된다”고 말했다.
클라우드는 AI 서비스를 개발하는 기업들이 다양한 거대언어모델(LLM)을 쉽게 활용하게 해주는 기반이 되고 있다. 정석근 SK텔레콤(017670) 글로벌 AI 테크 사업부장(부사장)은 ‘텔코 LLM’ 개발 사례를 소개하며 “효율적인 AI 개발과 운용을 위해 아마존 베드록을 활용하고 있다”고 했다. 베드록은 LLM에 데이터를 학습시켜 미세조정(파인튜닝)하고, 검색증강생성(RAG) 기능을 추가하는 등 AI 애플리케이션을 쉽게 개발할 수 있게 도와주는 서비스다. 정 부사장은 “베드록 위에서 LLM을 파인튜닝하고 RAG 등의 기술을 활용해 통신사 특화 AI인 텔코LLM을 개발하고 있다”며 “하반기에 텔코LLM과 이를 바탕으로 만든 개인용 AI 비서(PAA) 서비스를 출시할 계획”이라고 말했다.
프란체스카 바스케스 AWS 프로페셔널 서비스 및 생성형 AI 혁신 센터 부사장은 “생성형 AI가 인간 수준의 사고와 추론을 할 수 있게 됨에 따라 다양한 산업 분야에서 혁신이 일어나고 있다”며 “이 과정에서 AWS의 역할은 생성형 AI에 대한 접근성을 높이는 것”이라고 강조했다. 그는 특히 업무용 생성형 AI 비서인 아마존 Q를 소개하며 “아마존 Q는 기획, 디자인, 코드 구현, 테스트, 배포, 운영에 이르는 개발의 모든 단계에서 생산성을 향상시킨다”며 “AWS를 활용해 복잡한 생성형 AI 애플리케이션을 빠르고 효율적으로, 안전하게 구축할 수 있다”고 말했다.
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.