[로이슈 편도욱 기자] 가비아가 국내 AI 반도체 기업 리벨리온의 NPU ‘ATOM-Max’를 탑재한 클라우드 서비스 ‘NPUaaS’를 9일 출시했다.
NPUaaS는 NPU 인프라를 클라우드 방식으로 구독해 사용하는 서비스다. NPU는 추론 작업에 특화된 반도체로, GPU 대비 전력 소모가 적고 비용 효율이 높은 것으로 알려져 있다.
인스턴스 기반으로 출시된 이 서비스는 OS 커널 수준의 환경 설정과 커스터마이징이 가능하다. ATOM-Max 1장 기준 연산 성능 128 TFLOPS(FP16), NPU 메모리 64GB, CPU 16vCore, 시스템 메모리 256GB, 무료 트래픽 4TB를 제공한다. LLM, 비전 AI, 멀티모달 AI, 피지컬 AI 등 다양한 워크로드를 지원하며 다중 구성도 가능하다.
가비아는 서비스 출시와 함께 도입 검토 기업을 대상으로 ‘AI 추론 프레임워크 최적화 컨설팅’을 제공한다. PyTorch와 TensorFlow 프레임워크를 지원하며, Hugging Face Hub 등록 오픈소스 모델과의 연동도 가능하다. 서빙·최적화 도구로는 vLLM, Triton Inference Server, TorchServe를 활용할 수 있다.
가비아 관계자는 “인프라 부담 없이 AI 비즈니스에 집중할 수 있는 환경을 만들겠다”고 말했다.
편도욱 로이슈 기자 toy1000@hanmail.net
NPUaaS는 NPU 인프라를 클라우드 방식으로 구독해 사용하는 서비스다. NPU는 추론 작업에 특화된 반도체로, GPU 대비 전력 소모가 적고 비용 효율이 높은 것으로 알려져 있다.
인스턴스 기반으로 출시된 이 서비스는 OS 커널 수준의 환경 설정과 커스터마이징이 가능하다. ATOM-Max 1장 기준 연산 성능 128 TFLOPS(FP16), NPU 메모리 64GB, CPU 16vCore, 시스템 메모리 256GB, 무료 트래픽 4TB를 제공한다. LLM, 비전 AI, 멀티모달 AI, 피지컬 AI 등 다양한 워크로드를 지원하며 다중 구성도 가능하다.
가비아는 서비스 출시와 함께 도입 검토 기업을 대상으로 ‘AI 추론 프레임워크 최적화 컨설팅’을 제공한다. PyTorch와 TensorFlow 프레임워크를 지원하며, Hugging Face Hub 등록 오픈소스 모델과의 연동도 가능하다. 서빙·최적화 도구로는 vLLM, Triton Inference Server, TorchServe를 활용할 수 있다.
가비아 관계자는 “인프라 부담 없이 AI 비즈니스에 집중할 수 있는 환경을 만들겠다”고 말했다.
편도욱 로이슈 기자 toy1000@hanmail.net
<저작권자 © 로이슈, 무단 전재 및 재배포 금지>
메일: law@lawissue.co.kr 전화번호: 02-6925-0217

