728x90
반응형

tensorrt 3

TensorRT-LLM

개요TensorRT-LLM은 NVIDIA가 개발한 대규모 언어 모델(LLM) 추론 최적화 프레임워크로, GPU 기반에서 Transformer 기반 모델의 효율적 실행을 위한 고성능 런타임 환경을 제공합니다. FP8, Tensor Parallelism, Paginated KV-Cache, 비동기 텍스트 스트리밍 등 다양한 고급 기능을 지원하며, 개발자가 손쉽게 LLM을 배포하고 상용화할 수 있도록 설계되어 있습니다.이 글에서는 TensorRT-LLM의 구조, 주요 기술, 성능 특성, 활용 사례 등을 분석하여 LLM 인프라 성능 극대화를 위한 전략을 소개합니다.1. 개념 및 정의 항목 설명 정의TensorRT-LLM은 NVIDIA GPU에서 Transformer 기반 모델을 빠르고 효율적으로 실행하기 위한..

Topic 2025.09.07

Triton Inference Server

개요AI 모델을 실제 서비스에 적용하려면, 학습 이후 단계인 **추론(Inference)**을 빠르고 안정적으로 처리할 수 있어야 합니다. 이를 위한 대표적 오픈소스 플랫폼이 NVIDIA의 Triton Inference Server입니다. 다양한 프레임워크 모델을 일관된 방식으로 배포하고, GPU 및 CPU 리소스를 효율적으로 활용하며, 대규모 AI 추론 워크로드를 안정적으로 처리할 수 있는 서버입니다. 본 글에서는 Triton Inference Server의 구조, 기능, 장점 및 적용 사례를 상세히 살펴봅니다.1. 개념 및 정의Triton Inference Server는 NVIDIA가 개발한 범용 AI 추론 서버로, 다양한 딥러닝 프레임워크(PyTorch, TensorFlow, ONNX 등) 기반의 ..

Topic 2025.07.16

Reactive Inference(실시간 예측)

개요Reactive Inference(실시간 예측)는 변화하는 환경이나 입력에 실시간으로 반응하여 즉시 추론 결과를 도출하는 AI 기술입니다. 특히 센서 기반 시스템, 자율주행, 로봇 제어, 금융 시장 예측 등 빠른 의사결정이 필요한 분야에서 필수적인 요소로 주목받고 있습니다. 이는 기존의 배치 기반 추론(Batch Inference)과는 다른 접근 방식으로, 지연(latency)을 최소화하고, 예측 반응성을 극대화하는 데 초점을 둡니다.1. 개념 및 정의Reactive Inference는 입력 데이터가 실시간으로 도착함과 동시에, 최소한의 지연 시간으로 모델이 예측 결과를 출력하는 방식입니다. 이때 모델은 사전 학습된 파라미터를 기반으로, 추가적인 재학습 없이 예측만 수행합니다. 핵심은 낮은 추론 지연..

Topic 2025.04.08
728x90
반응형