728x90
반응형

CUDA 4

GPU Fractional Scheduling

개요GPU Fractional Scheduling은 하나의 GPU 자원을 여러 워크로드 또는 사용자 간에 세분화하여 할당하고, 시간 또는 공간 기준으로 효율적으로 스케줄링하는 기술입니다. AI/ML 트레이닝 및 추론 워크로드, 클라우드 기반 모델 서비스 환경에서 GPU 활용률을 극대화하며 비용 효율성을 제공하는 핵심 전략으로 주목받고 있습니다.1. 개념 및 정의Fractional Scheduling은 물리적 GPU 장치를 가상적으로 분할하여 서로 다른 프로세스나 컨테이너가 GPU를 동시에 공유하게 하는 스케줄링 방식입니다.Fractional GPU: GPU 자원을 memory, SM(Core), compute time 등으로 쪼개어 사용Space Sharing: 다중 프로세스가 병렬로 실행 (MPS 기반..

Topic 12:57:34

FlashAttention-2

개요FlashAttention-2는 트랜스포머 기반 대규모 언어 모델(LLM)의 핵심 연산인 어텐션(Attention)을 메모리 효율적이고 빠르게 처리하기 위한 차세대 알고리즘입니다. 기존 FlashAttention의 속도 및 GPU 효율성 문제를 개선하면서, 다양한 시퀀스 길이 및 배치 구조에 대한 일반성을 확보하고, 학습 및 추론 성능을 모두 향상시키는 혁신적 어텐션 기법으로 주목받고 있습니다.1. 개념 및 정의FlashAttention-2는 어텐션 연산에서 메모리 접근을 최소화하고, 고속 버퍼 레벨에서 정확한 softmax 연산을 수행하여 연산 효율성을 극대화한 알고리즘입니다.기반 모델: 트랜스포머(Transformer) 아키텍처핵심 전략: 'tiling + recomputation + GPU-fr..

Topic 2025.05.22

FlashAttention

개요FlashAttention은 GPU 메모리 대역폭을 효율적으로 활용하여 Transformer 모델의 Attention 연산을 빠르고 정확하게 수행할 수 있도록 설계된 메모리 최적화 기반의 고속 어텐션 알고리즘입니다. 기존의 Softmax Attention 구현 방식은 쿼리-키-값 연산 시 많은 중간 메모리를 생성하고 이를 반복적으로 읽고 쓰는 비효율적인 구조였으나, FlashAttention은 이 과정을 최소화하여 큰 시퀀스 길이에서도 속도와 정확성을 유지할 수 있도록 합니다.1. 개념 및 정의 항목 설명 정의FlashAttention은 CUDA 기반 커널을 활용하여 attention score와 softmax 계산을 메모리 낭비 없이 수행하는 고속 알고리즘입니다.목적Transformer의 memo..

Topic 2025.05.16

통합 메모리 아키텍처(UMA, Unified Memory Architecture)

개요통합 메모리 아키텍처(UMA, Unified Memory Architecture)는 CPU와 GPU가 단일 메모리 공간을 공유하는 아키텍처로, 데이터 이동 비용을 줄이고 성능을 최적화하는 기술이다. 기존의 개별 메모리 시스템과 달리, UMA는 CPU와 GPU 간 메모리 복사를 최소화하여 고속 연산이 필요한 AI, 머신러닝, 그래픽 처리 등에 최적화되어 있다. 본 글에서는 UMA의 개념, 주요 특징, 장점과 한계, 활용 사례 및 미래 전망을 살펴본다.1. 통합 메모리 아키텍처(UMA)란?UMA는 CPU와 GPU가 별도의 메모리를 가지지 않고, 동일한 메모리 풀을 공유하는 아키텍처이다. 기존에는 CPU와 GPU가 각각 독립된 메모리를 사용하여 데이터를 주고받아야 했지만, UMA를 활용하면 데이터 복사 없..

Topic 2025.03.23
728x90
반응형