728x90
반응형

모델경량화 4

넷어댑트(NetAdapt)

개요NetAdapt(넷어댑트)는 주어진 하드웨어 성능 제약(예: 연산량, 지연시간, 메모리 크기)에 맞춰 자동으로 최적의 딥러닝 모델 구조를 찾아주는 경량화 알고리즘입니다. 기존의 고정된 네트워크 구조를 사용하는 것이 아니라, 성능 손실을 최소화하면서 하드웨어 자원에 최적화된 경량 모델을 자동 탐색하여, 실제 환경에서 추론 효율을 극대화하는 것이 핵심입니다.1. 개념 및 정의 항목 설명 정의실제 하드웨어 측정 기반으로 딥러닝 모델을 자동 경량화하여 추론 효율을 최적화하는 알고리즘개발 배경수동 튜닝의 한계, 연산량 기반 최적화의 실제 성능 불일치 문제를 해결하기 위해 등장적용 분야스마트폰, IoT, 드론, 자율주행, 로봇 등의 엣지 환경 AI 모델 최적화2. 작동 방식단계설명1. 성능 측정원본 모델을 다..

Topic 2025.04.24

Low-Rank Factorization(저랭크 분해)

개요Low-Rank Factorization(저랭크 분해)은 고차원 행렬을 보다 낮은 랭크(rank)의 행렬로 분해하여, 데이터 또는 모델의 복잡도를 줄이는 대표적인 행렬 분해 기법입니다. 주로 딥러닝 모델의 가중치 행렬 압축, 차원 축소, 추천 시스템, 자연어 처리 등 다양한 분야에서 활용되며, 연산량을 줄이면서도 원래의 정보를 최대한 유지하는 것이 핵심입니다.1. 개념 및 정의저랭크 분해는 원래의 큰 행렬 **A (m x n)**를 두 개의 저차원 행렬 **U (m x k)**와 **V (k x n)**로 분해하는 방식입니다. 여기서 **k는 m, n보다 작은 랭크(rank)**로, 근사 행렬을 구성하여 연산을 단순화합니다.A ≈ U × V 형태로 근사화차원 축소와 정보 압축이 동시에 가능SVD(Si..

Topic 2025.04.09

Pruning with Lottery Ticket Hypothesis(로터리 티켓 가설 기반 가지치기)

개요Pruning with Lottery Ticket Hypothesis(로터리 티켓 가설 기반 가지치기)는 복잡한 딥러닝 모델 속에서 성능은 유지하면서도 훨씬 작고 효율적인 서브네트워크(Subnetworks)를 찾아내는 최적화 전략입니다. 이 개념은 모델 압축 및 추론 최적화의 중요한 전환점을 제시하며, 특히 자원이 제한된 엣지 디바이스에서 경량화된 모델 구현에 강력한 효과를 발휘합니다.1. 개념 및 정의Lottery Ticket Hypothesis(LTH)는 2019년 Frankle & Carbin 논문에서 제시된 이론으로, 초기 무작위로 설정된 딥러닝 모델 내에는 동일한 초기화값과 동일한 구조로 훈련했을 때도 원래 모델과 유사한 성능을 낼 수 있는 'Winning Ticket'(당첨 티켓)이 존재한..

Topic 2025.04.09

Quantization-aware Training(QAT)

개요Quantization-aware Training(QAT, 양자화 인지 학습)은 딥러닝 모델의 경량화(모델 크기 축소 및 연산량 감소)를 위해 도입되는 기술 중 하나로, 학습 과정에서 양자화를 시뮬레이션하여 정확도 손실을 최소화합니다. 특히 엣지 디바이스나 모바일 환경에서 고속 추론과 낮은 전력 소비가 요구되는 분야에 적합하며, Post-Training Quantization(PTQ)보다 높은 정밀도를 유지할 수 있다는 장점이 있습니다.1. 개념 및 정의QAT는 훈련 단계부터 8-bit 또는 정수 연산을 염두에 두고, 양자화 시뮬레이션을 포함한 연산을 통해 모델을 학습시키는 방식입니다. 이는 학습 중 float 연산과 양자화된 정수 연산 사이의 오차를 고려하여 weight와 activation을 함께..

Topic 2025.04.08
728x90
반응형