728x90
반응형

ai경량화 3

AdaFactor Optimizer

개요AdaFactor는 구글에서 제안한 경량화된 최적화 알고리즘으로, Transformer 기반 모델의 학습 시 메모리 효율을 극대화하면서도 성능 저하 없이 빠른 수렴을 가능하게 하는 것이 특징입니다. 특히 Adam 옵티마이저의 대안으로 주목받으며 대규모 언어 모델 학습에 적합한 솔루션으로 각광받고 있습니다.1. 개념 및 정의 구분 내용 정의Adam의 변형으로, 두 번째 모멘텀(m²)을 분해하여 저장 메모리를 줄이는 최적화 알고리즘목적대규모 모델 학습 시 메모리 사용량을 최소화하고 성능 유지필요성GPU 메모리 제약으로 인한 병렬성/확장성 문제 해결2. 특징특징설명차별점저메모리 사용두 번째 모멘텀(m²)을 행/열로 분해하여 저장Adam 대비 메모리 사용량 대폭 절감스케일 불변성가중치 스케일과 무관하게 안..

Topic 2025.05.18

모바일넷(MobileNet)

개요MobileNet은 모바일, IoT, 임베디드 디바이스처럼 연산 및 메모리 자원이 제한된 환경에서 실시간 딥러닝 추론이 가능하도록 설계된 경량 합성곱 신경망(CNN) 구조입니다. Google이 2017년 발표한 MobileNet은 경량성과 정확도 사이의 균형을 맞추기 위해 깊이별 분리 합성곱(Depthwise Separable Convolution)이라는 혁신적인 구조를 도입했으며, 이후 다양한 변형(MobileNetV2, V3 등)을 통해 성능이 지속적으로 개선되고 있습니다.1. 개념 및 정의 항목 설명 정의경량 CNN 모델로, 연산량과 파라미터 수를 줄이기 위한 Depthwise Separable Convolution 기반 구조목적모바일·에지 디바이스에서 효율적이고 빠른 추론이 가능하도록 최적화..

Topic 2025.04.24

DistilBERT

개요DistilBERT는 Google의 대표적인 자연어 처리(NLP) 모델인 BERT를 경량화한 모델로, Hugging Face에서 공개한 지식 증류(Knowledge Distillation) 기반의 사전학습 언어모델입니다. BERT의 약 40% 크기, 60% 빠른 속도를 유지하면서도, 97% 이상의 성능을 보장하는 DistilBERT는 모바일, 엣지 디바이스, 실시간 응답이 필요한 응용 시스템에 적합한 솔루션으로 각광받고 있습니다.1. 개념 및 정의DistilBERT는 기존 BERT 모델을 학생(Student) 모델, 원래의 BERT를 교사(Teacher) 모델로 설정하여, 교사의 지식을 학생 모델이 학습하는 Knowledge Distillation 기법을 사용해 개발되었습니다.학습 시 BERT의 중간..

Topic 2025.04.09
728x90
반응형