728x90
반응형

딥러닝경량화 2

Knowledge Distillation

개요Knowledge Distillation(지식 증류)은 성능이 우수한 대형 신경망(Teacher Model)에서 학습된 지식을 경량화된 소형 신경망(Student Model)으로 전이하여, 연산량은 줄이면서도 유사한 예측 성능을 유지하는 딥러닝 모델 최적화 기법입니다. AI 모델 경량화, Edge AI, 모바일 디바이스 추론 환경에서 실용성이 높으며, Transformer, CNN, LLM 등 다양한 구조에 적용됩니다.1. 개념 및 정의 항목 설명 정의Teacher 모델의 soft output(logit 또는 확률 분포)을 활용해 Student 모델을 학습시키는 전이 학습 방법목적모델 경량화 + 성능 유지(또는 손실 최소화)대표 분야이미지 분류, 객체 탐지, 자연어 처리, 대화형 AI기존 hard ..

Topic 2025.06.13

스퀴즈넷(SqueezeNet)

개요SqueezeNet은 딥러닝 모델의 크기(파라미터 수)를 극도로 줄이면서도 AlexNet 수준의 정확도를 유지하는 것을 목표로 개발된 초경량 합성곱 신경망(CNN) 구조입니다. 2016년 Forrest N. Iandola 등 UC Berkeley 팀이 제안했으며, 경량 딥러닝 분야에서 대표적인 연구 결과로 인정받고 있습니다. 특히 모바일, 임베디드, IoT 장비와 같이 메모리·계산 자원이 제한된 환경에서 강력한 이미지 인식 성능을 제공하는 것이 특징입니다.1. 개념 및 정의 항목 설명 정의파라미터 수를 50배 이상 줄이면서도 AlexNet 수준의 정확도를 유지하는 초경량 CNN 모델모델 크기약 4.8MB (AlexNet: 약 240MB)주요 특징파라미터 절감, 연산 효율화, 경량화에 최적화된 아키텍..

Topic 2025.04.24
728x90
반응형