MnasNet(엠나스넷)은 Google Brain이 발표한 Neural Architecture Search(NAS) 기반의 경량 CNN 모델로, 모바일 환경에서 정확도와 지연시간(latency)을 동시에 최적화하기 위해 설계된 딥러닝 구조입니다. NASNet, MobileNetV2 등의 단점을 보완하며, 실제 디바이스 측정 지연시간을 학습 목표에 직접 반영한 점에서 차별화됩니다. Edge AI·온디바이스 AI의 실용화를 위한 핵심 구조 중 하나입니다.
1. 개념 및 정의
항목
설명
정의
실시간 추론이 필요한 모바일 디바이스 환경에 맞춰 자동 설계된 NAS 기반 CNN 모델
개발 주체
Google Brain (2018, CVPR 논문 발표)
핵심 특징
다목표 최적화(Objective Trade-off: Accuracy vs Latency), 하드웨어 측정 기반 설계
2. NAS 기반 구조 설계 방식
구성 요소
설명
Reinforcement Learning 기반 탐색
컨트롤러 RNN이 다양한 모델 구조 샘플링 및 평가 수행
Reward Function
정확도(accuracy)와 지연시간(latency)을 동시에 고려하는 목적 함수 사용
디바이스 측정 기반 최적화
실제 스마트폰에서의 추론 지연시간을 기준으로 모델 구조 선택
기본 셀 구조 반복
최적의 셀(블록)을 반복 사용하여 전체 네트워크 구성
3. MnasNet 구조 특징
요소
설명
Inverted Residual Block
MobileNetV2와 유사한 경량 블록 기반 구성
Depthwise Separable Conv
연산량 최소화를 위한 경량 컨볼루션 적용
Stage 구조
다단계 블록 구성으로 계층적 특징 추출 가능
Expansion Ratio
각 블록에서 입력 채널을 확장하는 비율로 모델 용량 제어
4. 주요 모델 및 성능
모델
Top-1 Accuracy (ImageNet)
파라미터 수
지연시간(Real Device 기준)
MobileNetV2
~72%
~3.4M
75ms
MnasNet-A1
~75.2%
~3.9M
78ms
NASNet-A
~74%
~5.3M
183ms
5. 활용 분야
분야
적용 사례
스마트폰
실시간 영상 분류, AR 얼굴 인식, AI 카메라 기능
IoT 기기
저전력 디바이스 내 객체 탐지, 상태 분석 AI 모델
자율주행
엣지 NPU 기반 신호등·차선 인식용 백본 모델
헬스케어
웨어러블 디바이스에서의 ECG 분석, 행동 인식
6. PyTorch 코드 예시
from torchvision.models import mnasnet1_0
model = mnasnet1_0(pretrained=True)
model.eval()
mnasnet0_5(), mnasnet0_75() 등 다양한 경량 버전 존재
7. 장점과 한계
항목
장점
한계
지연시간 최적화
실제 디바이스 성능 기반으로 정확도-속도 균형 유지
NAS 탐색 시간이 매우 길고 비용 높음
실용성
MobileNet 대비 정확도 높고 경량성 유지
구조가 복잡해 커스터마이징은 제한적
확장성
PyTorch/TF에서 백본으로 활용 가능
최신 NAS 기법 대비 기술 진화 속도 느림
결론
MnasNet은 단순히 ‘작은 모델’이 아닌 ‘실제로 빠른 모델’을 찾기 위한 NAS 기반 혁신의 결과물입니다. 정확도만이 아닌 실제 실행 환경까지 고려한 구조 설계를 통해 Edge AI 시대에 적합한 모델로 자리 잡고 있으며, 후속 EfficientNet, ProxylessNAS 등 다양한 파생 연구에도 큰 영향을 끼쳤습니다.