Topic

Sparsely-Gated MoE (Mixture of Experts)

JackerLab 2025. 5. 8. 22:06
728x90
반응형

개요

Sparsely-Gated MoE(Mixture of Experts)는 대형 신경망 모델에서 전체 네트워크가 아닌 일부 전문가(Experts)만 선택적으로 활성화함으로써 모델 용량은 늘리되 계산 비용은 일정하게 유지하는 구조입니다. 이 방식은 Google Brain의 논문 “Outrageously Large Neural Networks: The Sparsely-Gated Mixture-of-Experts Layer”에서 제안되었으며, GPT, T5, Switch Transformer 등 현대 대형 언어 모델의 확장성 향상에 널리 사용되고 있습니다.


1. 개념 및 정의

Mixture of Experts(MoE)는 여러 개의 전문가 네트워크(Expert)를 구성하고, Gating Network를 통해 입력마다 활성화할 전문가를 선택하는 방식입니다. 그 중 Sparsely-Gated MoE는 매 입력마다 일부 전문가만 활성화되며, 나머지 전문가들은 계산에 참여하지 않아 효율성이 극대화됩니다.

공식 표현:

  • : Gating Network 결과 (Softmax 또는 Top-K)
  • : i번째 Expert의 출력

2. 구조 및 동작 방식

구성 요소 설명 역할
Gating Network 입력에 따라 Expert 선택 Top-1 또는 Top-2 활성화 기준 생성
Experts 독립적인 MLP 또는 Transformer 블록 입력을 개별적으로 처리
Router (Gate) 선택된 Expert에만 데이터 전달 Softmax, Top-K, Noisy Gating 등 사용
Auxiliary Loss Expert 사용 균형 유지 목적 Load Balancing Loss 포함

전체 모델은 수천억 파라미터까지 확장 가능하지만, 실제 활성화는 일부 전문가에 국한됩니다.


3. 성능 및 장점

항목 설명 기대 효과
파라미터 효율성 비활성 Expert는 계산 제외 메모리 절약, 처리 시간 단축
모델 용량 증가 Expert 수 증가 시 성능 향상 일반화 능력 개선
확장성 전문가 수만 늘려도 성능 상승 가능 GPU 수직/수평 스케일링 쉬움
Task 특화 가능성 Expert마다 다른 학습 가능 멀티태스크에 유리

Top-2 활성화 시 GPU 병렬성과 균형 잡힌 학습을 동시에 달성할 수 있습니다.


4. 대표 모델 사례

모델 특징 관련 기술
Switch Transformer Top-1 MoE 구조 GShard, Sparse Routing
GLaM (Google MoE) Top-2, 1.2T 파라미터 Noisy Top-K Routing
T5-MoE 자연어 생성에 최적화된 구조 Multi-task + MoE 융합
Mixtral 최신 공개 MoE 기반 LLM Sparse Expert Routing 기반 튜닝

이들 모델은 Sparse 활성화를 통해 Full Dense 모델보다 계산량을 수십 % 절감합니다.


5. 고려사항 및 단점

항목 설명 대응 전략
Expert 불균형 일부 Expert에만 데이터 집중 가능성 Auxiliary Loss로 분산 유도
통신 비용 Cross-device Expert 배치 시 통신 발생 전문가 Local 배치 및 통신 최적화 필요
Gating 불안정성 선택 기준의 노이즈 및 편향 발생 Noisy Gating, Temperature Control 등 활용
구현 복잡도 라우팅 및 동적 연산 처리 복잡 MoE 전용 프레임워크 활용 권장 (DeepSpeed 등)

특히 균형 문제와 통신 최적화는 대규모 MoE 설계의 핵심 과제입니다.


6. 구현 프레임워크 및 생태계

도구 설명
DeepSpeed-MoE Microsoft의 고속 분산 학습용 MoE 지원 라이브러리
FairScale PyTorch 기반의 MoE 구현 포함
Hugging Face Transformers Mixtral, Switch 등 일부 MoE 모델 지원
GShard Google의 초기 분산 학습 프레임워크

MoE는 분산 학습 기반에서 성능과 확장성의 균형을 맞추는 전략적 선택입니다.


7. 결론

Sparsely-Gated MoE는 대형 모델의 한계를 뛰어넘기 위한 구조적 혁신으로, 선택적 전문가 활성화라는 아이디어를 통해 효율성과 확장성의 균형을 극대화합니다. GPU 자원 효율화, 멀티태스크 학습, 거대 모델 확장 등에서 핵심 기술로 주목받고 있으며, 향후 LLM의 진화 방향에 있어 필수적인 아키텍처 패턴으로 자리 잡을 것입니다.

728x90
반응형

'Topic' 카테고리의 다른 글

DreamBooth  (0) 2025.05.09
Retrieval-Augmented Generation v2 (RAG++)  (1) 2025.05.08
QLoRA (Quantized Low-Rank Adapter)  (0) 2025.05.08
Van der Waerden Search  (2) 2025.05.08
Ukkonen 알고리즘  (0) 2025.05.08