728x90
반응형

분산학습 4

Sparse MoE (Mixture of Experts)

개요Sparse Mixture of Experts(Sparse MoE)는 대규모 딥러닝 모델에서 연산 효율성과 확장성을 동시에 확보하기 위한 아키텍처로, 여러 개의 전문가 네트워크(Experts) 중 일부만 선택적으로 활성화하여 훈련 및 추론을 수행하는 방식이다. 특히 수십억~수조 개의 파라미터를 가진 초대형 모델에서 전체 계산량을 제어하며 성능을 유지하거나 향상시킬 수 있는 전략으로 각광받고 있다.1. 개념 및 정의MoE는 다수의 전문가 모델 중 일부만 활성화하는 구조로, 각 입력 토큰 또는 샘플마다 최적의 전문가를 선택하여 처리한다. 이때 Sparse MoE는 활성화되는 전문가 수를 제한하여 연산량을 줄이고, 효율성을 확보하는 방식이다. 구성 요소 설명 Experts서로 다른 파라미터를 갖는 Fee..

Topic 2025.06.24

Split Learning

개요Split Learning은 모델을 여러 장치 간에 분할하여 데이터가 로컬을 벗어나지 않으면서도 협업 학습이 가능하도록 하는 프라이버시 중심의 분산 학습 기술입니다. 본 글에서는 Split Learning의 개념, 구조, 주요 기술 요소, Federated Learning과의 비교, 보안성과 활용 사례를 중심으로 실무 도입 가능성을 살펴봅니다.1. 개념 및 정의Split Learning은 딥러닝 모델을 클라이언트와 서버로 나누어 학습하는 방식으로, 클라이언트는 전방 레이어만 계산하고 서버는 후방 레이어를 계산합니다. 이 구조는 원본 데이터를 서버에 전송하지 않아도 되므로 프라이버시와 보안성이 크게 향상됩니다.목적: 데이터 프라이버시 보호 및 연산 분산기반 원리: 모델 분할 및 순방향/역방향 전파 분리..

Topic 2025.06.16

Sparsely-Gated MoE (Mixture of Experts)

개요Sparsely-Gated MoE(Mixture of Experts)는 대형 신경망 모델에서 전체 네트워크가 아닌 일부 전문가(Experts)만 선택적으로 활성화함으로써 모델 용량은 늘리되 계산 비용은 일정하게 유지하는 구조입니다. 이 방식은 Google Brain의 논문 “Outrageously Large Neural Networks: The Sparsely-Gated Mixture-of-Experts Layer”에서 제안되었으며, GPT, T5, Switch Transformer 등 현대 대형 언어 모델의 확장성 향상에 널리 사용되고 있습니다.1. 개념 및 정의Mixture of Experts(MoE)는 여러 개의 전문가 네트워크(Expert)를 구성하고, Gating Network를 통해 입력마..

Topic 2025.05.08

연합학습(Federated Learning)

개요연합학습(Federated Learning)은 개별 데이터 소유자가 원본 데이터를 공유하지 않고도 인공지능(AI) 모델을 공동 학습할 수 있도록 하는 분산형 머신러닝 기술입니다. 중앙 서버에 데이터를 업로드하지 않고 로컬 장치에서 모델을 학습한 후, 학습된 파라미터만을 서버로 전송하여 집계하는 방식으로, 개인정보 보호와 데이터 보안이 중요한 분야에서 각광받고 있습니다.1. 개념 및 정의연합학습은 2016년 Google이 모바일 단말기에서의 AI 학습 문제를 해결하기 위해 처음 제안한 개념으로, 기본 원리는 다음과 같습니다:중앙 서버가 초기 모델을 각 클라이언트(기기, 기관 등)에 배포각 클라이언트는 로컬 데이터로 모델을 학습학습된 파라미터(모델 가중치)를 중앙 서버에 전송서버는 이를 집계하여 새로운 ..

Topic 2025.04.26
728x90
반응형