728x90
반응형

추론 최적화 2

RetNet(Retention Network)

개요Transformer 아키텍처는 현재 대규모 언어 모델의 핵심이지만, 긴 시퀀스 처리에서 비효율적이며 추론 속도와 메모리 요구량에 제약이 있습니다. 이러한 한계를 극복하기 위해 Meta AI에서 제안한 **RetNet(Retention Network)**은 트랜스포머의 장점을 유지하면서도 RNN 기반의 효율성과 병렬처리 가능성을 결합한 차세대 언어 모델 구조입니다. 본 글에서는 RetNet의 개념, 구조, 기술적 차별점, 그리고 응용 가능성을 심층적으로 살펴봅니다.1. 개념 및 정의**RetNet(Retention Network)**은 입력 토큰에 대한 정보를 상태로 유지하면서, 동적 가중치를 부여해 다음 토큰을 예측하는 새로운 시퀀스 모델입니다. 트랜스포머의 Self-Attention을 대체하기 위..

Topic 2025.05.28

RWKV(Receptance-Weighted Key-Value)

개요대규모 언어 모델(Large Language Model)의 발전은 대부분 트랜스포머(Transformer) 아키텍처 기반으로 이루어져 왔습니다. 하지만 트랜스포머의 병렬 처리 능력과 RNN의 시간 순서 인식 능력을 동시에 갖춘 새로운 아키텍처인 RWKV가 최근 주목받고 있습니다. RWKV는 Receptance-Weighted Key-Value 구조를 활용하여 순차적 학습과 병렬 추론을 모두 가능하게 만드는 혁신적 하이브리드 언어 모델입니다.1. 개념 및 정의**RWKV(Receptance-Weighted Key-Value)**는 RNN과 트랜스포머의 장점을 결합한 언어 모델 아키텍처입니다. 시퀀스를 순차적으로 처리하면서도 병렬화 가능한 계산 구조를 갖추고 있어, LLM의 훈련 및 추론 효율성을 동시에..

Topic 2025.05.28
728x90
반응형