개요Mamba는 2023년 후반 등장한 혁신적인 시퀀스 모델로, 기존 Transformer의 한계를 극복하며 긴 시퀀스 처리에 최적화된 새로운 아키텍처입니다. Attention 메커니즘 없이도 고성능을 달성할 수 있는 Selective State Space(Model)를 기반으로, 자연어 처리, 시계열 예측 등에서 강력한 성능을 보입니다.1. 개념 및 정의 항목 설명 정의Selective Structured State Space 모델 기반의 시퀀스 처리 신경망목적Attention 구조 없이도 긴 시퀀스 모델링 가능하게 함핵심 목표Transformer보다 빠르고, 메모리 효율적인 대안 모델 제공Mamba는 기존의 Transformer 구조가 가지는 O(n^2) 복잡도를 벗어나 선형 시간 처리 구조를 기반..