개요Adapter Modules(어댑터 모듈)은 대규모 사전학습 언어모델(PLM)을 효율적이고 확장성 있게 파인튜닝(fine-tuning) 하기 위한 모듈화 전략입니다. 기존의 Full Fine-Tuning 방식은 모든 모델 파라미터를 업데이트해야 하므로 비용이 크고 비효율적입니다. 반면, 어댑터 모듈은 기존 파라미터는 고정(freeze)하고, 각 Transformer 레이어에 소형 학습 가능한 모듈(adapter)을 삽입하여 학습 성능을 확보합니다. 이는 Parameter-Efficient Fine-Tuning(PEFT) 기법 중에서도 대표적인 방식입니다.1. 개념 및 정의Adapter는 각 Transformer 레이어 내부의 Feedforward Layer 사이 또는 Attention 블록 뒤에 삽입..