개요AdaLoRA(Adaptive Low-Rank Adaptation)는 대규모 언어 모델(LLM)을 파인튜닝할 때 사용하는 파라미터 효율화 미세조정(Parameter-Efficient Fine-Tuning, PEFT) 기법 중 하나로, 기존의 LoRA(Low-Rank Adaptation)를 확장하여 Layer마다 적절한 랭크(Rank)를 동적으로 할당하는 방식으로 학습 효율성과 성능을 모두 향상시키는 기술입니다. 제한된 예산에서 최대 효과를 얻는 데 초점을 맞춘 최신 PEFT 방법입니다.1. 개념 및 정의 항목 내용 비고 정의LLM 파인튜닝 시 layer별로 rank를 동적으로 조절하는 LoRA 확장 기법논문: Adaptive Budget Allocation for Parameter-Efficien..