728x90
반응형

gpt 튜닝 3

PEFT(Parameter-Efficient Fine-Tuning)

개요PEFT(Parameter-Efficient Fine-Tuning)는 기존의 파인튜닝처럼 전체 모델 파라미터를 업데이트하는 방식이 아닌, 일부 모듈만 학습하거나 적은 수의 파라미터만 조정하여 LLM의 성능을 빠르게 개선할 수 있는 파인튜닝 전략입니다. 특히 메모리, 연산 자원이 제한된 환경에서 LLM(예: LLaMA, GPT-3/4 등)을 빠르고 저비용으로 파인튜닝할 수 있어, 오픈소스 생태계 및 기업 적용에서 핵심 전략으로 부상하고 있습니다.1. 개념 및 정의PEFT는 LLM의 대다수 파라미터를 고정하고, 일부 적은 수의 학습 가능한 파라미터만 추가하거나 수정하여 미세 조정(Fine-Tuning)하는 기법군을 통칭합니다.학습 가능한 파라미터 수: 기존 대비 수천 배 감소효율성 초점: 메모리 절감 +..

Topic 2025.05.07

LoRA (Low-Rank Adaptation)

개요LoRA(Low-Rank Adaptation)는 거대 언어 모델(LLM)의 파라미터 전체를 학습하지 않고, 선형 계층의 변화만을 저차원(low-rank) 행렬로 분리해 효율적으로 학습하는 파인튜닝 방식입니다. 이 접근법은 저비용·저메모리·빠른 수렴이라는 장점으로 인해 최근 ChatGPT, LLaMA, Alpaca 등 다양한 LLM 파인튜닝에 널리 채택되고 있습니다.1. 개념 및 정의LoRA는 기존 모델의 가중치 는 고정하고, 추가 학습 가능한 **저랭크 행렬 A, B (Rank 핵심 아이디어: 학습 시 weight를 직접 업데이트하는 대신, 저차원 변화만 추가로 학습동결 전략: 기존 모델의 가중치는 그대로 고정적용 위치: 주로 Transformer의 Attention 또는 FFN 선형 계층2. 구조 ..

Topic 2025.05.06

Instruction-based Prompting

개요Instruction-based Prompting(명령 기반 프롬프트)은 대규모 언어모델(LLM)에게 작업을 자연어 명령문 형태로 직접 지시하여 원하는 출력을 얻는 프롬프트 방식입니다. 이는 “문장을 요약해줘”, “다음을 영어로 번역해줘”, “질문에 답변해줘”처럼 사람이 쓰는 명령 문장 그대로 LLM에게 과제를 부여하는 전략이며, 특히 Instruction-tuned 모델(GPT-3.5, GPT-4, T5, FLAN, Alpaca 등) 에서 매우 효과적입니다.1. 개념 및 정의Instruction-based Prompting이란 명시적인 지시어(instructional phrase)를 통해 LLM이 특정 태스크를 수행하게 하는 방법으로, 일반적으로 다음과 같은 구조를 따릅니다:지시문: 모델에게 작업을..

Topic 2025.04.07
728x90
반응형