개요Min-PPL Decoding은 대규모 언어모델(LLM)의 출력 문장 중 퍼플렉서티(Perplexity)가 가장 낮은 후보를 선택하여 생성 품질을 향상시키는 디코딩 전략이다. 퍼플렉서티는 모델이 특정 시퀀스를 얼마나 자연스럽게 예측하는지를 나타내는 지표로, 값이 낮을수록 모델의 확률 분포와 일치하는 문장임을 의미한다.기존 Greedy, Beam Search, Top-k, Top-p 방식은 확률 기반 토큰 선택에 초점을 두지만, Min-PPL은 완성된 시퀀스의 전반적 언어 적합도(Global Fluency)를 기준으로 후보를 평가한다는 점에서 차별화된다.1. 개념 및 정의Min-PPL Decoding은 여러 후보 시퀀스를 생성한 후, 각 시퀀스의 평균 음의 로그 확률(또는 퍼플렉서티)을 계산하여 가장 ..