728x90
반응형

textgeneration 2

Min-PPL Decoding(Minimum Perplexity Decoding)

개요Min-PPL Decoding은 대규모 언어모델(LLM)의 출력 문장 중 퍼플렉서티(Perplexity)가 가장 낮은 후보를 선택하여 생성 품질을 향상시키는 디코딩 전략이다. 퍼플렉서티는 모델이 특정 시퀀스를 얼마나 자연스럽게 예측하는지를 나타내는 지표로, 값이 낮을수록 모델의 확률 분포와 일치하는 문장임을 의미한다.기존 Greedy, Beam Search, Top-k, Top-p 방식은 확률 기반 토큰 선택에 초점을 두지만, Min-PPL은 완성된 시퀀스의 전반적 언어 적합도(Global Fluency)를 기준으로 후보를 평가한다는 점에서 차별화된다.1. 개념 및 정의Min-PPL Decoding은 여러 후보 시퀀스를 생성한 후, 각 시퀀스의 평균 음의 로그 확률(또는 퍼플렉서티)을 계산하여 가장 ..

Topic 2026.02.23

Contrastive Search(대조 탐색 디코딩)

개요Contrastive Search는 대규모 언어모델(LLM)의 텍스트 생성 과정에서 반복(Repetition) 문제를 줄이고 의미적 일관성(Coherence)을 향상시키기 위해 제안된 디코딩 전략이다. 기존 Greedy Search, Beam Search, Top-k, Top-p(Sampling) 방식은 확률 기반 선택에 의존하기 때문에 문맥 반복, 의미 왜곡, 비논리적 확장 등의 문제가 발생할 수 있다.Contrastive Search는 모델의 신뢰도(Confidence)와 표현 다양성(Diversity)을 동시에 고려하는 대조(Contrastive) 목적 함수를 활용하여, 가장 확률이 높은 토큰이 아닌 ‘문맥적으로 가장 적절하면서도 반복을 최소화하는’ 토큰을 선택한다.1. 개념 및 정의Contra..

Topic 2026.02.23
728x90
반응형