728x90
반응형

self-consistency 3

Self-Consistency Decoding

개요Self-Consistency Decoding은 생성형 AI 모델이 더 일관되고 신뢰성 높은 출력을 생성할 수 있도록 설계된 디코딩 전략입니다. 하나의 질문에 대해 다양한 샘플을 생성하고, 이들 중에서 가장 빈번하게 등장한 답변을 최종 결과로 선택함으로써, 단일 샘플에 의존하는 기존 방식의 한계를 극복합니다. 특히 수학적 추론, 논리 문제, 다단계 추론 태스크에서 높은 성능을 보여줍니다.1. 개념 및 정의 항목 설명 비고 정의여러 번의 샘플을 생성한 뒤 가장 일관된 결과를 선택하는 디코딩 기법Majority Voting 방식 유사목적더 신뢰할 수 있는 모델 응답을 생성hallucination 및 오류 감소필요성단일 샘플 기반 출력의 비일관성 문제 해결Chain-of-Thought 기반 모델에서 효..

Topic 2026.02.14

Self-Consistency Prompt Voting

개요Self-Consistency Prompt Voting은 하나의 프롬프트에 대해 다수의 응답을 생성하고, 그 중 논리적으로 일관된 답변을 다수결 투표로 선택하여 최종 출력을 결정하는 방법입니다. 이는 특히 chain-of-thought prompting(COT)과 함께 사용될 때 효과적으로 모델의 추론 능력과 일관성을 향상시킵니다. 인간과 유사한 사고 체계를 모방하는 방식으로 복잡한 문제에 대해 더 정확하고 신뢰할 수 있는 결과를 도출합니다.1. 개념 및 정의 항목 설명 비고 정의언어 모델의 동일한 프롬프트에 대해 여러 출력을 생성하고, 가장 일관된 응답을 다수결 투표로 결정하는 전략Wang et al. (2022) 도입목적추론 정확도 향상 및 일관성 확보Chain-of-thought(COT)과 ..

Topic 2025.05.31

Self-consistency Prompting

개요Self-consistency는 Chain-of-Thought(CoT) Prompting의 확장 기법으로, LLM이 생성한 다수의 응답 중에서 가장 일관되고 빈도 높은 정답을 선택하여 추론 정확도와 안정성을 높이는 전략입니다. 단일 응답에 의존하지 않고, 여러 번 추론을 수행한 뒤 그 중 가장 빈도 높은 결과(majority vote)를 최종 응답으로 채택함으로써, 특히 수학, 논리, 추론 등 고난도 문제에서 효과적인 성능을 보입니다.1. 개념 및 정의Self-consistency는 다음과 같은 과정으로 이루어집니다:Chain-of-Thought 방식으로 다양한 응답 샘플 생성 (sampling or temperature variation)각 응답의 최종 정답만 추출 (step-by-step reas..

Topic 2025.04.07
728x90
반응형