개요대규모 언어모델(LLM)은 놀라운 생성 능력을 제공하지만, 여전히 환각(hallucination) 문제와 사실 오류에 취약합니다. 이를 해결하기 위한 새로운 접근법으로 등장한 것이 바로 Chain-of-Verification(CoVe) Prompting입니다. CoVe는 Chain-of-Thought(CoT) 방식에서 한 단계 더 나아가, LLM이 스스로 생성한 답변의 근거를 단계별로 검증하고 정당화하는 메커니즘을 도입한 프롬프트 전략입니다.1. 개념 및 정의CoVe Prompting은 LLM이 문제에 대한 답을 생성한 후, 각 중간 추론 단계와 최종 결과를 다시 검증하고 근거 기반으로 정당화하는 방식입니다. 단일 응답이 아닌 다단계 프로세스로 구성된 프롬프트 구조를 통해 LLM의 추론 오류를 스스로..