Topic

Chain-of-Thought (CoT) Prompting

JackerLab 2025. 4. 7. 02:26
728x90
반응형

개요

Chain-of-Thought(CoT) Prompting은 대규모 언어모델(LLM)이 복잡한 수학, 논리, 추론 문제를 해결할 수 있도록 중간 사고 과정을 유도하는 프롬프트 기법입니다. 단순한 질문-응답 구조가 아닌, 문제를 해결하기 위한 ‘생각의 흐름(thought chain)’을 텍스트로 모델에게 보여주거나 유도함으로써, 정답률과 해석 가능성 모두를 향상시킬 수 있습니다.


1. 개념 및 정의

CoT Prompting은 다음과 같은 흐름으로 구성됩니다:

  • 질문(Prompt): 문제를 명시
  • 추론 유도 문장: “생각을 단계적으로 해보자”, “차근차근 풀어보자” 등의 유도어
  • 중간 추론 단계: 숫자 계산, 논리 단계, 조건 분석 등
  • 최종 정답: 명시적 응답 출력

예시:

Q: 철수는 사과 3개를 가지고 있고, 민수는 2개를 더 가지고 있다. 둘은 사과를 합치면 몇 개인가?
A: 차근차근 생각해보자. 철수는 3개, 민수는 5개. 합치면 3 + 5 = 8. 정답: 8

2. 특징

항목 설명 비고
단계적 추론 문제 해결의 중간 과정을 모델이 직접 출력 수학, 논리 문제에 효과적
자기지도형 유도 명시적 학습 없이 프롬프트 설계만으로 효과 발현 학습 데이터 변경 불필요
해석 가능성 향상 모델의 추론 경로가 명시됨 검증 및 디버깅 용이

CoT는 LLM이 ‘답을 맞히는 것’보다 ‘어떻게 생각하는지’를 강조합니다.


3. 대표 프롬프트 유형

유형 구조 예시
Zero-shot CoT 문제 + 유도어 “정답을 생각하며 차근차근 풀어보자”
Few-shot CoT 문제 + 예시 + 유도어 2~3개의 문제-해결 예시 포함
Self-consistency CoT 여러 CoT 출력 → 최빈값 선택 정확도 향상 가능

4. 적용 분야 및 예시

분야 CoT 적용 예시 효과
수학 문제 풀이 사칙 연산, 확률, 방정식 등 계산 정확도 향상
논리 추론 조건 분기 문제, 거짓말쟁이 퍼즐 다단계 추론 가능
과학 질문 원인-결과 기반 문제 단계별 설명 가능
멀티호프 QA 여러 문단 간 정보 연결 Deep QA 가능

CoT는 특히 지식 검색형 태스크보다 추론 기반 문제에 탁월한 성능을 보입니다.


5. 장점 및 한계

항목 장점 한계
정확도 향상 수학·논리 문제 정답률 증가 GPT-4 기준 최대 20~30%p 개선
설명 가능성 중간 과정을 통해 결과 근거 제공 AI의 ‘생각을 볼 수 있음’
입력 확장 기존 Zero-shot보다 더 강력한 방식 길이 초과 주의 필요
한계 정답이 아님에도 ‘논리적으로 보이는’ 오류 생성 가능 검증 로직 필요

CoT는 신뢰 가능한 AI, 교육용 AI 시스템에 매우 적합한 기법입니다.


6. 프롬프트 설계 팁

  • 유도 문구 활용: “Let’s think step by step”, “차근차근 생각해보자” 등
  • 일관된 형식 유지: 중간 단계 → 최종 답 → ‘정답: ○’ 형식
  • Few-shot과 병행: 다양한 CoT 예시를 함께 제시하면 효과 증대
  • Self-consistency와 결합: 여러 샘플을 생성하고 다수결로 선택

7. 결론

Chain-of-Thought Prompting은 LLM의 고차 추론 능력을 극대화하는 가장 강력한 프롬프트 기법 중 하나입니다. 특히 수학, 논리, 과학처럼 정답뿐만 아니라 ‘추론 과정’이 중요한 태스크에서 매우 유용하며, 향후 Tool-augmented AI, Multi-agent LLM, Self-debugging AI 등의 기반 기술로 더욱 중요해질 것입니다.

728x90
반응형

'Topic' 카테고리의 다른 글

Role Prompting  (1) 2025.04.07
Self-consistency Prompting  (0) 2025.04.07
Few-shot Prompting  (0) 2025.04.07
Zero-shot Prompting  (1) 2025.04.07
Prompt Engineering 기법  (0) 2025.04.06