728x90
반응형
개요
Chain-of-Thought(CoT) Prompting은 대규모 언어모델(LLM)이 복잡한 수학, 논리, 추론 문제를 해결할 수 있도록 중간 사고 과정을 유도하는 프롬프트 기법입니다. 단순한 질문-응답 구조가 아닌, 문제를 해결하기 위한 ‘생각의 흐름(thought chain)’을 텍스트로 모델에게 보여주거나 유도함으로써, 정답률과 해석 가능성 모두를 향상시킬 수 있습니다.
1. 개념 및 정의
CoT Prompting은 다음과 같은 흐름으로 구성됩니다:
- 질문(Prompt): 문제를 명시
- 추론 유도 문장: “생각을 단계적으로 해보자”, “차근차근 풀어보자” 등의 유도어
- 중간 추론 단계: 숫자 계산, 논리 단계, 조건 분석 등
- 최종 정답: 명시적 응답 출력
예시:
Q: 철수는 사과 3개를 가지고 있고, 민수는 2개를 더 가지고 있다. 둘은 사과를 합치면 몇 개인가?
A: 차근차근 생각해보자. 철수는 3개, 민수는 5개. 합치면 3 + 5 = 8. 정답: 8
2. 특징
항목 | 설명 | 비고 |
단계적 추론 | 문제 해결의 중간 과정을 모델이 직접 출력 | 수학, 논리 문제에 효과적 |
자기지도형 유도 | 명시적 학습 없이 프롬프트 설계만으로 효과 발현 | 학습 데이터 변경 불필요 |
해석 가능성 향상 | 모델의 추론 경로가 명시됨 | 검증 및 디버깅 용이 |
CoT는 LLM이 ‘답을 맞히는 것’보다 ‘어떻게 생각하는지’를 강조합니다.
3. 대표 프롬프트 유형
유형 | 구조 | 예시 |
Zero-shot CoT | 문제 + 유도어 | “정답을 생각하며 차근차근 풀어보자” |
Few-shot CoT | 문제 + 예시 + 유도어 | 2~3개의 문제-해결 예시 포함 |
Self-consistency CoT | 여러 CoT 출력 → 최빈값 선택 | 정확도 향상 가능 |
4. 적용 분야 및 예시
분야 | CoT 적용 예시 | 효과 |
수학 문제 풀이 | 사칙 연산, 확률, 방정식 등 | 계산 정확도 향상 |
논리 추론 | 조건 분기 문제, 거짓말쟁이 퍼즐 | 다단계 추론 가능 |
과학 질문 | 원인-결과 기반 문제 | 단계별 설명 가능 |
멀티호프 QA | 여러 문단 간 정보 연결 | Deep QA 가능 |
CoT는 특히 지식 검색형 태스크보다 추론 기반 문제에 탁월한 성능을 보입니다.
5. 장점 및 한계
항목 | 장점 | 한계 |
정확도 향상 | 수학·논리 문제 정답률 증가 | GPT-4 기준 최대 20~30%p 개선 |
설명 가능성 | 중간 과정을 통해 결과 근거 제공 | AI의 ‘생각을 볼 수 있음’ |
입력 확장 | 기존 Zero-shot보다 더 강력한 방식 | 길이 초과 주의 필요 |
한계 | 정답이 아님에도 ‘논리적으로 보이는’ 오류 생성 가능 | 검증 로직 필요 |
CoT는 신뢰 가능한 AI, 교육용 AI 시스템에 매우 적합한 기법입니다.
6. 프롬프트 설계 팁
- 유도 문구 활용: “Let’s think step by step”, “차근차근 생각해보자” 등
- 일관된 형식 유지: 중간 단계 → 최종 답 → ‘정답: ○’ 형식
- Few-shot과 병행: 다양한 CoT 예시를 함께 제시하면 효과 증대
- Self-consistency와 결합: 여러 샘플을 생성하고 다수결로 선택
7. 결론
Chain-of-Thought Prompting은 LLM의 고차 추론 능력을 극대화하는 가장 강력한 프롬프트 기법 중 하나입니다. 특히 수학, 논리, 과학처럼 정답뿐만 아니라 ‘추론 과정’이 중요한 태스크에서 매우 유용하며, 향후 Tool-augmented AI, Multi-agent LLM, Self-debugging AI 등의 기반 기술로 더욱 중요해질 것입니다.
728x90
반응형
'Topic' 카테고리의 다른 글
Role Prompting (1) | 2025.04.07 |
---|---|
Self-consistency Prompting (0) | 2025.04.07 |
Few-shot Prompting (0) | 2025.04.07 |
Zero-shot Prompting (1) | 2025.04.07 |
Prompt Engineering 기법 (0) | 2025.04.06 |