728x90
반응형

PPO 2

RLHF(Reinforcement Learning from Human Feedback)

개요RLHF(Reinforcement Learning from Human Feedback)는 인간의 피드백을 기반으로 인공지능(AI) 모델의 행동을 강화 학습하는 기법입니다. 기존의 강화학습(RL)이 환경으로부터 보상을 받아 정책을 학습하는 반면, RLHF는 인간 평가자(Human Annotator)가 보상을 정의하거나 직접 피드백을 제공함으로써 AI의 의사결정 품질을 향상시킵니다. OpenAI의 ChatGPT, DeepMind의 Sparrow, Anthropic의 Claude 등 최신 AI 모델들이 RLHF를 활용하고 있으며, 특히 자연어 처리(NLP), 생성형 AI, 로봇 제어 등 다양한 분야에서 핵심 기술로 부상하고 있습니다.1. 개념 및 정의RLHF는 다음과 같은 3단계 프로세스로 구성됩니다:프롬..

Topic 2025.04.08

Proximal Policy Optimization (PPO)

개요Proximal Policy Optimization(PPO)은 OpenAI에서 개발한 강화학습(RL) 알고리즘으로, 정책 기반(policy-based) 방법 중 가장 널리 쓰이는 대표 모델입니다. PPO는 기존 정책과 새로운 정책 사이의 급격한 변화(Policy Shift)를 억제하여 학습 안정성을 높이고, 샘플 효율성까지 확보하는 점에서 DDPG, TRPO, A2C 등과 비교해 높은 실용성과 범용성을 자랑합니다.게임 AI, 로봇 제어, 시뮬레이션 환경, 자연어 기반 에이전트 학습까지 PPO는 다양한 분야에서 표준으로 채택되고 있습니다.1. 개념 및 정의PPO는 정책 경사 방법(policy gradient method) 에 속하는 알고리즘으로, 에이전트가 직접 정책 함수를 학습합니다. 기존 정책에서 ..

Topic 2025.04.06
728x90
반응형