728x90
반응형

RLHF 2

AgentBench

개요AgentBench는 대규모 언어 모델(LLM)의 실제 에이전트 수행 능력을 종합적으로 평가하기 위해 설계된 멀티태스크 벤치마크입니다. 단순 지식 회상이나 논리적 질의응답을 넘어, 다양한 환경에서의 문제 해결 능력, 협업, 도구 사용, 웹 인터페이스 조작 등 실제 작업 기반의 '에이전트 역할 수행 능력'을 정량화하고 비교할 수 있도록 설계되었습니다.1. 개념 및 정의AgentBench는 언어 모델이 다양한 도메인의 시뮬레이션 환경에서 실제 에이전트처럼 행동하는지 평가하는 프레임워크입니다.벤치마크 성격: 능동적 과제 해결, 다중 인터페이스 활용, 지능적 선택 평가목적: 실세계 태스크 기반의 LLM 에이전트 품질 측정범위: 8개 카테고리, 51개 에이전트 태스크로 구성2. 특징 항목 AgentBench..

Topic 2025.05.22

RLHF(Reinforcement Learning from Human Feedback)

개요RLHF(Reinforcement Learning from Human Feedback)는 인간의 피드백을 기반으로 인공지능(AI) 모델의 행동을 강화 학습하는 기법입니다. 기존의 강화학습(RL)이 환경으로부터 보상을 받아 정책을 학습하는 반면, RLHF는 인간 평가자(Human Annotator)가 보상을 정의하거나 직접 피드백을 제공함으로써 AI의 의사결정 품질을 향상시킵니다. OpenAI의 ChatGPT, DeepMind의 Sparrow, Anthropic의 Claude 등 최신 AI 모델들이 RLHF를 활용하고 있으며, 특히 자연어 처리(NLP), 생성형 AI, 로봇 제어 등 다양한 분야에서 핵심 기술로 부상하고 있습니다.1. 개념 및 정의RLHF는 다음과 같은 3단계 프로세스로 구성됩니다:프롬..

Topic 2025.04.08
728x90
반응형