개요Llama Guard는 Meta AI에서 개발한 콘텐츠 안전성(Content Safety) 필터링 모델로, LLM(Large Language Model) 기반 시스템의 입력과 출력을 정밀하게 평가하고 유해성, 편향, 악용 가능성을 판단합니다. 특히 Llama 및 다양한 오픈소스 LLM과 통합 가능한 구조로 설계되어, AI 안전성과 윤리적 사용을 강화하는 데 핵심 역할을 합니다.1. 개념 및 정의 항목 내용 정의LLM 입력/출력에 대한 정책 기반 콘텐츠 안전성 판단 모델목적AI 응답의 유해성 방지 및 사용자 안전 보호필요성LLM이 악용되거나 유해 콘텐츠를 생성하는 것을 방지하기 위함2. 주요 특징특징설명장점정책 기반 분류기Meta의 콘텐츠 정책 기준에 따라 입력/출력 분류일관된 안전성 검토 가능Ins..