728x90
반응형

promptinjection 2

Prompt Shielding

개요Prompt Shielding은 AI 모델, 특히 대형 언어 모델(LLM)을 대상으로 하는 악의적인 입력(Prompt Injection)으로부터 시스템을 보호하고 의도된 행동을 유지하기 위한 방어 기술이다. 본 글에서는 Prompt Shielding의 개념, 위협 유형, 방어 전략, 구현 기술 및 활용 사례를 다뤄 AI 기반 시스템의 보안 전략 수립에 실질적인 인사이트를 제공한다.1. 개념 및 정의 항목 설명 정의Prompt Shielding은 LLM 사용 시 의도치 않은 정보 유출, 기능 변경, 악성 명령 실행 등을 방지하기 위해 입력과 프롬프트의 구조를 보호하는 보안 기술이다.목적LLM 프롬프트 무결성 유지 및 시스템 행위 안전 보장필요성Prompt Injection, Jailbreak 공격 증..

Topic 2025.06.29

Prompt Injection Mitigation

개요Prompt Injection은 생성형 AI(GPT 등) 시스템에서 사용자의 입력이 시스템 프롬프트나 의도된 동작을 오염시켜 악의적 결과를 유도하는 보안 위협입니다. 이 글에서는 Prompt Injection의 개념, 유형, 공격 사례와 함께 이를 방지하기 위한 실질적 대응 전략들을 소개합니다.1. 개념 및 정의Prompt Injection은 LLM(Large Language Model) 기반 시스템에 있어, 사용자 입력을 악용해 의도하지 않은 행동을 유발하는 공격입니다. 일반적으로 시스템 프롬프트나 내부 명령을 우회하거나 덮어쓰는 방식으로 이루어집니다.목적: LLM의 동작을 교란하거나 보안 정보 노출 유도유형: 직접 삽입(Direct injection), 반사 삽입(Indirect injection..

Topic 2025.06.16
728x90
반응형