728x90
반응형

llm보안 3

Prompt Shielding

개요Prompt Shielding은 AI 모델, 특히 대형 언어 모델(LLM)을 대상으로 하는 악의적인 입력(Prompt Injection)으로부터 시스템을 보호하고 의도된 행동을 유지하기 위한 방어 기술이다. 본 글에서는 Prompt Shielding의 개념, 위협 유형, 방어 전략, 구현 기술 및 활용 사례를 다뤄 AI 기반 시스템의 보안 전략 수립에 실질적인 인사이트를 제공한다.1. 개념 및 정의 항목 설명 정의Prompt Shielding은 LLM 사용 시 의도치 않은 정보 유출, 기능 변경, 악성 명령 실행 등을 방지하기 위해 입력과 프롬프트의 구조를 보호하는 보안 기술이다.목적LLM 프롬프트 무결성 유지 및 시스템 행위 안전 보장필요성Prompt Injection, Jailbreak 공격 증..

Topic 2025.06.29

AI 에이전트 하이재킹(Agent Hijacking

개요AI 에이전트 하이재킹(Agent Hijacking)은 인공지능 시스템, 특히 자동화된 에이전트나 자율 실행 AI가 공격자에게 통제권을 탈취당하는 사이버 공격 유형입니다. 이는 명령어 조작, 학습 데이터 오염, 통신 경로 개입 등을 통해 발생하며, 개인정보 유출, 시스템 오작동, 악성 자동화로 이어질 수 있습니다.1. 개념 및 정의AI 에이전트 하이재킹 공격은 AI가 수행하는 작업 흐름을 공격자가 탈취하거나 변조하여 악의적인 목적을 수행하도록 조작하는 공격 방식입니다.주 대상: 챗봇, RPA, 자율 에이전트, 멀티에이전트 시스템공격 목표: 정보 유출, 정책 위반, 악성 실행 유도차이점: 기존 시스템 하이재킹보다 자율성 기반 AI의 조작이 핵심2. 특징 구분 AI 에이전트 하이재킹 일반 악성코드 공..

Topic 2025.06.24

Prompt Injection Mitigation

개요Prompt Injection은 생성형 AI(GPT 등) 시스템에서 사용자의 입력이 시스템 프롬프트나 의도된 동작을 오염시켜 악의적 결과를 유도하는 보안 위협입니다. 이 글에서는 Prompt Injection의 개념, 유형, 공격 사례와 함께 이를 방지하기 위한 실질적 대응 전략들을 소개합니다.1. 개념 및 정의Prompt Injection은 LLM(Large Language Model) 기반 시스템에 있어, 사용자 입력을 악용해 의도하지 않은 행동을 유발하는 공격입니다. 일반적으로 시스템 프롬프트나 내부 명령을 우회하거나 덮어쓰는 방식으로 이루어집니다.목적: LLM의 동작을 교란하거나 보안 정보 노출 유도유형: 직접 삽입(Direct injection), 반사 삽입(Indirect injection..

Topic 2025.06.16
728x90
반응형