728x90
반응형

ai보안전략 2

Prompt Injection Mitigation

개요Prompt Injection은 생성형 AI(GPT 등) 시스템에서 사용자의 입력이 시스템 프롬프트나 의도된 동작을 오염시켜 악의적 결과를 유도하는 보안 위협입니다. 이 글에서는 Prompt Injection의 개념, 유형, 공격 사례와 함께 이를 방지하기 위한 실질적 대응 전략들을 소개합니다.1. 개념 및 정의Prompt Injection은 LLM(Large Language Model) 기반 시스템에 있어, 사용자 입력을 악용해 의도하지 않은 행동을 유발하는 공격입니다. 일반적으로 시스템 프롬프트나 내부 명령을 우회하거나 덮어쓰는 방식으로 이루어집니다.목적: LLM의 동작을 교란하거나 보안 정보 노출 유도유형: 직접 삽입(Direct injection), 반사 삽입(Indirect injection..

Topic 2025.06.16

Confidential AI

개요Confidential AI는 민감한 데이터를 기반으로 인공지능 모델을 학습하거나 추론하는 과정에서, 데이터의 기밀성과 무결성을 보장하기 위한 보안 기술과 설계 전략을 말합니다. 특히 의료, 금융, 국방 등 고신뢰 산업에서 프라이버시 보호와 AI 성능 간 균형을 확보하기 위한 핵심 프레임워크로 주목받고 있으며, 하드웨어 기반의 신뢰 실행 환경(TEE)과 암호화 기반 연산 기술을 결합해 보안성과 확장성을 동시에 달성할 수 있습니다.1. 개념 및 정의 구분 내용 정의AI 학습 및 추론 과정에서 민감 데이터의 노출 없이 연산이 수행되도록 보장하는 기술 전략목적데이터 보호, 규제 준수, 신뢰성 확보를 동시에 달성필요성개인정보보호법, 산업기밀 보호, 클라우드 기반 AI 도입 증가에 따른 보안 강화 요구2. ..

Topic 2025.05.19
728x90
반응형