728x90
반응형

AI 보안 전략 3

Insecure Plugin Use

개요Insecure Plugin Use(플러그인 오용 취약점)는 대규모 언어 모델(LLM) 기반 서비스에서 외부 플러그인·도구와의 연계 과정에서 발생하는 보안 위협입니다. 플러그인은 LLM의 기능을 확장하지만, 검증되지 않은 플러그인 사용은 민감 데이터 유출, 악성 코드 실행, 공급망 공격 등으로 이어질 수 있습니다.1. 개념 및 정의 구분 내용 정의Insecure Plugin Use는 검증되지 않은 플러그인 또는 취약한 플러그인을 사용해 발생하는 보안 문제입니다.목적플러그인 활용 시 안전한 실행 환경을 보장필요성플러그인은 강력한 기능을 제공하지만 동시에 공격 벡터를 확대이는 OWASP LLM Top 10의 일곱 번째 위험 요소로 분류됩니다.2. 특징특징설명비교외부 의존성플러그인은 외부 서비스/API에..

Topic 2025.09.22

Insecure Output Handling

개요Insecure Output Handling은 대규모 언어 모델(LLM) 이 생성한 출력을 적절히 검증하지 않고 직접 사용하는 경우 발생하는 보안 취약점입니다. 이는 모델의 응답을 신뢰하여 후속 시스템이나 사용자 인터페이스에 전달할 때 악성 코드 실행, 데이터 유출, 시스템 오작동을 유발할 수 있습니다.1. 개념 및 정의 구분 내용정의Insecure Output Handling은 LLM의 출력을 무검증 상태로 활용하여 발생하는 보안 문제를 의미합니다.목적LLM 응답을 안전하게 검증·처리하여 보안 사고 예방필요성LLM은 비결정적이고 예측 불가한 출력을 생성하기 때문에 보안적 검증 절차가 필수이는 OWASP LLM Top 10에서 두 번째 위험 요소로 정의된 핵심 취약점입니다.2. 특징특징설명비교비결정성..

Topic 2025.09.20

Prompt Injection

개요Prompt Injection은 대규모 언어 모델(LLM, Large Language Model) 을 겨냥한 보안 공격 기법으로, 모델의 입력(Prompt)을 악의적으로 조작하여 의도하지 않은 출력을 유도하는 방식입니다. 이는 SQL Injection과 유사하게, 모델의 동작을 교란하거나 민감한 정보를 유출시키는 심각한 보안 문제로 부각되고 있습니다.1. 개념 및 정의 구분 내용 정의Prompt Injection은 악성 프롬프트를 통해 모델이 원래 의도와 다르게 동작하도록 유도하는 공격입니다.목적모델 출력 왜곡, 민감 정보 탈취, 시스템 접근 유도필요성생성형 AI 확산과 함께 사용자 입력을 신뢰하는 구조적 취약성이 확대됨Prompt Injection은 AI 보안의 가장 주목받는 위협 중 하나입니다...

Topic 2025.09.20
728x90
반응형