개요Prompt Injection은 대규모 언어 모델(LLM, Large Language Model) 을 겨냥한 보안 공격 기법으로, 모델의 입력(Prompt)을 악의적으로 조작하여 의도하지 않은 출력을 유도하는 방식입니다. 이는 SQL Injection과 유사하게, 모델의 동작을 교란하거나 민감한 정보를 유출시키는 심각한 보안 문제로 부각되고 있습니다.1. 개념 및 정의 구분 내용 정의Prompt Injection은 악성 프롬프트를 통해 모델이 원래 의도와 다르게 동작하도록 유도하는 공격입니다.목적모델 출력 왜곡, 민감 정보 탈취, 시스템 접근 유도필요성생성형 AI 확산과 함께 사용자 입력을 신뢰하는 구조적 취약성이 확대됨Prompt Injection은 AI 보안의 가장 주목받는 위협 중 하나입니다...