728x90
반응형

OWASP LLM Top 10 11

Model Theft

개요Model Theft(모델 탈취)는 대규모 언어 모델(LLM) 과 같은 인공지능 모델이 불법적으로 복제·도용되어 발생하는 보안 및 지적재산권(IP) 위협입니다. 공격자는 합법적으로 접근한 모델의 API, 학습 데이터, 혹은 추론 결과를 이용해 원본 모델을 복제하거나 역설계합니다.1. 개념 및 정의 구분 내용 정의Model Theft는 정당한 소유자가 아닌 공격자가 AI 모델을 불법적으로 복제·활용하는 행위입니다.목적지적재산권 침해, 경쟁 우위 확보, 악용된 서비스 배포필요성모델 개발 비용은 막대하지만, 탈취는 상대적으로 용이하여 심각한 경제적 손실 유발이는 OWASP LLM Top 10의 열 번째 주요 위험 요소로 지정되어 있습니다.2. 특징특징설명비교API 남용모델 API를 대량 호출해 동작을 재..

Topic 2025.09.22

Overreliance

개요Overreliance(과도한 의존)는 대규모 언어 모델(LLM) 의 출력 결과를 사용자가 비판적 검증 없이 그대로 수용할 때 발생하는 보안 및 운영상의 위험입니다. LLM은 설득력 있는 텍스트를 생성하지만, 항상 사실적이거나 안전하지 않을 수 있기 때문에 무비판적 의존은 심각한 피해를 초래할 수 있습니다.1. 개념 및 정의 구분 내용 정의Overreliance는 LLM 출력에 대한 사용자 또는 시스템의 무비판적 신뢰를 의미합니다.목적AI 활용 시 인간의 검증 절차를 포함해 오류 및 위험을 최소화필요성LLM은 불완전한 정보와 환각(Hallucination)을 생성할 수 있음이는 OWASP LLM Top 10의 아홉 번째 주요 보안 위험으로 지정됩니다.2. 특징특징설명비교환각(Hallucination..

Topic 2025.09.22

Excessive Agency

개요Excessive Agency(과도한 자율성)는 대규모 언어 모델(LLM) 기반 시스템이 과도한 권한과 자율적 의사결정을 허용받아 발생하는 보안 위험을 의미합니다. AI가 사용자 대신 자동으로 행동하거나 외부 시스템과 상호작용할 때, 제어되지 않은 권한 남용이나 오작동이 발생할 수 있습니다.1. 개념 및 정의 구분 내용 정의Excessive Agency는 LLM이 불필요하게 광범위한 권한을 갖고 자율적으로 행동할 때 발생하는 위험입니다.목적LLM의 권한을 최소화하고 안전한 범위 내에서 동작 보장필요성AI 에이전트·플러그인 사용 확산으로 LLM의 권한 오남용 가능성 증가이는 OWASP LLM Top 10의 여덟 번째 주요 위험 요소로 지정되어 있습니다.2. 특징특징설명비교권한 과다 부여필요 이상의 파..

Topic 2025.09.22

Insecure Plugin Use

개요Insecure Plugin Use(플러그인 오용 취약점)는 대규모 언어 모델(LLM) 기반 서비스에서 외부 플러그인·도구와의 연계 과정에서 발생하는 보안 위협입니다. 플러그인은 LLM의 기능을 확장하지만, 검증되지 않은 플러그인 사용은 민감 데이터 유출, 악성 코드 실행, 공급망 공격 등으로 이어질 수 있습니다.1. 개념 및 정의 구분 내용 정의Insecure Plugin Use는 검증되지 않은 플러그인 또는 취약한 플러그인을 사용해 발생하는 보안 문제입니다.목적플러그인 활용 시 안전한 실행 환경을 보장필요성플러그인은 강력한 기능을 제공하지만 동시에 공격 벡터를 확대이는 OWASP LLM Top 10의 일곱 번째 위험 요소로 분류됩니다.2. 특징특징설명비교외부 의존성플러그인은 외부 서비스/API에..

Topic 2025.09.22

Sensitive Information Disclosure

개요Sensitive Information Disclosure(민감 정보 노출)는 대규모 언어 모델(LLM) 기반 서비스가 사용자의 개인정보, 비밀 데이터, 또는 내부 시스템 정보를 의도치 않게 출력하는 보안 취약점입니다. 이는 AI 응답의 예측 불가성과 데이터 관리 미비로 인해 발생하며, 사용자 신뢰와 규제 준수에 치명적인 영향을 미칠 수 있습니다.1. 개념 및 정의 구분 내용 정의민감 정보 노출은 LLM 출력에 개인정보, 기밀 데이터, 내부 운영 정보 등이 포함되는 보안 취약점입니다.목적민감 데이터의 유출을 방지하고 안전한 LLM 활용 환경 조성필요성LLM은 학습 및 프롬프트 처리 과정에서 의도치 않게 민감 데이터를 포함할 수 있음이는 OWASP LLM Top 10의 여섯 번째 주요 보안 위험으로 ..

Topic 2025.09.21

Supply Chain Vulnerabilities

개요Supply Chain Vulnerabilities(공급망 취약점)는 AI 모델 개발 및 배포 과정에서 사용되는 외부 라이브러리, 데이터셋, 모델, 플러그인 등의 무결성 부족으로 발생하는 보안 위협입니다. LLM 및 AI 서비스의 복잡한 생태계 속에서 공급망 보안은 AI 신뢰성을 좌우하는 핵심 요소로 자리잡고 있습니다.1. 개념 및 정의 구분 내용 정의AI 개발과 운영 과정에서 외부 컴포넌트(코드, 데이터, 모델 등)가 변조·악용되어 보안 위협이 발생하는 현상목적공급망 전반의 무결성·신뢰성을 확보하여 AI 서비스 보호필요성AI는 오픈소스와 외부 데이터 의존도가 높아 공급망 취약성 위험이 커짐이는 OWASP LLM Top 10의 다섯 번째 위험 요소로 분류됩니다.2. 특징특징설명비교복잡한 생태계다수의..

Topic 2025.09.21

Model Denial of Service (Model DoS)

개요Model Denial of Service(DoS)는 대규모 언어 모델(LLM) 과 같은 AI 시스템에 과도한 요청이나 악의적 입력을 보내 모델 응답 속도를 저하시키거나 정상 서비스를 불가능하게 만드는 공격 기법입니다. 이는 기존 네트워크 DoS 공격과 유사하지만, AI 모델의 고비용 연산 자원을 표적으로 삼는다는 점에서 차별화됩니다.1. 개념 및 정의 구분 내용 정의Model DoS는 과도한 요청 처리나 악성 프롬프트를 통해 모델의 응답 불가 상태를 유발하는 공격입니다.목적모델 가용성 저하, 서비스 중단, 비용 상승 유발필요성LLM은 연산 비용이 높아, DoS 공격 시 피해 규모가 기존 시스템보다 큼이 공격은 OWASP LLM Top 10에서 네 번째 주요 위험 요소로 지정되었습니다.2. 특징특징..

Topic 2025.09.21

Training Data Poisoning

개요Training Data Poisoning은 머신러닝 및 대규모 언어 모델(LLM)의 학습 데이터셋을 조작하여 모델 성능을 왜곡하거나 악용하는 공격 기법입니다. 공격자는 의도적으로 잘못된 데이터를 삽입해 모델이 오작동하도록 유도하며, 이는 AI 신뢰성과 보안을 위협하는 핵심 문제로 부각되고 있습니다.1. 개념 및 정의 구분 내용 정의Training Data Poisoning은 학습 데이터에 악의적·조작된 데이터를 포함시켜 모델의 정확성과 안정성을 저해하는 공격입니다.목적모델 성능 저하, 특정 결과 왜곡, 백도어 삽입 등필요성AI가 데이터 중심으로 학습하기 때문에 데이터 무결성이 보안의 핵심 요소이 공격은 OWASP LLM Top 10의 세 번째 주요 위험 요소로 분류됩니다.2. 특징특징설명비교데이터..

Topic 2025.09.21

Insecure Output Handling

개요Insecure Output Handling은 대규모 언어 모델(LLM) 이 생성한 출력을 적절히 검증하지 않고 직접 사용하는 경우 발생하는 보안 취약점입니다. 이는 모델의 응답을 신뢰하여 후속 시스템이나 사용자 인터페이스에 전달할 때 악성 코드 실행, 데이터 유출, 시스템 오작동을 유발할 수 있습니다.1. 개념 및 정의 구분 내용정의Insecure Output Handling은 LLM의 출력을 무검증 상태로 활용하여 발생하는 보안 문제를 의미합니다.목적LLM 응답을 안전하게 검증·처리하여 보안 사고 예방필요성LLM은 비결정적이고 예측 불가한 출력을 생성하기 때문에 보안적 검증 절차가 필수이는 OWASP LLM Top 10에서 두 번째 위험 요소로 정의된 핵심 취약점입니다.2. 특징특징설명비교비결정성..

Topic 2025.09.20

Prompt Injection

개요Prompt Injection은 대규모 언어 모델(LLM, Large Language Model) 을 겨냥한 보안 공격 기법으로, 모델의 입력(Prompt)을 악의적으로 조작하여 의도하지 않은 출력을 유도하는 방식입니다. 이는 SQL Injection과 유사하게, 모델의 동작을 교란하거나 민감한 정보를 유출시키는 심각한 보안 문제로 부각되고 있습니다.1. 개념 및 정의 구분 내용 정의Prompt Injection은 악성 프롬프트를 통해 모델이 원래 의도와 다르게 동작하도록 유도하는 공격입니다.목적모델 출력 왜곡, 민감 정보 탈취, 시스템 접근 유도필요성생성형 AI 확산과 함께 사용자 입력을 신뢰하는 구조적 취약성이 확대됨Prompt Injection은 AI 보안의 가장 주목받는 위협 중 하나입니다...

Topic 2025.09.20

OWASP LLM Top 10

개요OWASP LLM Top 10은 대규모 언어 모델(LLM, Large Language Model) 보안 위협과 이에 대한 대응 방안을 정리한 국제 보안 가이드라인입니다. ChatGPT, Claude, LLaMA와 같은 생성형 AI가 확산됨에 따라, 모델 자체와 이를 활용한 서비스의 보안 문제가 대두되고 있으며, OWASP LLM Top 10은 이에 대한 표준화된 위험 인식 체계를 제공합니다.1. 개념 및 정의 구분 내용 정의OWASP LLM Top 10은 LLM 보안과 관련된 주요 위험 10가지를 정의하고 완화 전략을 제시하는 문서입니다.목적AI 보안 위협 인식 제고, 안전한 LLM 활용 가이드 제공필요성LLM은 복잡성과 불확실성으로 인해 기존 보안 프레임워크로는 충분히 보호되지 않음OWASP는 애..

Topic 2025.09.20
728x90
반응형