728x90
반응형

머신러닝공격 2

Feature Swap

개요Feature Swap은 머신러닝과 인공지능 모델에서 입력 특징(feature)의 위치나 속성을 조작함으로써 모델의 예측을 교란시키는 데이터 기반 공격 기법입니다. 주로 이미지 분류, 자연어 처리, 음성 인식 등의 고차원 입력을 사용하는 AI 시스템에 대해 적용되며, 정확한 분류나 판단을 회피하거나 오답을 유도하는 데 악용됩니다.1. 개념 및 정의Feature Swap은 모델 입력의 주요 feature 위치 또는 속성을 **의도적으로 바꿔치기(Swap)**하여 예측을 왜곡시키는 적대적 공격(adversarial attack) 방식입니다.공격 대상: Vision AI, NLP 모델, 추천 시스템 등공격 목적: 분류 오류, 모델 신뢰도 하락, 필터링 우회 등유형: 공간적 위치 스왑, 시맨틱 스왑, 다차원..

Topic 2025.06.25

데이터 오염 공격(Data Poisoning Attacks)

개요데이터 오염 공격(Data Poisoning Attack)은 인공지능 모델의 학습 단계에서 고의적으로 왜곡된 데이터를 주입해 모델의 예측 정확도나 의사결정을 교란시키는 공격 기법입니다. 이는 AI의 '학습 기반 의존성'을 악용한 전략으로, 보안·금융·의료 등 고신뢰 AI가 요구되는 분야에서 AI 시스템의 무결성과 안전성을 위협하는 치명적 위협으로 떠오르고 있습니다. 본 글에서는 데이터 오염 공격의 개념, 유형, 실제 사례, 탐지 및 대응 전략을 정리합니다.1. 개념 및 정의 구분 설명 데이터 오염 공격학습 데이터에 악의적 샘플을 삽입해 AI 모델의 학습 결과에 악영향을 주는 공격공격 대상지도 학습(Classification), 비지도 학습(Clustering), 강화학습 등공격 목적예측 정확도 저하..

Topic 2025.03.27
728x90
반응형