개요Feature Swap은 머신러닝과 인공지능 모델에서 입력 특징(feature)의 위치나 속성을 조작함으로써 모델의 예측을 교란시키는 데이터 기반 공격 기법입니다. 주로 이미지 분류, 자연어 처리, 음성 인식 등의 고차원 입력을 사용하는 AI 시스템에 대해 적용되며, 정확한 분류나 판단을 회피하거나 오답을 유도하는 데 악용됩니다.1. 개념 및 정의Feature Swap은 모델 입력의 주요 feature 위치 또는 속성을 **의도적으로 바꿔치기(Swap)**하여 예측을 왜곡시키는 적대적 공격(adversarial attack) 방식입니다.공격 대상: Vision AI, NLP 모델, 추천 시스템 등공격 목적: 분류 오류, 모델 신뢰도 하락, 필터링 우회 등유형: 공간적 위치 스왑, 시맨틱 스왑, 다차원..