
개요Model Inversion 및 Extraction Attack은 머신러닝/딥러닝 모델에 대한 보안 위협 중 하나로, 공격자가 AI 모델의 내부 정보나 학습 데이터를 추론하거나 모델 자체를 복제해내는 공격 방식입니다. 이들은 특히 클라우드 기반의 MLaaS(Model-as-a-Service) 환경에서 API를 통해 손쉽게 실행될 수 있어, 개인정보 노출, 지적재산권 침해, 모델 악용 등의 심각한 결과를 초래할 수 있습니다.1. 개념 및 정의 공격 유형 정의 목적 Model Inversion Attack모델의 출력값을 활용하여 원래의 학습 데이터를 재구성개인 이미지/정보 복원Model Extraction AttackAPI 응답을 이용해 원본 모델을 복제하거나 유사 모델 생성모델 기능 복제, 역설계2..