728x90
반응형

딥러닝공격 2

Adversarial Training

개요Adversarial Training은 악의적으로 조작된 입력(적대적 예제, Adversarial Example)에도 견딜 수 있도록 딥러닝 모델을 훈련시키는 보안 중심의 학습 기법입니다. 본 글에서는 Adversarial Training의 원리와 작동 방식, 적용 기술, 장단점, 실제 활용 사례를 다루며, 보안이 중요한 AI 환경에서 이 기술의 필요성과 효과성을 설명합니다.1. 개념 및 정의Adversarial Training은 학습 과정에 적대적 예제를 포함시켜 모델이 이러한 입력에도 강인한 예측 성능을 유지하도록 만드는 기술입니다. 이는 모델을 단순히 일반적인 데이터가 아니라, 공격받을 가능성이 있는 환경에서도 작동하도록 강화합니다.목적: 딥러닝 모델의 취약점을 줄이고 보안성을 높이기 위함필요성..

Topic 2025.06.15

Adversarial Patch

개요Adversarial Patch는 이미지 인식 AI 모델에 물리적 오브젝트를 삽입해 오작동을 유도하는 적대적 공격(adversarial attack) 기법 중 하나입니다. 작은 이미지 조각 또는 스티커 형태의 '패치'를 실제 환경에 배치해 AI 모델이 잘못된 분류나 인식을 하도록 유도하는 방식입니다. 본 글에서는 Adversarial Patch의 개념, 작동 방식, 연구 사례, 보안 위협 및 방어 전략을 다룹니다.1. 개념 및 정의Adversarial Patch는 입력 이미지 내 특정 위치에 인위적인 패턴(Noise)을 삽입하여, 딥러닝 모델 특히 CNN(합성곱 신경망)의 분류 결과를 교란시키는 공격 방법입니다. 기존의 픽셀 단위 조작 대신, 물리적 공간에 부착 가능하고 사람이 알아보기 어려운 시각 ..

Topic 2025.05.07
728x90
반응형