728x90
반응형

PGD 4

TRADES (TRadeoff-inspired Adversarial DEfense via Surrogate-loss)

개요TRADES는 딥러닝 모델의 일반화 성능과 적대적 견고성(robustness) 사이의 균형을 수학적으로 정립하고 이를 기반으로 훈련 전략을 구성한 방어 알고리즘입니다. 기존 Adversarial Training이 모델 정확도를 희생하며 견고성을 추구했던 반면, TRADES는 이 둘 사이의 트레이드오프를 명시적으로 고려하여 효과적인 방어를 구현합니다.1. 개념 및 정의TRADES(TRadeoff-inspired Adversarial DEfense via Surrogate-loss)는 정규화된 손실 함수를 통해 모델이 clean data(정상 입력)와 adversarial data(적대 입력) 모두에 대해 견고하게 작동하도록 학습시키는 방법입니다.목적: 모델의 일반화 능력과 적대 견고성 간의 균형 유지핵..

Topic 2025.06.16

PGD (Projected Gradient Descent)

개요PGD(Projected Gradient Descent)는 딥러닝 모델에 대한 적대적 공격 기법 중 가장 강력하고 일반적인 방법으로, 반복적인 그래디언트 업데이트와 투영 과정을 통해 최적의 적대적 예제를 생성합니다. 본 글에서는 PGD의 이론적 원리와 수식, 주요 특징, 구현 방법, 실제 적용 사례 및 방어 전략 등을 포괄적으로 설명합니다.1. 개념 및 정의PGD는 입력 공간에서 손실 함수를 최대화하는 방향으로 여러 번 그래디언트를 계산하고, 그 결과를 원래 입력 범위로 투영하여 적대적 예제를 생성하는 공격 방식입니다. FGSM의 확장된 반복형으로도 간주됩니다.목적: 모델의 예측 취약성을 극대화하기 위한 고강도 테스트필요성: 실제 환경에서 AI 시스템의 보안성과 견고성 검증기반 원리: 경사하강법을 반..

Topic 2025.06.16

Adversarial Training

개요Adversarial Training은 악의적으로 조작된 입력(적대적 예제, Adversarial Example)에도 견딜 수 있도록 딥러닝 모델을 훈련시키는 보안 중심의 학습 기법입니다. 본 글에서는 Adversarial Training의 원리와 작동 방식, 적용 기술, 장단점, 실제 활용 사례를 다루며, 보안이 중요한 AI 환경에서 이 기술의 필요성과 효과성을 설명합니다.1. 개념 및 정의Adversarial Training은 학습 과정에 적대적 예제를 포함시켜 모델이 이러한 입력에도 강인한 예측 성능을 유지하도록 만드는 기술입니다. 이는 모델을 단순히 일반적인 데이터가 아니라, 공격받을 가능성이 있는 환경에서도 작동하도록 강화합니다.목적: 딥러닝 모델의 취약점을 줄이고 보안성을 높이기 위함필요성..

Topic 2025.06.15

Adversarial Training (적대적 훈련)

개요적대적 훈련(Adversarial Training)은 머신러닝 모델을 적대적 공격(Adversarial Attack)에 대비하여 더욱 강력하게 만드는 기법입니다. 적대적 예제(Adversarial Example)를 생성하여 모델이 이를 학습하고 보다 견고한 성능을 유지하도록 훈련합니다. 이는 특히 이미지 인식, 자연어 처리(NLP), 자율 주행 및 보안 시스템에서 중요한 역할을 합니다. 본 글에서는 적대적 훈련의 개념, 주요 기술, 활용 사례 및 장단점을 살펴봅니다.1. 적대적 훈련이란?적대적 훈련은 모델이 적대적 예제(공격 데이터)를 학습하도록 하여 보안성을 높이는 기법입니다. 공격자는 원본 데이터에 작은 노이즈를 추가하여 모델이 잘못된 결과를 출력하도록 유도하는데, 적대적 훈련은 이러한 공격을 미..

Topic 2025.03.08
728x90
반응형