728x90
반응형

딥러닝보안 4

TRADES (TRadeoff-inspired Adversarial DEfense via Surrogate-loss)

개요TRADES는 딥러닝 모델의 일반화 성능과 적대적 견고성(robustness) 사이의 균형을 수학적으로 정립하고 이를 기반으로 훈련 전략을 구성한 방어 알고리즘입니다. 기존 Adversarial Training이 모델 정확도를 희생하며 견고성을 추구했던 반면, TRADES는 이 둘 사이의 트레이드오프를 명시적으로 고려하여 효과적인 방어를 구현합니다.1. 개념 및 정의TRADES(TRadeoff-inspired Adversarial DEfense via Surrogate-loss)는 정규화된 손실 함수를 통해 모델이 clean data(정상 입력)와 adversarial data(적대 입력) 모두에 대해 견고하게 작동하도록 학습시키는 방법입니다.목적: 모델의 일반화 능력과 적대 견고성 간의 균형 유지핵..

Topic 2025.06.16

PGD (Projected Gradient Descent)

개요PGD(Projected Gradient Descent)는 딥러닝 모델에 대한 적대적 공격 기법 중 가장 강력하고 일반적인 방법으로, 반복적인 그래디언트 업데이트와 투영 과정을 통해 최적의 적대적 예제를 생성합니다. 본 글에서는 PGD의 이론적 원리와 수식, 주요 특징, 구현 방법, 실제 적용 사례 및 방어 전략 등을 포괄적으로 설명합니다.1. 개념 및 정의PGD는 입력 공간에서 손실 함수를 최대화하는 방향으로 여러 번 그래디언트를 계산하고, 그 결과를 원래 입력 범위로 투영하여 적대적 예제를 생성하는 공격 방식입니다. FGSM의 확장된 반복형으로도 간주됩니다.목적: 모델의 예측 취약성을 극대화하기 위한 고강도 테스트필요성: 실제 환경에서 AI 시스템의 보안성과 견고성 검증기반 원리: 경사하강법을 반..

Topic 2025.06.16

FGSM (Fast Gradient Sign Method)

개요FGSM(Fast Gradient Sign Method)은 적대적 예제를 생성하는 대표적인 공격 알고리즘으로, 딥러닝 모델의 입력에 미세한 노이즈를 추가해 잘못된 예측을 유도합니다. 이 글에서는 FGSM의 개념과 작동 원리, 수학적 정의, 적용 사례, 그리고 이를 방어하는 방법 등을 포괄적으로 설명합니다.1. 개념 및 정의FGSM은 입력 이미지에 작은 노이즈를 추가하여 딥러닝 모델이 잘못된 출력을 내도록 유도하는 적대적 공격 기법입니다. 이 노이즈는 손실 함수의 그래디언트를 활용하여 계산되며, 빠른 계산 속도와 단순한 구조가 특징입니다.목적: 딥러닝 모델의 취약점 식별 및 테스트기반 이론: 그래디언트 방향을 활용한 손실 함수 최대화주요 분야: 보안 테스트, 모델 검증, XAI 연구 등2. 특징 항목 ..

Topic 2025.06.16

AI 기반 바이너리 분석(AI-driven Binary Analysis)

개요AI 기반 바이너리 분석(AI-driven Binary Analysis)은 머신러닝 및 딥러닝 기술을 활용하여 실행 파일, 라이브러리, 펌웨어 등 바이너리 코드에 대한 정적·동적 분석을 자동화하고 고도화하는 보안 분석 기술입니다. 이는 기존의 수작업 중심 디스어셈블리나 시그니처 기반 분석보다 더 빠르고 정밀하며, 알려지지 않은 악성코드 탐지, 제로데이 분석, 취약점 리버스 엔지니어링 등에 효과적으로 활용됩니다. 본 글에서는 AI 기반 바이너리 분석의 개념, 기술 구성, 장점, 활용 분야를 살펴봅니다.1. 개념 및 정의바이너리 분석(Binary Analysis)은 컴파일된 이진 실행 파일을 대상으로 구조, 동작, 보안 취약점을 분석하는 기법입니다. 여기에 AI 기술을 접목하여 패턴 인식, 기능 분류, ..

Topic 2025.03.27
728x90
반응형