728x90
반응형

differentialprivacy 3

Model Inversion Attack Mitigation (MIA-Guard)

개요Model Inversion Attack Mitigation(MIA-Guard)는 인공지능 모델의 훈련 데이터를 기반으로 민감한 정보를 역추론하는 공격(MIA: Model Inversion Attack)을 방어하기 위한 기술적 전략입니다. 개인 프라이버시가 핵심 가치로 부상한 시대에, MIA는 AI 윤리와 보안의 핵심 위협으로 떠오르고 있으며, MIA-Guard는 이러한 위협을 사전에 차단하는 데 중점을 둡니다.1. 개념 및 정의MIA는 훈련된 모델의 출력 또는 파라미터를 분석하여 원본 데이터의 특성을 재구성하는 공격 방식입니다.목적: AI 모델에서 훈련 데이터 유출 방지공격 대상: 의료, 금융, 얼굴 인식 모델 등 민감 정보를 포함하는 모델기반 이론: 정보 이득 추론, 출력 확률 분석, 멤버십 추론..

Topic 2025.07.04

Data Clean Room v2

개요Data Clean Room v2는 데이터 제공자와 분석자가 직접 식별 가능하지 않은 개인정보를 보호하면서도, 협업 분석, 머신러닝 모델 트레이닝, 광고 측정 등을 안전하게 수행할 수 있도록 설계된 차세대 데이터 협업 플랫폼입니다. 기존 Data Clean Room의 한계를 보완하여 프라이버시 강화, 연산 유연성, 다중 파티 연합 분석을 동시에 지원합니다.1. 개념 및 정의 항목 설명 정의개인 데이터 노출 없이 안전한 환경에서 다수 주체가 공동 분석을 수행할 수 있도록 지원하는 강화형 보안 데이터 협업 공간목적데이터 프라이버시 보호를 전제로 한 데이터 공유 및 공동 인사이트 생성필요성GDPR, CCPA 등 개인정보 규제 강화와 퍼스트파티 데이터 기반 비즈니스 혁신 요구 증대Data Clean Roo..

Topic 2025.05.02

차분 프라이버시(Differential Privacy)

개요차분 프라이버시(Differential Privacy)는 개인 데이터를 포함한 데이터셋에 대한 분석 결과에서, 특정 개인의 포함 여부가 결과에 거의 영향을 주지 않도록 수학적으로 보장하는 프라이버시 보호 기법입니다. 구글, 애플, 마이크로소프트 등 글로벌 기업뿐만 아니라 통계청과 같은 공공기관에서도 활용되는 현대 데이터 거버넌스의 핵심 기술로 자리잡고 있습니다.1. 개념 및 정의차분 프라이버시는 2006년 Cynthia Dwork 등의 연구진이 제안한 이론으로, 다음 조건을 만족하는 시스템을 말합니다:"두 데이터셋 D와 D'가 단 하나의 레코드만 차이 날 경우, 어떤 분석 쿼리의 결과 분포가 거의 동일하다면 해당 시스템은 ε-차분 프라이버시를 만족한다."이 말은, 어떤 개인이 포함되거나 빠졌더라도 분..

Topic 2025.04.26
728x90
반응형