728x90
반응형

ai책임성 3

Algorithmic Auditing(모델 감사)

개요Algorithmic Auditing(알고리즘 감사 또는 모델 감사)은 인공지능 및 알고리즘 기반 시스템의 공정성, 투명성, 책임성을 확보하기 위해 설계·학습·운영 과정 전반을 점검하고 평가하는 활동이다. 점점 더 많은 기업과 정부가 AI에 의사결정을 위임하는 상황에서, 모델의 편향, 차별, 오류 가능성을 사전에 식별하고 대응하기 위한 핵심적인 AI 거버넌스 절차로 주목받고 있다.1. 개념 및 정의Algorithmic Auditing은 알고리즘이 어떻게 작동하는지, 누구에게 어떤 영향을 미치는지를 평가하고, 사회적 책임을 기반으로 그 위험을 최소화하려는 시도이다.목적: 불투명한 알고리즘 의사결정으로 인한 피해 예방 및 규제 대응범위: 데이터 수집부터 학습, 배포, 운영, 유지보수까지 전 단계 포함형식..

Topic 2025.04.27

Model Card

개요Model Card는 인공지능(AI) 모델의 성능, 사용 범위, 제한 사항, 데이터 편향성 등을 명시한 설명서 형태의 문서로, 모델의 개발자와 사용자 간에 책임 있는 AI 사용을 유도하기 위한 도구이다. Google AI가 최초로 제안한 개념으로, 오늘날 다양한 AI 윤리 가이드라인과 규제 대응에서 Model Card는 필수 요소로 자리잡고 있다.1. 개념 및 정의Model Card는 머신러닝 모델에 대한 표준화된 설명서로, 모델을 언제, 어디서, 어떻게, 누구에게 사용할 수 있는지에 대한 정보와 함께 성능의 한계와 편향 리스크까지 투명하게 공유하는 것을 목표로 한다.목적: AI 모델 사용자의 이해도 증진과 책임 있는 활용형식: 표 또는 자연어 기반의 설명 문서 (HTML, PDF 등)포함 요소: 모..

Topic 2025.04.27

AI Act(EU AI 규제안)

개요AI Act는 유럽연합(EU)이 제정한 세계 최초의 포괄적 인공지능 규제 법안으로, AI 시스템의 안전성과 기본권 보호를 보장하고, 혁신과 윤리적 사용 간 균형을 도모하기 위해 마련된 입법안입니다. 2021년 초안 발표 이후, 2024년 통과되어 2025년부터 단계적 시행될 예정인 이 법은 **위험 기반 접근 방식(Risk-based Approach)**을 채택하여 AI 시스템을 위험 수준에 따라 분류하고 그에 따라 규제를 달리 적용하는 점이 핵심입니다.1. 개념 및 정의AI Act는 인공지능 기술의 발전이 개인의 권리, 안전, 민주주의 가치를 해치지 않도록 하기 위해 ‘목적 중심·위험 중심’으로 AI 시스템을 정의하고 관리합니다.AI 정의: 머신러닝, 규칙 기반 시스템, 통계·베이지안 접근 등 광범..

Topic 2025.04.12
728x90
반응형