개요AI의 결정은 때로 **“왜 이 결정을 내렸는가?”**보다 **“어떻게 했으면 결과가 달라졌는가?”**에 대한 질문으로 귀결됩니다. 이러한 사용자 중심의 설명 요구를 충족시키는 것이 바로 **Counterfactual Explanation(반사실 설명)**입니다. 특히 고신뢰 의사결정이 필요한 금융, 의료, 법률 등에서는 Counterfactual Explainer를 통해 AI의 판단을 투명하게 이해하고, 사용자 피드백 기반 개선까지 이어지는 **설명 가능한 AI(XAI)**의 핵심 도구로 주목받고 있습니다.1. 개념 및 정의Counterfactual Explainer는 현재 입력값(input)이 아닌, 결과(label)를 변화시키는 가장 최소한의 입력 변경을 제시하여 모델의 결정 경계를 설명하는 기..