개요배치 정규화(Batch Normalization, BN)는 딥러닝 학습 과정에서 각 층의 입력 분포를 정규화하여 학습 속도를 향상시키고, 내부 공변량 변화(Internal Covariate Shift)를 완화하는 핵심 기술이다. 2015년 Ioffe와 Szegedy에 의해 제안된 이후, CNN, Transformer 등 다양한 모델에서 표준 기법으로 자리 잡았으며, 학습 안정성과 일반화 성능을 동시에 개선하는 데 기여한다.1. 개념 및 정의배치 정규화는 미니배치 단위로 입력 데이터의 평균(mean)과 분산(variance)을 계산하여 정규화(normalization)한 후, 학습 가능한 스케일(γ)과 시프트(β) 파라미터를 적용하는 방식이다. 이를 통해 각 레이어의 입력 분포를 일정하게 유지하여 학습..