1. Why ? - 학습 속도 개선- 오버 피팅 억제( 드롭아웃 필요성 감소 )- 방법 : 활성화 값을 적당히 분포하도록 조정, 활성화함수(Ex. Relu 는 양수값(positive)값만 사용하고 나머지는 버리기 때문) 2. 종류- LRN(Local Response Normalization ) : Alexnet(2012에 사용) , Tensorflow 함수 - 하이퍼파라미터 : k,n,a,b , ( n 은 계산에 반영할 인접 kernel 의 범위를 지정)- Error율 1~2% 감소 - BN( Batch Normalization ) 미니배치 B , 즉 m개의 데이터 집합에 평균과 분산값을 계산평균 0, 표준편차가 1이 되도록 정규화.( 가우시안 분포를 normal distribution으로 변환하는거와 ..