낭만고양이

  • 홈
  • 태그
  • 미디어로그
  • 위치로그
  • 방명록

local response normalization 1

정규화 -Normalization

1. Why ? - 학습 속도 개선- 오버 피팅 억제( 드롭아웃 필요성 감소 )- 방법 : 활성화 값을 적당히 분포하도록 조정, 활성화함수(Ex. Relu 는 양수값(positive)값만 사용하고 나머지는 버리기 때문) 2. 종류- LRN(Local Response Normalization ) : Alexnet(2012에 사용) , Tensorflow 함수 - 하이퍼파라미터 : k,n,a,b , ( n 은 계산에 반영할 인접 kernel 의 범위를 지정)- Error율 1~2% 감소 - BN( Batch Normalization ) 미니배치 B , 즉 m개의 데이터 집합에 평균과 분산값을 계산평균 0, 표준편차가 1이 되도록 정규화.( 가우시안 분포를 normal distribution으로 변환하는거와 ..

Deep Learning 2018.06.07
이전
1
다음
더보기
프로필사진

멀어져 가는 저 뒷 모습을 바라보면서...

  • 분류 전체보기 (25)
    • Deep Learning (1)
    • IT (0)
    • 영상처리 (1)
    • 일상 (2)
      • 일지 (0)
      • 일기 (0)
    • 게임 (1)
    • 운동 (1)
    • 프로그래밍 (13)
      • OpenCL (1)
      • OpenMP (1)
      • Tensorflow (6)
      • Python (2)
      • CUDA (1)
      • Pycharm (1)
      • SIMD (1)
    • 좋은생각 (1)

Tag

pyd, ttrainable_variables, unraveld_index, batch normalization, pyi, tensorflow, get_tensor_by_name, Argmax, pyd 모듈, Inteligence, python 링킹, argmin, flat field correction, lrn, pyi 생성, Python, tensor buf, local response normalization, pybind11, get_default_graph,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2025/05   »
일 월 화 수 목 금 토
1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31

방문자수Total

  • Today :
  • Yesterday :

Copyright © Kakao Corp. All rights reserved.

  • Open Research
  • 모두의 연구소
  • Python API
  • OpenCV Wiki
  • Python Code Example
  • 메가클라우드

티스토리툴바