https://arxiv.org/pdf/1607.06450.pdf
제목 : Layer normalization
저자 : Jimmy Lei Ba, Jamie Ryan Kiros, Geoffrey E. Hinton (University of Toronto)
이 글은 Batch Normalization에 관한 사전 지식이 필요합니다.
위의 내용을 시각화하여 나타내면 아래와 같습니다.
N은 Mini-Batch Sample의 수이고, C는 Channels, 'H, W'는 Merged Spatial Dimensions입니다.
Batch/Weight/Layer normalization의 비교
Image Retrieval
Attentive reader
Handwriting sequence generating model
Modeling binarized MNIST using DRAW(Deep Recurrent Attentive Writer)
작성자 : 16기 이은찬
댓글 영역