[논문 리뷰 스터디] Momentum Contrast for Unsupervised Visual Representation Learning [MoCo, CVPR’20]
작성자: 15기 이승은
Contrastive Learning
대상들의 차이를 명확하게 보여줄 수 있도록 학습 -> 차이의 기준: 거리
Note. SimCLR
image augmentation을 통해 positive pairs 생성 -> self-supervised image recognition: contrastive learning (contrastive loss) – 정답 target을 주지 않고 이미지를 분류할 수 있는 feature를 학습
(아래의 Moco와 비교했을 때, 모든 image에 대해서 loss를 계산하여 update: out of memory error)
dimension reduction (embedding) 후 distance (loss) minimization (positive pairs) maximization (negative loss) with metric (mostly Euclidean distance or cosine similarity)
Moco Encoder
Define Contrastive Learning as Dynamic Dictionary System
minibatch image data -> augmentation (pair 생성)
augmentation version 1 -> q encoder (minibatch image 1개씩을 input -> feature 계산)
augmentation version 2 -> k encoder (minibatch image 전체를 input -> feature 계산)
queue (dictionary)에는 k encoder를 거친 m (minibatch size)만큼의 feature가 쌓이고, queue에 있는 feature들과 q encoder를 거친 feature들 사이의 contrastive loss를 계산
(positive pair의 output) / (positive와 negative pair output의 합)
positive pair의 output값을 크게 만들어서 log안의 값이 1로, 전체적으로는 0으로 가게 함.
More
DCL [Decoupled Contrastive Learning], NNCLR, MoCo v2
Reference
https://github.com/mi2rl/MI2RLNet_V2
https://arxiv.org/abs/1911.05722
https://89douner.tistory.com/m/334
https://ffighting.tistory.com/entry/CVPR-2020-MoCo-리뷰
https://towardsdatascience.com/contrastive-learning-in-3-minutes-89d9a7db5a28
댓글 영역