Classification
-
[Classification] An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale 번역 및 정리 (ViT)Paper review/Classification 2021. 11. 8. 21:04
@ 굵은 글씨는 중요한 내용, 빨간 글씨는 내가 추가한 내용 https://arxiv.org/pdf/2010.11929.pdf 주요 기여: Standard Transformer를 vision task에 적용 (CNN 구조 대부분을 제거) large dataset에서 사전학습된 네트워크를 transfer learning하여 small image dataset에서 학습 가능 0. Abstract Transformer가 NLP에서는 표준이 되었지만 computer vision task에서는 제한적이다. 기존의 vision task에서 attention은 CNN과 함께 적용되거나, CNN의 특정 요소를 대체하기 위해 사용된다. (EX. DETR은 CNN으로 feature map 획득 후 transformer 수..
-
[Computer Vision] Learning Deep Features for Discriminative Localization 번역 및 정리 (CAM)Paper review/Computer Vision 2021. 11. 5. 18:04
@ 굵은 글씨는 중요한 내용, 빨간 글씨는 내가 추가한 내용 http://cnnlocalization.csail.mit.edu/Zhou_Learning_Deep_Features_CVPR_2016_paper.pdf 주요 기여: GAP(global average pooling)을 통해 object localization을 수행하고 성능을 높임 0. Abstract 우리는 다양한 실험에서 우리의 네트워크가 분류 과제를 해결하기 위한 훈련을 받았음에도 불구하고 차별적 이미지 영역을 국소화 할 수 있다는 것을 입증한다. 본 연구는 GAP를 통해 CNN이 image 학습 후에(classification이 어떻게 결정되는지 주목하는 위치에 대한 정보가 없는 label만을 학습) localization 능력을 가질 수..