통계/머신러닝 모르는 사람

  • 홈
  • 태그

ViT 1

[논문 리뷰] Contrastive Masked Autoencoders are Stronger Vision Learners [Z.Huang et al.]

1. Introduction MAE 등의 masked image modeling (MIM)은 그 단순성과 풍부한 representation을 학습할 수 있는 능력 때문에 기존 self-supervised learning method보다 downstream task에서 좋은 성과를 보였고, 그 덕에 최근 self-supervised learning 분야에서 각광받고 있다. MIM 이전에 self-supervised learning에서 가장 주목받던 contrastive learning과는 달리, MIM은 (reconstruction task를 수행하기 위해) 다른 이미지들과의 관계를 모델링 하기 보다는 인풋 이미지의 local relation 을 학습하는 데에 더 초점을 맞춘다. 그 덕에 MIM은 disc..

논문 읽기/AutoEncoder 2022.09.06
1
더보기
프로필사진

  • 분류 전체보기 (4)
    • Python (0)
      • 알고리즘 (0)
    • 논문 읽기 (4)
      • Contrastive Learning (1)
      • Long tailed Learning (2)
      • AutoEncoder (1)

Tag

CMAE, Masked AutoEncoder, ML, Contrastive Learning, Long-tailed Learning, ViT, Mae, Long tailed Learning, Computer Vision,

최근글과 인기글

  • 최근글
  • 인기글

Calendar

«   2025/06   »
일 월 화 수 목 금 토
1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28
29 30

방문자수Total

  • Today :
  • Yesterday :

Copyright © Kakao Corp. All rights reserved.

티스토리툴바