일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | |
7 | 8 | 9 | 10 | 11 | 12 | 13 |
14 | 15 | 16 | 17 | 18 | 19 | 20 |
21 | 22 | 23 | 24 | 25 | 26 | 27 |
28 | 29 | 30 | 31 |
Tags
- Self-supervised learning
- 컴퓨터비전
- medical image
- Segment Anything
- open-world
- cvpr 논문 리뷰
- 딥러닝
- Data-centric
- Data-centric AI
- Segment Anything 설명
- deep learning
- 자기지도학습
- cvpr 2024
- 논문 리뷰
- contrastive learning
- VLM
- Meta AI
- deep learning 논문 리뷰
- Prompt Tuning
- Prompt란
- Computer Vision
- visual language model
- LLM
- Computer Vision 논문 리뷰
- Stable Diffusion
- Vision
- 논문리뷰
- CVPR
- Segment Anything 리뷰
- Multi-modal
Archives
- Today
- Total
목록nlp (1)
Study With Inha
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/0huTD/btr6pdyUbHl/cKRImw8tkzE8e71qOUyJK0/img.png)
ECCV 2022, Visual Prompt Tuning, M. Jia et al. 논문 링크: https://arxiv.org/pdf/2203.12119.pdf 1. Introduction 최근 GPT 계열 모델과 같이 대규모 데이터와 대규모 모델을 활용한 딥러닝 연구가 많아졌다. 그러한 데이터의 경우 엔비디아나 구글과 같이 엄청난 컴퓨팅 파워를 가지고 있는 대기업이 아닌 일반인들은 Pretrain된 모델을 Fine-tuning하는 것도 어려운 상황에 이르렀다 :( 따라서 본 논문에서는 비전 분야에서 대규모 Transformer 모델을 효율적으로 활용하기 위한 새로운 fine-tuning 방법인 Visual Prompt Tuning (VPT)을 제안한다. 이는 기존의 fine-tuning 방법보다 더 ..
Paper Review
2023. 3. 27. 19:02