일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
Tags
- Segment Anything 설명
- iclr 논문 리뷰
- 논문리뷰
- ai 최신 논문
- deep learning 논문 리뷰
- Data-centric
- ssl
- VLM
- Segment Anything 리뷰
- deep learning
- Segment Anything
- CVPR
- 자기지도학습
- Meta AI
- cvpr 논문 리뷰
- Computer Vision 논문 리뷰
- ICLR
- Multi-modal
- Self-supervised learning
- cvpr 2024
- Data-centric AI
- contrastive learning
- 논문 리뷰
- active learning
- Prompt란
- iclr spotlight
- iclr 2024
- Stable Diffusion
- Computer Vision
- Prompt Tuning
Archives
- Today
- Total
목록LLM-grounded Diffusion 설명 (1)
Study With Inha

TMLR 2024, LLM-grounded Diffusion : Enhancing Prompt Understanding of Text-to-Image Diffusion Models with Large Language Models 논문 링크: https://arxiv.org/pdf/2305.13655.pdf 프로젝트 페이지 링크: https://llm-grounded-diffusion.github.io/ 1. Introduction Diffusion Model과 같은 Text-to-Image 생성 모델들의 발전은 높은 자유도로 질 좋은 이미지를 얻을 수 있도록 했다. 하지만 Stable Diffusion 및 최근에 나온 SDXL조차도 Text의 세부적인 내용을 파악하여 정확한 이미지를 생성하는 데에 한계가..
Paper Review
2024. 4. 4. 14:29