일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
Tags
- Prompt Tuning
- Meta AI
- Prompt란
- 자기지도학습
- 논문 리뷰
- iclr spotlight
- VLM
- Segment Anything 리뷰
- cvpr 2024
- Computer Vision
- Multi-modal
- CVPR
- deep learning 논문 리뷰
- Segment Anything
- Computer Vision 논문 리뷰
- Data-centric AI
- iclr 논문 리뷰
- 논문리뷰
- iclr 2024
- Self-supervised learning
- ICLR
- ssl
- active learning
- contrastive learning
- deep learning
- cvpr 논문 리뷰
- Segment Anything 설명
- ai 최신 논문
- Stable Diffusion
- Data-centric
Archives
- Today
- Total
목록LLM-grounded Diffusion 논문 리뷰 (1)
Study With Inha

TMLR 2024, LLM-grounded Diffusion : Enhancing Prompt Understanding of Text-to-Image Diffusion Models with Large Language Models 논문 링크: https://arxiv.org/pdf/2305.13655.pdf 프로젝트 페이지 링크: https://llm-grounded-diffusion.github.io/ 1. Introduction Diffusion Model과 같은 Text-to-Image 생성 모델들의 발전은 높은 자유도로 질 좋은 이미지를 얻을 수 있도록 했다. 하지만 Stable Diffusion 및 최근에 나온 SDXL조차도 Text의 세부적인 내용을 파악하여 정확한 이미지를 생성하는 데에 한계가..
Paper Review
2024. 4. 4. 14:29