일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- iclr 2024
- iclr 논문 리뷰
- Computer Vision 논문 리뷰
- Computer Vision
- Stable Diffusion
- deep learning
- Prompt Tuning
- cvpr 2024
- Self-supervised learning
- cvpr 논문 리뷰
- Meta AI
- contrastive learning
- iclr spotlight
- ai 최신 논문
- 논문리뷰
- Prompt란
- Segment Anything
- Data-centric AI
- 논문 리뷰
- CVPR
- Segment Anything 설명
- Multi-modal
- deep learning 논문 리뷰
- Data-centric
- ICLR
- ssl
- Segment Anything 리뷰
- 자기지도학습
- VLM
- active learning
Archives
- Today
- Total
목록LMD 설명 (1)
Study With Inha
[Paper Review] TMLR 2024, LLM-grounded Diffusion: Enhancing Prompt Understanding of Text-to-Image Diffusion Models with Large Language Models 논문 리뷰
TMLR 2024, LLM-grounded Diffusion : Enhancing Prompt Understanding of Text-to-Image Diffusion Models with Large Language Models 논문 링크: https://arxiv.org/pdf/2305.13655.pdf 프로젝트 페이지 링크: https://llm-grounded-diffusion.github.io/ 1. Introduction Diffusion Model과 같은 Text-to-Image 생성 모델들의 발전은 높은 자유도로 질 좋은 이미지를 얻을 수 있도록 했다. 하지만 Stable Diffusion 및 최근에 나온 SDXL조차도 Text의 세부적인 내용을 파악하여 정확한 이미지를 생성하는 데에 한계가..
Paper Review
2024. 4. 4. 14:29