일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
Tags
- Stable Diffusion
- Data-centric AI
- Segment Anything 리뷰
- 자기지도학습
- ai 최신 논문
- iclr 2024
- Computer Vision 논문 리뷰
- Data-centric
- Computer Vision
- Prompt란
- Meta AI
- 논문리뷰
- ssl
- active learning
- iclr spotlight
- Prompt Tuning
- contrastive learning
- deep learning
- VLM
- CVPR
- cvpr 논문 리뷰
- Segment Anything
- Self-supervised learning
- Multi-modal
- iclr 논문 리뷰
- Segment Anything 설명
- deep learning 논문 리뷰
- ICLR
- cvpr 2024
- 논문 리뷰
Archives
- Today
- Total
목록LLM-grounded Diffusion (1)
Study With Inha
[Paper Review] TMLR 2024, LLM-grounded Diffusion: Enhancing Prompt Understanding of Text-to-Image Diffusion Models with Large Language Models 논문 리뷰
TMLR 2024, LLM-grounded Diffusion : Enhancing Prompt Understanding of Text-to-Image Diffusion Models with Large Language Models 논문 링크: https://arxiv.org/pdf/2305.13655.pdf 프로젝트 페이지 링크: https://llm-grounded-diffusion.github.io/ 1. Introduction Diffusion Model과 같은 Text-to-Image 생성 모델들의 발전은 높은 자유도로 질 좋은 이미지를 얻을 수 있도록 했다. 하지만 Stable Diffusion 및 최근에 나온 SDXL조차도 Text의 세부적인 내용을 파악하여 정확한 이미지를 생성하는 데에 한계가..
Paper Review
2024. 4. 4. 14:29