Diffusers documentation
추론을 위한 OpenVINO 사용 방법
시작하기
튜토리얼
개요모델과 스케줄러 이해하기(번역중) AutoPipelineDiffusion 모델 학습하기(번역중) 추론을 위한 LoRAs 불러오기(번역중) Text-to-image diffusion 모델 추론 가속화하기(번역중) 큰 모델로 작업하기
파이프라인과 어댑터 불러오기
생성 태스크
추론 테크닉
(번역중) 개요여러 GPU를 사용한 분산 추론(번역중) LoRA 병합(번역중) 스케줄러 기능(번역중) 파이프라인 콜백(번역중) 재현 가능한 파이프라인(번역중) 이미지 퀄리티 조절하기프롬프트 기술
추론 심화
특정 파이프라인 예시
(번역중) Stable Diffusion XLSDXL TurboKandinsky(번역중) IP-Adapter(번역중) PAG(번역중) ControlNet(번역중) T2I-Adapter(번역중) Latent Consistency ModelTextual inversionShap-EDiffEdit(번역중) Trajectory Consistency Distillation-LoRAStable Video Diffusion(번역중) Marigold 컴퓨터 비전
학습
추론 가속화와 메모리 줄이기
추론 스피드업(번역중) 메모리 사용량 줄이기PyTorch 2.0xFormersToken merging(번역중) DeepCache(번역중) TGATE
최적화된 모델 형식
최적화된 하드웨어
개념 가이드
API
Pipelines
Stable Diffusion
추론을 위한 OpenVINO 사용 방법
🤗 Optimum은 OpenVINO와 호환되는 Stable Diffusion 파이프라인을 제공합니다. 이제 다양한 Intel 프로세서에서 OpenVINO Runtime으로 쉽게 추론을 수행할 수 있습니다. (여기서 지원되는 전 기기 목록을 확인하세요).
설치
다음 명령어로 🤗 Optimum을 설치합니다:
pip install optimum["openvino"]Stable Diffusion 추론
OpenVINO 모델을 불러오고 OpenVINO 런타임으로 추론을 실행하려면 StableDiffusionPipeline을 OVStableDiffusionPipeline으로 교체해야 합니다. PyTorch 모델을 불러오고 즉시 OpenVINO 형식으로 변환하려는 경우 export=True로 설정합니다.
from optimum.intel.openvino import OVStableDiffusionPipeline
model_id = "stable-diffusion-v1-5/stable-diffusion-v1-5"
pipe = OVStableDiffusionPipeline.from_pretrained(model_id, export=True)
prompt = "a photo of an astronaut riding a horse on mars"
images = pipe(prompt).images[0]Optimum 문서에서 (정적 reshaping과 모델 컴파일 등의) 더 많은 예시들을 찾을 수 있습니다.
Update on GitHub