Learning Timeline
Key Insights
Panduan Pemilihan Model Ikut VRAM
Pilih varian GGUF berdasarkan kapasiti GPU anda: Gunakan Q2 (paling ringan) untuk 8GB VRAM, varian sederhana untuk 12GB VRAM, dan mana-mana varian jika anda mempunyai 16GB VRAM ke atas.
Kualiti vs Prestasi
Model versi Q2 adalah yang paling kecil dan menjimatkan VRAM, namun ia mungkin menghasilkan 'noise' atau penurunan kualiti imej (degradation) berbanding model asal yang lebih besar.
Step by Step
Penyediaan Custom Nodes GGUF
- Buka interface ComfyUI anda.
- Klik butang 'Manager' pada panel menu utama.
- Pilih menu 'Custom Nodes Manager' dari senarai pilihan.
- Di bar carian, taipkan 'gguf'.
- Cari node bernama 'ComfyUI-GGUF' yang dibina oleh 'city96'.
- Klik butang 'Install' (atau 'Update' jika anda sudah memilikinya untuk memastikan versi terkini).
- Klik butang 'Restart' pada prompt yang muncul dan tekan 'OK' untuk memulakan semula ComfyUI.
Konfigurasi Workflow Qwen GGUF
- Pastikan fail model GGUF yang dimuat turun dari Quonstack telah diletakkan dalam folder 'ComfyUI/models/unet/'.
- Dalam workflow Qwen Image Edit, cari node 'Load Diffusion Model' yang sedia ada.
- Padam atau putuskan sambungan node 'Load Diffusion Model' tersebut.
- Double-click pada mana-mana ruang kosong di interface ComfyUI.
- Taip dan pilih node 'Unet Loader (GGUF)' untuk memasukkannya ke dalam kanvas.
- Pada node 'Unet Loader (GGUF)', klik pada menu dropdown 'unet_name' dan pilih model Qwen GGUF yang anda muat turun (contoh: Q2_K).
- Sambungkan output 'MODEL' dari node 'Unet Loader (GGUF)' ke input model pada node seterusnya dalam workflow.
- Klik butang 'Queue Prompt' untuk memulakan proses penjanaan imej menggunakan model quantized.