ComfyUI - AI Tool Features & Models | PandaiTech
ComfyUI

ComfyUI AI Tool Features & Models

Features

Custom Nodes

Description

Custom Nodes allow you to add new functionality to ComfyUI to run the latest AI models like HunyuanVideo, LTX-2, or Ovi that are not supported by default. They are essential for users wanting to try advanced workflows or optimize VRAM usage using techniques like GGUF.

Custom Nodes membolehkan anda menambah fungsi baharu ke dalam ComfyUI untuk menjalankan model AI terkini seperti HunyuanVideo, LTX-2, atau Ovi yang tidak disokong secara default. Ia sangat penting untuk pengguna yang ingin mencuba workflow canggih atau mengoptimumkan penggunaan VRAM menggunakan teknik seperti GGUF.

Step by Step
1. The easiest method is to click the Manager button in ComfyUI, select Custom Nodes Manager, search for the desired node name, and click Install. 2. To install manually, open the ComfyUI > custom_nodes folder, and type cmd in the address bar to open the Command Prompt. 3. Get the GitHub repository URL for the node, then type git clone [URL] in the Command Prompt and press Enter. 4. If you load a workflow and see red boxes, open the Manager and click Install Missing Custom Nodes to automatically install all required nodes. 5. After installation, make sure to restart ComfyUI or refresh your browser so the new nodes can be detected and used.
1. Cara paling mudah adalah klik butang Manager dalam ComfyUI, pilih Custom Nodes Manager, cari nama node yang dimahukan dan klik Install. 2. Untuk install secara manual, buka folder ComfyUI > custom_nodes, taip cmd pada address bar folder tersebut untuk buka Command Prompt. 3. Dapatkan URL repository GitHub node tersebut, kemudian taip git clone [URL] dalam Command Prompt dan tekan Enter. 4. Jika anda load workflow dan nampak kotak merah, buka Manager dan klik Install Missing Custom Nodes untuk install semua node yang diperlukan secara automatik. 5. Selepas install, pastikan anda restart ComfyUI atau refresh browser supaya node baru tersebut dapat dikesan dan digunakan.
Tips & Tricks
• If you use ComfyUI Windows Portable, always update ComfyUI to the latest version before installing new nodes to avoid compatibility issues. • To update manually installed nodes, open the Command Prompt inside that specific node's folder and type git pull. • Check the requirements.txt file if a node fails to work; you may need to install additional dependencies using the pip install command. • Use the GGUF Loader node if you have low VRAM (e.g., 6GB) to run large models that typically require high memory.
• Jika anda guna ComfyUI Windows Portable, sentiasa update ComfyUI ke versi terkini sebelum install node baru untuk elak masalah compatibility. • Untuk update node yang di-install secara manual, buka Command Prompt dalam folder node tersebut dan taip git pull. • Semak fail requirements.txt jika node tidak berfungsi, anda mungkin perlu install dependencies tambahan menggunakan arahan pip install. • Gunakan node GGUF Loader jika anda mempunyai VRAM rendah (contohnya 6GB) untuk menjalankan model besar yang biasanya memerlukan memori tinggi.
Use Cases
• AI Video Creator | Run the latest open-source video generation models like LTX-2 or Ovi offline and for free. • Low Spec PC Users | Use GGUF custom nodes to run heavy models on low VRAM without crashing. • Video Editor | Use specialized workflows like Ditto or DyPE to edit videos and change visual styles or image resolutions.
• AI Video Creator | Menjalankan model video generation open-source terkini seperti LTX-2 atau Ovi secara offline dan percuma. • Pengguna Low Spec PC | Menggunakan custom node GGUF untuk menjalankan model berat dengan VRAM yang rendah tanpa crash. • Video Editor | Menggunakan workflow khas seperti Ditto atau DyPE untuk edit video dan menukar gaya visual atau resolusi imej.

JSON Workflows

Description

JSON files in ComfyUI act as complete templates that store the node layout and settings of a project. This is highly useful because you don’t have to manually connect every node from scratch; instead, you can just drag and drop the file to use a setup built by others.

Fail JSON dalam ComfyUI bertindak sebagai template lengkap yang menyimpan susunan node dan settings sesuatu projek. Ini sangat berguna kerana anda tidak perlu menyambung setiap node dari awal secara manual, sebaliknya hanya perlu drag and drop fail ini untuk terus menggunakan setup yang telah dibina oleh orang lain.

Step by Step
1. Find and download the workflow file in .json format (or an image containing workflow metadata) from the provided source. 2. Open the ComfyUI interface in your browser and drag and drop the .json file directly into your workspace. 3. If any nodes appear red, open the Manager and select Install Missing Custom Nodes, then update ComfyUI if necessary. 4. Ensure you have downloaded the required models (such as Checkpoint, VAE, or Text Encoder) and select those files in the relevant loader nodes. 5. Adjust settings such as the prompt, resolution, or batch size as needed and press the Queue Prompt button to begin generating results.
1. Cari dan muat turun fail workflow dalam format .json (atau imej yang mengandungi metadata workflow) dari sumber yang disediakan. 2. Buka interface ComfyUI di browser dan tarik (drag and drop) fail .json tersebut terus ke dalam ruang kerja anda. 3. Jika terdapat node yang berwarna merah, buka Manager dan pilih Install Missing Custom Nodes, kemudian update ComfyUI anda jika perlu. 4. Pastikan anda telah memuat turun model yang diperlukan (seperti Checkpoint, VAE, atau Text Encoder) dan pilih fail tersebut pada node loader yang berkaitan. 5. Ubah tetapan seperti prompt, resolusi, atau batch size mengikut keperluan anda dan tekan butang Queue Prompt untuk mula menjana hasil.
Tips & Tricks
• Always update ComfyUI to the latest version via the Manager before uploading new workflows to avoid node compatibility issues. • Carefully check model folder paths, as some workflows require additional files like VAE or Text Encoder to be placed in specific folders. • Don't be afraid to modify downloaded JSON workflows; for example, adding Load Image and VAE Encode nodes to convert a text-to-image setup into image-to-image.
• Sentiasa update ComfyUI ke versi terkini melalui Manager sebelum memuat naik workflow baru untuk mengelakkan isu keserasian node. • Semak laluan folder model dengan teliti kerana sesetengah workflow memerlukan fail tambahan seperti VAE atau Text Encoder yang perlu diletakkan dalam folder khusus. • Jangan takut untuk ubah suai workflow JSON yang dimuat turun, contohnya menambah node Load Image dan VAE Encode untuk menukar fungsi text-to-image kepada image-to-image.
Use Cases
• Video Editor | Uses ready-made workflows like HunyuanVideo or Ditto to generate or edit videos without needing to build complex pipelines. • Digital Artist | Speeds up the design process by using Z-Image presets to transform rough sketches or 3D animations into realistic images. • AI Enthusiast | Quickly tests new model capabilities using templates provided by developers without needing to understand the technicalities of every connection.
• Video Editor | Menggunakan workflow siap seperti HunyuanVideo atau Ditto untuk menjana atau mengedit video tanpa perlu membina pipeline yang rumit. • Digital Artist | Mempercepatkan proses rekaan dengan menggunakan preset Z-Image untuk menukar lakaran kasar atau animasi 3D kepada imej realistik. • AI Enthusiast | Menguji kemampuan model baru dengan pantas menggunakan template yang disediakan oleh pembangun tanpa perlu memahami teknikaliti setiap sambungan wayar.

GGUF Support

Description

GGUF support allows you to run massive AI models on computers with low GPU VRAM using file compression techniques. This means you can use advanced models like Flux, HunyuanVideo, or Qwen Image even if your graphics card only has 4GB to 8GB of VRAM without encountering out-of-memory errors.

GGUF Support membolehkan anda menjalankan model AI yang sangat besar pada komputer dengan GPU VRAM rendah melalui teknik kompresi fail. Ini bermakna anda boleh guna model canggih seperti Flux, HunyuanVideo, atau Qwen Image walaupun grafik kad anda cuma ada 4GB hingga 8GB VRAM tanpa masalah out of memory.

Step by Step
1. Open ComfyUI Manager, select Custom Nodes Manager, search for and install ComfyUI GGUF by City96, then restart ComfyUI. 2. Download the GGUF model version that fits your VRAM size (e.g., Q4 or Q3 files) from HuggingFace. 3. Place the model file into the ComfyUI/models/unet or ComfyUI/models/diffusion_models folder. 4. In the ComfyUI workflow, search for the node named Unet Loader GGUF and use it to load your model instead of the standard loader. 5. If VRAM is extremely limited, also download the GGUF version of the text encoder (clip model) and place it in the text_encoders folder to save more memory.
1. Buka ComfyUI Manager, pilih Custom Nodes Manager, cari dan install ComfyUI GGUF by City96 kemudian restart ComfyUI anda. 2. Download model versi GGUF yang sesuai dengan saiz VRAM anda (contohnya fail Q4 atau Q3) dari HuggingFace. 3. Letakkan fail model tersebut ke dalam folder ComfyUI/models/unet atau ComfyUI/models/diffusion_models. 4. Dalam workflow ComfyUI, cari node bernama Unet Loader GGUF dan gunakan node ini untuk load model anda menggantikan loader biasa. 5. Jika VRAM sangat kritikal, download juga text encoder versi GGUF (klip model) dan letak dalam folder text_encoders untuk jimat lebih banyak memori.
Tips & Tricks
• Choose the Q4 (medium) version if possible, as it provides the best balance between image quality and VRAM usage. • Q2 or Q3 versions are very small and fast, but image quality may appear slightly pixelated or lack detail (noise degradation). • If the GGUF node appears red when you load a workflow, update ComfyUI and the City96 custom node via the manager first. • You can use standard text encoders with GGUF models, but using compressed text encoders (GGUF version) will help prevent crashes on older GPUs.
• Pilih model versi Q4 (medium) jika boleh kerana ia memberikan keseimbangan terbaik antara kualiti gambar dan penggunaan VRAM. • Model versi Q2 atau Q3 sangat kecil dan laju, tapi kualiti gambar akan nampak sedikit pecah atau kurang detail (noise degradation). • Jika node GGUF berwarna merah bila anda load workflow, update dulu ComfyUI dan custom node City96 melalui manager. • Anda boleh guna text encoder standard dengan model GGUF, tapi guna text encoder yang dah compress (GGUF version) akan bantu elak crash pada GPU lama.
Use Cases
• Budget GPU Users (4GB-8GB VRAM) | Run heavy models like Flux Dev or HunyuanVideo that originally require 16GB of VRAM or more. • Laptop Users | Generate high-quality AI images offline without needing a bulky desktop workstation. • AI Testers | Quickly try various model variations since GGUF files are much smaller to download than the original models.
• Pengguna GPU Bajet (4GB-8GB VRAM) | Menjalankan model berat seperti Flux Dev atau HunyuanVideo yang asalnya memerlukan 16GB VRAM ke atas. • Laptop User | Menghasilkan imej AI berkualiti tinggi secara offline tanpa perlukan desktop workstation yang besar. • AI Tester | Mencuba pelbagai variasi model dengan pantas kerana saiz fail GGUF jauh lebih kecil untuk didownload berbanding model asal.

LoRA Integration

Description

This feature allows you to add specific styles, characters, visual effects, or camera movements to base AI models without retraining the entire model. It is highly effective for controlling generation outputs to match your needs, whether switching art styles to pixel art, adding glitch effects, or accelerating video rendering.

Feature ini membolehkan anda menambah gaya spesifik, watak, kesan visual, atau pergerakan kamera pada model asas AI tanpa perlu melatih semula keseluruhan model. Ia sangat berguna untuk mengawal hasil generation supaya lebih tepat mengikut kehendak anda, sama ada untuk menukar art style kepada pixel art, menambah glitch effect, atau melajukan proses rendering video.

Step by Step
1. Download the LoRA file (usually in .safetensors format) from websites like CivitAI and place it in the ComfyUI > models > loras folder. 2. In ComfyUI, search for and add the Lora Loader (Model Only) node to your workflow. 3. Connect the output from the Diffusion Model or UNET to the Lora Loader input, then connect the Lora Loader output to the next node, such as KSampler or another LoRA node. 4. Select the downloaded LoRA file from the node's dropdown menu and adjust the strength as needed—typically around 0.8 for balanced results. 5. Include the specific trigger word or phrase in your prompt if the LoRA requires it to activate the desired effect.
1. Muat turun fail LoRA (biasanya format .safetensors) dari laman web seperti CivitAI dan letakkan fail tersebut ke dalam folder ComfyUI > models > loras. 2. Di dalam ComfyUI, cari dan tambah node bernama Lora Loader (Model Only) ke dalam workflow anda. 3. Sambungkan output dari Diffusion Model atau UNET ke input Lora Loader, kemudian sambungkan output Lora Loader ke node seterusnya seperti KSampler atau node LoRA yang lain. 4. Pilih fail LoRA yang dimuat turun pada menu dropdown node tersebut dan laraskan kekuatan (strength) mengikut keperluan, biasanya sekitar 0.8 untuk hasil yang seimbang. 5. Masukkan trigger word atau frasa khusus dalam prompt anda jika LoRA tersebut memerlukannya untuk mengaktifkan kesan yang diingini.
Tips & Tricks
• You can chain multiple LoRAs to combine styles, but limit it to 2 or 3 to prevent image quality degradation or excessive noise. • If using video models like Wan 2.2, look for self-forcing or lightning LoRAs that accelerate generation by reducing the required steps and CFG. • Always check the LoRA download page for the correct trigger words, such as camera movement commands like "dolly left shot," to ensure the effects work correctly.
• Anda boleh menyambung (chain) beberapa LoRA secara berturutan untuk menggabungkan gaya, tetapi hadkan kepada 2 hingga 3 LoRA sahaja supaya kualiti imej tidak rosak atau menjadi terlalu noisy. • Jika anda menggunakan model video seperti Wan 2.2, cari LoRA jenis self-forcing atau lightning yang boleh mempercepatkan generation dengan mengurangkan jumlah steps dan CFG yang diperlukan. • Sentiasa semak halaman muat turun LoRA untuk mengetahui trigger word yang tepat, contohnya arahan pergerakan kamera seperti dolly left shot untuk memastikan efek berfungsi.
Use Cases
• Digital Artist | Switching image visual styles to specific aesthetics like Commodore 64 pixel art or glitch effects without needing long prompts. • Videographer | Controlling camera movement in AI videos using motion LoRAs to produce specific shots like dolly, pan, or zoom. • Content Creator | Generating consistent characters or actions, including uncensored content that might be filtered or missing in the base model. • Low-End PC User | Using special acceleration LoRAs to reduce VRAM usage and high-resolution video rendering times.
• Digital Artist | Menukar gaya visual imej kepada estetik tertentu seperti Commodore 64 pixel art atau kesan glitch tanpa perlu prompt yang panjang. • Videographer | Mengawal pergerakan kamera dalam video AI menggunakan motion LoRA untuk hasilkan shot seperti dolly, pan, atau zoom yang spesifik. • Content Creator | Menghasilkan watak atau aksi yang konsisten dan kadangkala uncensored yang mungkin ditapis atau tiada dalam model asas. • Low-End PC User | Menggunakan LoRA khas untuk acceleration bagi mengurangkan penggunaan VRAM dan masa rendering video resolusi tinggi.

Image-to-Video

Description

This feature allows you to convert still images into short animated videos by using the image as the first frame or reference point. It is highly useful for bringing anime characters, human portraits, or static landscapes to life using AI models like HunyuanVideo, LTX-2, or Wan 2.2 within ComfyUI.

Feature ini membolehkan anda menukar gambar pegun menjadi video animasi pendek dengan menggunakan gambar tersebut sebagai frame pertama atau rujukan. Ia sangat berguna untuk menghidupkan watak anime, potret manusia, atau pemandangan statik menggunakan model AI seperti HunyuanVideo, LTX-2, atau Wan 2.2 dalam ComfyUI.

Step by Step
1. Drag and drop the image-to-video workflow file into the ComfyUI interface and ensure the correct model checkpoint has been downloaded into the models folder. 2. On the model loader node, select the appropriate model file from the dropdown menu; use FP8 or quantized versions if you have low VRAM. 3. Locate the Load Image node and upload the image you want to use as the starting point for your video. 4. Write a positive prompt describing the desired movement or action, set the width and height resolution, then click Queue Prompt to begin generating.
1. Drag dan drop fail workflow image-to-video ke dalam interface ComfyUI dan pastikan model checkpoint yang betul telah dimuat turun ke dalam folder models. 2. Pada node loader model, pilih fail model yang sesuai dari dropdown menu, gunakan versi FP8 atau quantized jika anda mempunyai VRAM yang rendah. 3. Cari node Load Image dan upload gambar yang anda mahu gunakan sebagai permulaan video. 4. Tulis prompt positif untuk menerangkan pergerakan atau aksi yang dimahukan, setkan resolusi width dan height, kemudian tekan Queue Prompt untuk mula generate.
Tips & Tricks
• If your computer has low VRAM, always look for FP8 or distilled model versions as their file sizes are smaller than the full BF16 versions. • Use the Ctrl + B keyboard shortcut to bypass or unbypass specific nodes, such as when you need to activate the image-to-video section in a Wan 2.2 workflow. • Set the seed to randomize or fixed as needed; using the same seed will produce a similar video, while a random seed provides new variations for every run.
• Jika komputer anda ada VRAM rendah, sentiasa cari versi model FP8 atau distilled yang saiz failnya lebih kecil berbanding versi penuh BF16. • Gunakan shortcut Ctrl + B pada keyboard untuk bypass atau unbypass node tertentu, contohnya jika anda perlu aktifkan bahagian image-to-video dalam workflow Wan 2.2. • Setkan seed kepada randomize atau fixed mengikut keperluan; seed yang sama akan hasilkan video yang serupa, manakala seed rawak beri variasi baru setiap kali run.
Use Cases
• Content Creator | Animating static thumbnails or memes into short video clips for social media. • Animator | Generating mouth movements or character lip-syncing from a single still drawing without needing to draw every frame. • Product Marketer | Converting standard product photos into dynamic video ads featuring camera movement.
• Content Creator | Menghidupkan gambar thumbnail atau meme statik menjadi klip video pendek untuk media sosial. • Animator | Menjana pergerakan mulut atau lip-sync watak daripada satu lukisan pegun tanpa perlu melukis setiap frame. • Pemasar Produk | Menukar gambar produk biasa kepada video iklan yang dinamik dengan pergerakan kamera.

Text-to-Video

Description

The Text-to-Video feature in ComfyUI allows you to generate high-quality videos using only text prompts. It is highly effective as it provides full control over technical settings like resolution, frame rate, and the selection of open-source models like Hunyuan, LTX-2, or Wan 2.2 without any monthly subscription costs.

Feature Text-to-Video dalam ComfyUI membolehkan anda menjana video berkualiti tinggi hanya menggunakan arahan teks atau prompt. Ia sangat berguna kerana memberi kawalan penuh terhadap setting teknikal seperti resolution, frame rate, dan pemilihan model open-source seperti Hunyuan, LTX-2, atau Wan 2.2 tanpa kos langganan bulanan.

Step by Step
1. Press the Refresh button and select the appropriate model checkpoint (such as FP8 or Distilled versions) on the loader node in your workflow. 2. Enter your desired video description in the positive text prompt box and fill in the negative prompt for elements you want to exclude. 3. Set the video resolution (width and height) and the video length in frames (e.g., 120 frames equals 5 seconds at 24fps). 4. Adjust the steps and seed settings based on your quality requirements, then press the Queue Prompt or Run button to start generating the video.
1. Tekan butang Refresh dan pilih checkpoint model yang sesuai (seperti versi FP8 atau Distilled) pada node loader dalam workflow anda. 2. Masukkan deskripsi video yang diinginkan dalam kotak text prompt positif dan isi negative prompt untuk elemen yang ingin dielakkan. 3. Tetapkan resolusi video (width dan height) serta panjang video dalam bentuk frames (contohnya 120 frames bersamaan 5 saat jika 24fps). 4. Laraskan tetapan steps dan seed mengikut keperluan kualiti, kemudian tekan butang Queue Prompt atau Run untuk mula menjana video.
Tips & Tricks
• If you have low VRAM (e.g., 16GB or less), ensure you use FP8 model versions or enable CPU offload settings to avoid out-of-memory errors. • For faster processing, use Distilled models or reduce the number of steps (e.g., 4 to 8 steps), though quality may decrease slightly. • Set the seed to randomize to get different video variations each time you run, or use a fixed seed to maintain the same composition.
• Jika anda mempunyai VRAM rendah (contohnya 16GB ke bawah), pastikan anda guna model versi FP8 atau hidupkan setting CPU offload untuk elak error out of memory. • Untuk proses yang lebih laju, gunakan model jenis Distilled atau kurangkan jumlah steps (contohnya 4 hingga 8 steps) walaupun kualiti mungkin sedikit berkurang. • Setkan seed kepada randomize supaya anda mendapat variasi video yang berbeza setiap kali anda tekan run, atau guna fixed seed jika mahu kekalkan komposisi yang sama.
Use Cases
• Content Creator | Generating B-roll clips or abstract backgrounds for YouTube videos and social media. • Storyteller | Producing short scenes with talking characters when using audio-supported models like Ovi. • Digital Marketer | Creating unique and visually engaging 5-second ads without the cost of actual filming.
• Content Creator | Menjana klip video B-roll atau latar belakang abstrak untuk kegunaan video YouTube dan media sosial. • Storyteller | Menghasilkan babak pendek dengan karakter yang boleh bercakap jika menggunakan model yang menyokong audio seperti Ovi. • Digital Marketer | Mencipta iklan pendek 5 saat yang visualnya menarik dan unik tanpa perlu kos penggambaran sebenar.

Upscaling

Description

This feature allows you to upgrade video resolution from 720p to 1080p or add detail to blurry, low-resolution videos. It utilizes additional models such as latent upsamplers or detailer LoRAs to ensure sharper, higher-quality results directly within the ComfyUI workflow.

Feature ini membolehkan anda menaik taraf resolusi video dari 720p ke 1080p atau menambah perincian pada video resolusi rendah yang kabur. Ia menggunakan model tambahan seperti latent upsampler atau detailer LoRA untuk memastikan hasil video lebih tajam dan berkualiti tinggi terus dalam workflow ComfyUI.

Step by Step
1. Download the required models, such as the latent upsampler for Hunyuan or the FP4 non-distilled checkpoint for LTX, from Hugging Face. 2. Place the model files into the correct ComfyUI folders: models/checkpoints, models/loras, or models/latent_upscale_models, depending on the file type. 3. Click Refresh and select the upscaler model or detailer LoRA from the node dropdown menu in your workflow. 4. Set the target resolution (e.g., 1080p) or adjust the LoRA strength, then connect the Easy Cache node to save rendering time.
1. Download model yang diperlukan seperti latent upsampler dari Hugging Face untuk Hunyuan atau FP4 non-distilled checkpoint untuk LTX. 2. Masukkan fail model ke dalam folder ComfyUI yang betul iaitu di models/checkpoints, models/loras, atau models/latent_upscale_models mengikut jenis fail. 3. Tekan Refresh dan pilih model upscaler atau detailer LoRA pada node dropdown dalam workflow anda. 4. Tetapkan resolusi sasaran seperti 1080p atau laraskan kekuatan LoRA, kemudian sambungkan node Easy Cache jika mahu jimat masa rendering.
Tips & Tricks
• Ensure you manually download the latent upsampler from Hugging Face ComfyUI, as it is often not included in the standard package. • Use the Easy Cache node to speed up the generation process, but note that it may slightly reduce video quality. • For the LTX Detailer, do not use distilled versions; instead, use the full FP4 version to ensure it works correctly. • If LTX upscaling adds too many strange details, reduce the LoRA strength from 100% to a lower value.
• Pastikan anda download latent upsampler secara manual dari Hugging Face ComfyUI kerana ia selalunya tidak disertakan dalam pek standard. • Guna node Easy Cache untuk lajukan proses generation, tapi ingat ia mungkin akan kurangkan sedikit kualiti video. • Untuk LTX Detailer, jangan guna versi distilled sebaliknya guna version FP4 yang penuh untuk pastikan ia berfungsi. • Jika upscaling LTX menambah terlalu banyak detail yang pelik, kurangkan strength LoRA dari 100% ke nilai yang lebih rendah.
Use Cases
• Video Editor | Converting 720p text-to-video clips to 1080p for use in HD video editing projects. • Content Creator | Repairing old or low-resolution reference videos (such as 426x240) by adding detail to prevent pixelation. • AI Artist | Producing sharper videos with fewer blur artifacts by using latent upscaling techniques.
• Video Editor | Menukar klip text-to-video 720p kepada 1080p supaya sesuai untuk projek suntingan video HD. • Content Creator | Membaiki video lama atau rujukan yang beresolusi rendah (seperti 426x240) dengan menambah detail supaya tidak nampak pecah. • AI Artist | Menghasilkan video yang lebih tajam dan kurang artifak kabur dengan menggunakan teknik latent upscaling.

Image-to-Image

Description

This feature allows you to use an existing image as a reference to generate new images or perform specific edits. It is highly useful for changing visual styles, such as converting 3D to realistic, or modifying specific elements in an image using simple text prompts.

Feature ini membolehkan anda guna gambar sedia ada sebagai rujukan untuk hasilkan gambar baru atau buat suntingan spesifik. Ia sangat berguna untuk tukar gaya visual seperti 3D ke realistik, atau mengubah elemen tertentu dalam gambar menggunakan arahan teks mudah.

Step by Step
1. Add a Load Image node to your workflow and upload the image you want to use, then connect it to the VAE Encode node. 2. Connect the output from VAE Encode to the latent input on the KSampler (ensure the original empty latent node is deleted or bypassed). 3. Enter a prompt describing your desired result, whether it is a full description for a style change or a brief editing instruction. 4. Adjust the denoise setting in the KSampler to around 0.5 to retain the original look, or increase it to 0.8 for more significant changes before clicking Run.
1. Tambah node Load Image dalam workflow anda dan upload gambar yang hendak digunakan, kemudian sambungkan ia ke node VAE Encode. 2. Sambungkan output dari VAE Encode ke input latent pada KSampler (pastikan node empty latent asal dipadam atau di-bypass). 3. Masukkan prompt yang menerangkan gambar yang anda mahu, sama ada deskripsi penuh untuk tukar gaya atau arahan edit ringkas. 4. Laraskan tetapan denoise di KSampler kepada nilai sekitar 0.5 untuk kekalkan rupa asal, atau naikkan ke 0.8 jika mahu perubahan yang lebih ketara sebelum tekan Run.
Tips & Tricks
• You cannot connect an image node directly to the KSampler; it must pass through VAE Encode first so the AI can process the image data. • The denoise value is the key factor; lower values mean the AI follows the original image strictly, while higher values give the AI more freedom to modify. • If you are using a Flux workflow for editing, you can bypass the upscaler node if you want to maintain the original resolution and size of your input image.
• Anda tidak boleh sambung terus node imej ke KSampler, ia wajib melalui VAE Encode dahulu supaya AI faham data gambar tersebut. • Nilai denoise adalah penentu utama; nilai rendah bermaksud AI ikut gambar asal dengan ketat, manakala nilai tinggi beri AI lebih kebebasan untuk ubah suai. • Jika anda guna workflow Flux untuk edit, anda boleh bypass node upscaler jika mahu kekalkan resolusi dan saiz asal gambar input anda.
Use Cases
• 3D Artist | Convert 3D character renders or animations into realistic and cinematic photographs. • Fashion Editor | Quickly change clothing colors or textures on models using text commands without manual editing. • Content Creator | Automatically merge two characters from different images into a single new situation or location.
• 3D Artist | Tukar hasil render karakter 3D atau animasi menjadi gambar foto yang nampak realistik dan sinematik. • Fashion Editor | Tukar warna pakaian atau tekstur pada model dengan pantas menggunakan arahan teks tanpa perlu edit manual. • Content Creator | Gabungkan dua watak dari gambar berbeza ke dalam satu situasi atau lokasi baru secara automatik.

Models

Compare With