Cara Setup dan Run Gemma 4 Secara Local menggunakan Ollama
Tekan play pada video. Ia akan terus lompat ke bahagian yang menjawab tajuk di
atas — tak perlu tonton video penuh.
Ollama
Terminal
Installation
Command Line
Panduan ringkas untuk muat turun dan jalankan model open-source Gemma 4 secara offline di komputer atau laptop anda. Belajar pilih saiz model yang sesuai (4B vs 26B) dan gunakan command terminal untuk install via Ollama.
Pemilihan Saiz Model (4B vs 26B)
Model 26B adalah pilihan komuniti yang paling popular kerana ia lebih laju dan efisien (fit pada kebanyakan komputer) berbanding model yang lebih besar. Namun, pastikan komputer anda mempunyai Graphics Card (GPU) yang baik untuk kelancaran optimum.
Kelebihan Menjalankan AI Secara Lokal
Apabila anda menjalankan model secara lokal, anda memiliki model tersebut sepenuhnya. Data anda tidak dihantar ke server luar, bermakna privasi anda lebih terjaga dan ia boleh berfungsi tanpa sambungan internet.
More from AI Lokal & Deployment Open Source
View All
Install dan jalankan AI model Smollm2 secara offline dengan Docker
Docker
Automasikan task web browser guna Local LLM (Ollama) & DeepSeek
Browser Use
Ollama
Pasang dan konfigurasi Robin AI Dark Web Scraper menggunakan Docker dan Tor
Robin
Docker
Jalankan Local LLM dan Grok dengan OpenCode CLI
OpenCode
Grok
Install dan jalankan model AI GPT-OSS secara offline dengan Ollama
Ollama
Jalankan model GPT-OSS secara local dengan Ollama
Ollama
OpenAI