Install dan configure LiteLLM Proxy dengan Docker | Alpha | PandaiTech

Install dan configure LiteLLM Proxy dengan Docker

Panduan teknikal install LiteLLM container, edit environment variables, dan setup 'Virtual Keys' untuk guna Claude, Grok dan GPT serentak dengan kawalan bajet.

Learning Timeline
Key Insights

Keselamatan API Key

LITELLM_SALT_KEY sangat penting kerana ia digunakan untuk encrypt API key provider (seperti Claude/GPT) yang anda simpan dalam database LiteLLM. Jangan tukar key ini selepas server mula digunakan.

Kelebihan Virtual Keys

Gunakan Virtual Keys untuk membahagikan akses kepada pengguna yang berbeza. Anda boleh menyekat pengguna tertentu daripada menggunakan model yang mahal dan menetapkan 'Monthly Budget' untuk mengelakkan bil melambung.

Networking Localhost

Jika Open WebUI dan LiteLLM berada dalam Docker network yang sama, anda boleh menggunakan 'http://localhost:4000' atau nama container sebagai Base URL untuk komunikasi yang lebih pantas.
Step by Step

Langkah 1: Penyediaan Server dan Instalasi LiteLLM

  1. Akses terminal server atau VPS anda (Contoh: melalui Browser Terminal di portal VPS).
  2. Muat turun (clone) repository LiteLLM dari GitHub ke dalam server anda.
  3. Taip 'ls' untuk melihat senarai folder, kemudian taip 'cd litellm' untuk masuk ke dalam direktori tersebut.
  4. Taip 'nano .env' untuk membuka text editor bagi mengedit file konfigurasi hidden.
  5. Masukkan baris 'LLM_MASTER_KEY="SK-RANDOMLY_GENERATED_KEY"' (Gunakan password generator untuk kunci yang selamat).
  6. Masukkan baris 'LITELLM_SALT_KEY="SK-RANDOMLY_GENERATED_KEY"' untuk tujuan enkripsi kredensial API.
  7. Tekan 'Ctrl + X', kemudian 'Y', dan 'Enter' untuk simpan perubahan file.
  8. Jalankan command 'docker-compose up -d' untuk membina dan menjalankan container LiteLLM secara background.
  9. Taip 'docker ps' untuk memastikan status container adalah 'healthy' dan sedang berjalan.

Langkah 2: Konfigurasi Model AI di Admin Panel

  1. Dapatkan API Key dari provider AI pilihan anda (OpenAI, Anthropic, atau X.ai untuk Grok).
  2. Buka browser dan layari alamat IP server anda dengan port 4000 (Contoh: http://123.456.78.90:4000).
  3. Klik pada butang 'LiteLLM Admin Panel UI'.
  4. Log masuk menggunakan username 'admin' dan password 'LLM_MASTER_KEY' yang anda tetapkan dalam file .env tadi.
  5. Pilih provider (Contoh: Anthropic), kemudian pilih model spesifik (Contoh: Claude 3.7) atau pilih 'All Models'.
  6. Masukkan API Key provider tersebut ke dalam ruangan yang disediakan dan klik 'Add Model'.
  7. Ulangi proses ini untuk provider lain seperti Grok atau OpenAI.

Langkah 3: Setup Virtual Keys dan Kawalan Bajet

  1. Klik pada menu 'Virtual Keys' di bahagian atas kiri dashboard LiteLLM.
  2. Klik 'Create New Key'.
  3. Berikan nama pada key tersebut (Contoh: 'Kids-Access') untuk memudahkan pemantauan.
  4. Pilih model mana yang dibenarkan untuk diakses oleh key ini (Contoh: Claude 3.7 sahaja).
  5. Buka bahagian 'Optional Settings' untuk menetapkan had bajet (Contoh: Max budget $20 secara bulanan).
  6. Klik 'Generate' dan salin Virtual Key yang terhasil. Simpan di tempat yang selamat.

Langkah 4: Integrasi ke Open WebUI

  1. Buka interface Open WebUI anda.
  2. Pergi ke bahagian 'Settings' dan cari konfigurasi 'OpenAI API'.
  3. Pada ruangan 'Base URL', masukkan 'http://localhost:4000' (Jika Open WebUI dan LiteLLM berada pada server yang sama).
  4. Masukkan Virtual Key yang anda jana dari LiteLLM ke dalam ruangan 'API Key'.
  5. Klik 'Verify Connection' untuk memastikan sambungan berjaya.
  6. Klik 'Save' dan kini anda boleh memilih model Claude, Grok, atau GPT terus dari chat interface Open WebUI.

More from AI Lokal & Deployment Open Source

View All