Setup Context Window setting dalam LM Studio untuk memori AI lebih baik | Alpha | PandaiTech

Setup Context Window setting dalam LM Studio untuk memori AI lebih baik

Panduan untuk melaras saiz context window bagi mengelakkan masalah AI 'lupa' topik perbualan dan memahami had token dalam model tempatan.

Learning Timeline
Key Insights

Memahami Cara AI Mengira Teks

AI tidak mengira jumlah perkataan atau karakter secara tradisional. Ia menggunakan 'Tokens'. Sebagai contoh, satu ayat mungkin mempunyai 26 perkataan tetapi dikira sebagai 38 tokens oleh LLM.

Punca AI Menjadi 'Pelupa'

Apabila indikator penggunaan token melebihi 100%, AI akan mula membuang maklumat terawal dalam perbualan untuk memberi ruang kepada token baharu. Ini menyebabkan AI 'lupa' topik asal.

Kesan Menambah Context Window

Meningkatkan Context Window (contohnya dari 2048 ke 4096) membolehkan AI mengingati perbualan yang lebih panjang, namun ia akan menggunakan lebih banyak memori komputer (VRAM/RAM) anda.
Prompts

Ujian Memori AI

Target: LM Studio
Right now I'm reading a book called How to Take Smart Notes.

Prompt Menambah Penggunaan Token

Target: LM Studio
Tell me a story about cows.

Semakan Semula Memori

Target: LM Studio
What book am I reading right now?
Step by Step

Cara Melaraskan Context Window dalam LM Studio

  1. Buka aplikasi LM Studio pada komputer anda.
  2. Pilih local model yang ingin digunakan daripada senarai (contoh: GEMMA 3 4B).
  3. Cari panel tetapan konfigurasi di sebelah kanan skrin.
  4. Cari bahagian 'Context Length' atau 'Context Window'.
  5. Masukkan nilai token yang diingini (contoh: Tukar dari 2048 ke 4096 untuk memori yang lebih besar).
  6. Klik butang 'Load Model' yang berwarna biru di bahagian atas.
  7. Klik pada tab 'AI Chat' (ikon mesej) di bar sisi kiri untuk memulakan sesi baharu.
  8. Taip pesanan anda dalam kotak chat dan tekan Enter.
  9. Pantau indikator 'Usage' di bahagian bawah skrin untuk melihat peratusan kapasiti token yang telah digunakan.
  10. Jika AI mula melupakan maklumat awal, klik butang 'Eject Model' di bahagian atas.
  11. Ulang langkah melaraskan 'Context Length' ke nilai yang lebih tinggi, kemudian klik 'Load Model' semula.

More from AI Lokal & Deployment Open Source

View All