Learning Timeline
Key Insights
Memahami Cara AI Mengira Teks
AI tidak mengira jumlah perkataan atau karakter secara tradisional. Ia menggunakan 'Tokens'. Sebagai contoh, satu ayat mungkin mempunyai 26 perkataan tetapi dikira sebagai 38 tokens oleh LLM.
Punca AI Menjadi 'Pelupa'
Apabila indikator penggunaan token melebihi 100%, AI akan mula membuang maklumat terawal dalam perbualan untuk memberi ruang kepada token baharu. Ini menyebabkan AI 'lupa' topik asal.
Kesan Menambah Context Window
Meningkatkan Context Window (contohnya dari 2048 ke 4096) membolehkan AI mengingati perbualan yang lebih panjang, namun ia akan menggunakan lebih banyak memori komputer (VRAM/RAM) anda.
Prompts
Ujian Memori AI
Target:
LM Studio
Right now I'm reading a book called How to Take Smart Notes.
Prompt Menambah Penggunaan Token
Target:
LM Studio
Tell me a story about cows.
Semakan Semula Memori
Target:
LM Studio
What book am I reading right now?
Step by Step
Cara Melaraskan Context Window dalam LM Studio
- Buka aplikasi LM Studio pada komputer anda.
- Pilih local model yang ingin digunakan daripada senarai (contoh: GEMMA 3 4B).
- Cari panel tetapan konfigurasi di sebelah kanan skrin.
- Cari bahagian 'Context Length' atau 'Context Window'.
- Masukkan nilai token yang diingini (contoh: Tukar dari 2048 ke 4096 untuk memori yang lebih besar).
- Klik butang 'Load Model' yang berwarna biru di bahagian atas.
- Klik pada tab 'AI Chat' (ikon mesej) di bar sisi kiri untuk memulakan sesi baharu.
- Taip pesanan anda dalam kotak chat dan tekan Enter.
- Pantau indikator 'Usage' di bahagian bawah skrin untuk melihat peratusan kapasiti token yang telah digunakan.
- Jika AI mula melupakan maklumat awal, klik butang 'Eject Model' di bahagian atas.
- Ulang langkah melaraskan 'Context Length' ke nilai yang lebih tinggi, kemudian klik 'Load Model' semula.