Analisis Context Life Cycle dalam Agent Workflows dengan OpenAI Agents Python SDK
Tekan play pada video. Ia akan terus lompat ke bahagian yang menjawab tajuk di
atas — tak perlu tonton video penuh.
Belajar cara pantau penggunaan token dalam sistem ejen AI. Segmen ini menunjukkan bagaimana tool calls, input user, dan system instructions menyumbang kepada penggunaan context window dalam sesuatu session serta impak 'context burst'.
Perbezaan Trimming vs Summarization
Trimming adalah percuma dan pantas (tiada latency) tetapi berisiko kehilangan maklumat lama. Summarization mengekalkan semua info penting tetapi menambah kos API dan latency kerana memerlukan satu lagi call kepada model untuk meringkaskan teks.
Peraturan Emas 'Do Not Break Turns'
Jangan lakukan trimming di tengah-tengah 'turn'. Satu turn merangkumi mesej user sehingga ke respon terakhir ejen. Memisahkan blok ini akan menyebabkan ejen hilang fokus atau 'lose track' terhadap objektif task.
Prompt Best Practices untuk Jimat Context
Gunakan bahasa yang eksplisit dan berstruktur. Terlalu banyak tool definition dalam context akan menyebabkan 'noise'. Lebih baik gunakan tool yang khusus (targeted) dengan boundary yang jelas daripada memasukkan semua tool ke dalam satu ejen.
More from Bina & Deploy Ejen AI
View All
Bina News Tracker Agent dengan Lindy.ai Prompting
Lindy
Slack
Audit dan kemas kini kandungan lapuk secara 'batch' dengan Notion AI Agent
Notion AI Agent
Automasikan tugasan bisnes dengan Google Opal AI Builder
Google Opal
Gemini
Kustomisasi branding ejen dan pilih model AI di Chatbase
Chatbase
ChatGPT
Implementasi Context Summarization dengan OpenAI Agents Python SDK
OpenAI Agents Python SDK
Cara Crafting Summarization Prompt untuk Memori Ejen AI
ChatGPT