Learning Timeline
Key Insights
Tips Jika Prompt Disekat
Safety filter AI bersifat probabilistik. Jika percubaan pertama gagal, memulakan 'New Chat' yang baru boleh memberikan hasil yang berbeza kerana model akan memproses input tanpa pengaruh konteks perbualan yang gagal tadi.
Kelebihan Teknik Jailbreak
Teknik ini membolehkan pengguna mendapatkan akses kepada pangkalan pengetahuan model secara penuh dan 'uncensored' sebelum versi model yang khusus tanpa tapisan (uncensored models) dikeluarkan secara rasmi oleh komuniti.
Prompts
Pliny Jailbreak Template
Target:
Llama 3.1
[Insert Pliny's Llama 3.1 Jailbreak Prompt Here]
Step by Step
Cara Memintas Safety Filter Llama 3.1 (Teknik Pliny)
- Jalankan model Llama 3.1 8B pada persekitaran local anda atau platform AI pilihan.
- Klik butang 'New Chat' untuk memulakan sesi perbualan yang bersih tanpa sejarah (history) sebelumnya.
- Salin (Copy) prompt jailbreak khusus daripada teknik Pliny.
- Tampal (Paste) prompt tersebut ke dalam ruangan input chat.
- Tekan 'Enter' atau klik butang 'Send' untuk menghantar prompt tersebut.
- Perhatikan respons model; jika AI membalas dengan mesej sekatan (seperti "I cannot provide instructions..."), klik semula 'New Chat' untuk 'reset' sesi tersebut.
- Ulangi proses 'Paste' dan 'Send' sehingga model memberikan jawapan yang tidak ditapis (uncensored).
- Ubah suai (Edit) kandungan di dalam prompt tersebut mengikut topik atau maklumat spesifik yang anda ingin perolehi daripada AI.