Bypass safety filter Llama 3.1 dengan teknik Jailbreak Prompt | Alpha | PandaiTech

Bypass safety filter Llama 3.1 dengan teknik Jailbreak Prompt

Cara menggunakan prompt khas (Pliny) untuk memintas sekatan keselamatan model dan mendapatkan jawapan tanpa tapisan (uncensored).

Learning Timeline
Key Insights

Tips Jika Prompt Disekat

Safety filter AI bersifat probabilistik. Jika percubaan pertama gagal, memulakan 'New Chat' yang baru boleh memberikan hasil yang berbeza kerana model akan memproses input tanpa pengaruh konteks perbualan yang gagal tadi.

Kelebihan Teknik Jailbreak

Teknik ini membolehkan pengguna mendapatkan akses kepada pangkalan pengetahuan model secara penuh dan 'uncensored' sebelum versi model yang khusus tanpa tapisan (uncensored models) dikeluarkan secara rasmi oleh komuniti.
Prompts

Pliny Jailbreak Template

Target: Llama 3.1
[Insert Pliny's Llama 3.1 Jailbreak Prompt Here]
Step by Step

Cara Memintas Safety Filter Llama 3.1 (Teknik Pliny)

  1. Jalankan model Llama 3.1 8B pada persekitaran local anda atau platform AI pilihan.
  2. Klik butang 'New Chat' untuk memulakan sesi perbualan yang bersih tanpa sejarah (history) sebelumnya.
  3. Salin (Copy) prompt jailbreak khusus daripada teknik Pliny.
  4. Tampal (Paste) prompt tersebut ke dalam ruangan input chat.
  5. Tekan 'Enter' atau klik butang 'Send' untuk menghantar prompt tersebut.
  6. Perhatikan respons model; jika AI membalas dengan mesej sekatan (seperti "I cannot provide instructions..."), klik semula 'New Chat' untuk 'reset' sesi tersebut.
  7. Ulangi proses 'Paste' dan 'Send' sehingga model memberikan jawapan yang tidak ditapis (uncensored).
  8. Ubah suai (Edit) kandungan di dalam prompt tersebut mengikut topik atau maklumat spesifik yang anda ingin perolehi daripada AI.

More from AI Lokal & Deployment Open Source

View All