Semak ketepatan fakta AI dengan Cleanlab Trustworthy Language Model | Alpha | PandaiTech

Semak ketepatan fakta AI dengan Cleanlab Trustworthy Language Model

Cara menggunakan tool TLM untuk mengesan halusinasi LLM dan mendapatkan skor keyakinan pada jawapan RAG.

Learning Timeline
Key Insights

Akses Tanpa Pendaftaran

Anda boleh mencuba demo Cleanlab TLM terus di laman web mereka tanpa perlu melakukan proses 'Sign Up' terlebih dahulu.

Kepentingan Trustworthiness Score

Skor ini sangat kritikal untuk penggunaan AI dalam perniagaan kerana ia memberitahu anda sama ada fakta yang diberikan oleh AI boleh dipercayai atau sekadar rekaan (hallucination).

Integrasi RAG

Sistem ini paling berkesan apabila digunakan bersama RAG, di mana AI akan menyemak silang jawapannya dengan dokumen rujukan yang anda lampirkan.
Prompts

Mengenal Pasti Sumber Dokumen

Target: Cleanlab TLM
Identify the source of the following data document
Step by Step

Cara Mengesan Halusinasi AI Menggunakan Cleanlab TLM

  1. Layari laman web Cleanlab Trustworthy Language Model (TLM).
  2. Sediakan dokumen atau fail luaran yang ingin digunakan sebagai rujukan RAG (Retrieval-Augmented Generation).
  3. Klik pada menu dropdown 'Presets' untuk memilih senario ujian yang disediakan.
  4. Pilih contoh senario seperti 'Identify the source of the following data document'.
  5. Masukkan soalan atau prompt yang berkaitan dengan data dalam dokumen yang dilampirkan.
  6. Klik butang jana untuk mendapatkan jawapan daripada LLM.
  7. Lihat pada bahagian 'Trustworthiness Score' yang dipaparkan bersama jawapan untuk menilai tahap ketepatan fakta.
  8. Bandingkan skor tersebut; skor yang tinggi menunjukkan jawapan selari dengan data RAG, manakala skor rendah menandakan potensi halusinasi.

More from Tingkatkan Produktiviti & Mudahkan Research dengan AI

View All