✦ Secure AI Playground

Uji prompt, pahami bias, dan pelajari keamanan AI dalam satu tempat.

Uji Coba Prompt AI

Tulis instruksimu di sini. Latih cara membuat prompt yang presisi dan aman.

Respons AI akan muncul di sini...

Simulasi Bias pada AI

Algoritma bisa memiliki bias berdasarkan data pelatihannya. Pilih skenario untuk membandingkan output bias vs netral.

⚠️ Contoh Output Bias

Menunggu simulasi...

✅ Contoh Output Aman/Netral

Menunggu simulasi...

Glosarium Keamanan AI

Pahami ancaman umum saat mengintegrasikan AI ke dalam aplikasi.

💉 Prompt Injection

Teknik manipulasi di mana *user* menyisipkan perintah tersembunyi untuk membajak sistem AI agar mengabaikan instruksi asli dari developer.

🌫️ Halusinasi (Hallucination)

Kondisi saat AI dengan sangat percaya diri menghasilkan informasi palsu, tidak masuk akal, atau fakta yang salah seolah-olah itu benar.

🗃️ Kebocoran Data (Data Leakage)

Risiko ketika AI secara tidak sengaja memuntahkan informasi sensitif atau rahasia yang tidak seharusnya diakses oleh pengguna biasa.