Ringkasan

Selesai

Dalam lokakarya ini, Anda belajar cara membuat dan menerapkan rencana mitigasi di empat lapisan mitigasi teknis:

  • Pengalaman pengguna
  • Pesan sistem & grounding
  • Sistem keamanan
  • Model

Meskipun evaluasi manual memungkinkan siswa kelas manusia untuk memeriksa secara spot, performa output, menilai aplikasi Anda dengan bantuan AI di Azure AI Studio adalah langkah penting dalam menemukan kerentanan model dalam skala besar. Melindungi aplikasi Anda dengan Azure AI Content Safety memungkinkan Anda mendeteksi dan mengurangi teks dan gambar yang bermasalah.

Langkah selanjutnya untuk pra-penyebaran aplikasi Anda adalah mengoperalisasi dengan membuat rencana penyebaran dan kesiapan operasional. Pengoperasionalan mencakup perencanaan untuk pengiriman bertahap, mengembangkan rencana respons insiden, dan memastikan Anda membangun fitur dan proses untuk memantau sistem AI dan umpan balik pengguna Anda.

Meskipun proses yang diterapkan saat ini mungkin terlihat linier, ini adalah proses berulang. Saat Anda memperkenalkan fitur baru, memantau penggunaan, dan/atau menerapkan umpan balik pengguna, Anda dianjurkan untuk mengunjungi kembali setiap langkah dalam siklus hidup pengembangan AI generatif.

Catatan

Setelah menyelesaikan lokakarya, jika Anda telah selesai menjelajahi Azure AI Services, hapus sumber daya Azure yang Anda buat selama lokakarya.

Pelajari lebih lanjut

Menanamkan alat dan praktik AI yang bertanggung jawab di LLMops Anda

Katalog dan koleksi model di Azure AI Studio

Kategori bahaya di Azure AI Content Safety

Metrik evaluasi dan pemantauan untuk AI generatif