Mulai Cepat: Azure AI Content Safety Studio
Artikel ini menjelaskan cara memulai layanan Azure AI Content Safety menggunakan Content Safety Studio di browser Anda.
Perhatian
Beberapa konten sampel yang disediakan oleh Content Safety Studio mungkin menyinggung. Gambar sampel dikaburkan secara default. Kebijaksanaan pengguna disarankan.
Prasyarat
- Akun Azure. Jika Anda tidak memilikinya, Anda dapat membuatnya secara gratis.
- Sumber daya Content Safety Azure.
- Tetapkan peran Pengguna Cognitive Services ke akun Anda. Buka portal Azure, navigasikan ke sumber daya Keamanan Konten atau sumber daya Azure AI Services Anda, dan pilih Kontrol Akses di bilah navigasi kiri, lalu pilih + Tambahkan penetapan peran, pilih peran Pengguna Cognitive Services, dan pilih anggota akun yang perlu Anda tetapkan peran ini, lalu tinjau dan tetapkan. Mungkin perlu waktu beberapa menit agar penetapan berlaku.
- Masuk ke Content Safety Studio dengan langganan Azure dan sumber daya Content Safety Anda.
Penting
Anda harus menetapkan peran Pengguna Cognitive Services ke akun Azure Anda untuk menggunakan pengalaman studio. Buka portal Azure, navigasikan ke sumber daya Keamanan Konten atau sumber daya Azure AI Services Anda, dan pilih Kontrol Akses di bilah navigasi kiri, lalu pilih + Tambahkan penetapan peran, pilih peran Pengguna Cognitive Services, dan pilih anggota akun yang perlu Anda tetapkan peran ini, lalu tinjau dan tetapkan. Mungkin perlu waktu beberapa menit agar penetapan berlaku.
Analisa konten teks
Halaman Konten teks Sedang menyediakan kemampuan bagi Anda untuk mencoba moderasi teks dengan cepat.
- Pilih panel Moderasi konten teks.
- Tambahkan teks ke bidang input, atau pilih teks sampel dari panel di halaman.
- Pilih Jalankan pengujian.
Layanan mengembalikan semua kategori yang terdeteksi, dengan tingkat keparahan untuk masing-masing: 0-Aman, 2-Rendah, 4-Sedang, 6-Tinggi. Ini juga mengembalikan hasil Biner Diterima Ditolak/, berdasarkan filter yang Anda konfigurasikan. Gunakan matriks di tab Konfigurasi filter untuk mengatur tingkat keparahan yang diizinkan/dilarang untuk setiap kategori. Kemudian Anda dapat menjalankan teks lagi untuk melihat cara kerja filter.
Tab Gunakan daftar blokir memungkinkan Anda membuat, mengedit, dan menambahkan daftar blokir ke alur kerja moderasi. Jika Anda mengaktifkan daftar blokir saat menjalankan pengujian, Anda mendapatkan panel deteksi Daftar blokir di bawah Hasil. Ini melaporkan kecocokan dengan daftar blokir.
Mendeteksi serangan input pengguna
Panel Prompt Shields memungkinkan Anda mencoba deteksi risiko input pengguna. Deteksi Permintaan Pengguna yang dirancang untuk memprovokasi model AI Generatif ke dalam perilaku pameran yang dilatih untuk menghindari atau melanggar aturan yang ditetapkan dalam Pesan Sistem. Serangan ini dapat bervariasi dari peran yang rumit hingga subversi yang halus dari tujuan keselamatan.
- Pilih panel Prompt Shields .
- Pilih teks sampel di halaman, atau masukkan konten Anda sendiri untuk pengujian. Anda juga dapat mengunggah file CSV untuk melakukan pengujian batch.
- Pilih Jalankan pengujian.
Layanan mengembalikan bendera risiko dan jenis untuk setiap sampel.
Untuk informasi selengkapnya, lihat panduan konseptual Prompt Shields.
Analisa konten gambar
Halaman Konten gambar Moderat menyediakan kemampuan bagi Anda untuk dengan cepat mencoba moderasi gambar.
- Pilih panel Konten gambar sedang.
- Pilih gambar sampel dari panel di halaman, atau unggah gambar Anda sendiri. Ukuran maksimum untuk pengiriman gambar adalah 4 MB, dan dimensi gambar harus antara 50 x 50 piksel dan 2.048 x 2.048 piksel. Gambar dapat dalam format JPEG, PNG, GIF, BMP, TIFF, atau WEBP.
- Pilih Jalankan pengujian.
Layanan mengembalikan semua kategori yang terdeteksi, dengan tingkat keparahan untuk masing-masing: 0-Aman, 2-Rendah, 4-Sedang, 6-Tinggi. Ini juga mengembalikan hasil Biner Diterima Ditolak/, berdasarkan filter yang Anda konfigurasikan. Gunakan matriks di tab Konfigurasi filter di sebelah kanan untuk mengatur tingkat keparahan yang diizinkan/dilarang untuk setiap kategori. Kemudian Anda dapat menjalankan teks lagi untuk melihat cara kerja filter.
Menampilkan dan mengekspor kode
Anda dapat menggunakan fitur Tampilkan Kode di halaman Analisis konten teks atau Analisis konten gambar untuk melihat dan menyalin kode sampel, yang mencakup konfigurasi untuk pemfilteran tingkat keparahan, daftar blokir, dan fungsi moderasi. Anda kemudian dapat menyebarkan kode di akhir Anda.
Memantau aktivitas online
Panel Aktivitas online Monitor memungkinkan Anda melihat penggunaan dan tren API Anda.
Anda dapat memilih jenis Media mana yang akan dipantau. Anda juga dapat menentukan rentang waktu yang ingin Anda periksa dengan memilih Tampilkan data untuk __terakhir.
Dalam bagan Tolak tarif per kategori, Anda juga dapat menyesuaikan ambang keparahan untuk setiap kategori.
Anda juga dapat mengedit daftar blokir jika Anda ingin mengubah beberapa istilah, berdasarkan bagan 10 istilah yang diblokir teratas.
Mengelola sumber daya Anda
Untuk melihat detail sumber daya seperti nama dan tingkat harga, pilih ikon Pengaturan di sudut kanan atas halaman beranda Content Safety Studio dan pilih tab Sumber Daya . Jika Anda memiliki sumber daya lain, Anda juga dapat beralih sumber daya di sini.
Membersihkan sumber daya
Jika Anda ingin membersihkan dan menghapus sumber daya layanan Azure AI, Anda dapat menghapus sumber daya atau grup sumber daya. Menghapus grup sumber daya juga menghapus sumber daya apa pun yang terkait dengannya.
Langkah selanjutnya
Selanjutnya, mulai menggunakan Azure AI Content Safety melalui REST API atau SDK klien, sehingga Anda dapat mengintegrasikan layanan dengan mulus ke dalam aplikasi Anda.