Bagikan melalui


Kecerdasan Buatan Bertanggung Jawab untuk Microsoft Foundry

Artikel ini memberikan gambaran umum tentang sumber daya untuk membangun dan menyebarkan agen AI yang dapat dipercaya. Ini termasuk keamanan end-to-end, pengamatan, dan tata kelola dengan kontrol dan titik pemeriksaan di semua tahap siklus hidup agen. Langkah-langkah pengembangan penting yang direkomendasikan kami adalah didasarkan pada Microsoft Responsible AI Standard, yang menetapkan persyaratan kebijakan yang diikuti oleh tim rekayasa kami sendiri. Sebagian besar konten Standar mengikuti pola, meminta tim untuk Menemukan, Melindungi, dan Mengatur potensi risiko konten.

Di Microsoft, pendekatan kami dipandu oleh kerangka kerja tata kelola yang berakar pada prinsip-prinsip AI, yang menetapkan persyaratan produk dan berfungsi sebagai "bintang utara" kami. Ketika kami mengidentifikasi kasus penggunaan bisnis untuk AI generatif, pertama-tama kami menemukan dan menilai potensi risiko sistem AI untuk menentukan area fokus penting.

Setelah kami mengidentifikasi risiko ini, kami mengevaluasi prevalensinya dalam sistem AI melalui pengukuran sistematis, membantu kami memprioritaskan area yang perlu diperhatikan. Kami kemudian menerapkan perlindungan yang sesuai pada tingkat model dan agen terhadap risiko tersebut.

Terakhir, kami memeriksa strategi untuk mengelola risiko dalam produksi, termasuk penyebaran, kesiapan operasional, serta menyiapkan pemantauan untuk mendukung tata kelola yang sedang berlangsung guna memastikan kepatuhan dan mengidentifikasi risiko baru setelah aplikasi diterapkan.

Selaras dengan praktik RAI Microsoft, rekomendasi ini diatur ke dalam tiga tahap:

  • Temukan risiko kualitas, keselamatan, dan keamanan agen sebelum dan sesudah penyebaran. Misalnya, uji agen Anda dengan perintah bersifat antagonis untuk mengidentifikasi potensi kerentanan pada sistem jailbreak.
  • Lindungi – pada tingkat output model dan runtime agen – terhadap risiko keamanan, output yang tidak diinginkan, dan tindakan yang tidak aman. Gunakan filter konten dan Pagar pembatas untuk memblokir output berbahaya sebelum mencapai pengguna.
  • Mengatur agen melalui alat pelacakan dan pemantauan serta integrasi kepatuhan. Siapkan pemantauan berkelanjutan untuk melacak perilaku agen dan mendeteksi anomali dalam produksi.

Melihat dan merespons pemberitahuan keamanan

Anda dapat melihat pemberitahuan dan rekomendasi keamanan Defender for Cloud untuk meningkatkan postur keamanan Anda di bagian Risiko + pemberitahuan . Pemberitahuan keamanan adalah pemberitahuan yang dihasilkan oleh paket Alat Defender for Foundry saat ancaman diidentifikasi dalam beban kerja AI Anda. Anda dapat mengambil tindakan di Azure portal atau di portal Defender untuk mengatasi pemberitahuan ini.

Untuk melihat pemberitahuan keamanan:

  1. Masuk ke portal Microsoft Foundry.
  2. Navigasi ke project Anda.
  3. Di navigasi kiri, pilih Risiko + pemberitahuan.
  4. Tinjau pemberitahuan dan rekomendasi aktif.
  5. Pilih pemberitahuan untuk melihat detail dan langkah-langkah remediasi.

Pelajari selengkapnya tentang AI yang bertanggung jawab