Mengembangkan Aplikasi dan Fitur AI Generatif yang Bertanggung Jawab di Windows
Dokumen ini memberikan gambaran umum tentang praktik pengembangan yang bertanggung jawab yang direkomendasikan untuk digunakan saat Anda membuat aplikasi dan fitur di Windows dengan kecerdasan buatan generatif.
Panduan untuk pengembangan aplikasi dan fitur AI generatif yang bertanggung jawab di Windows
Setiap tim di Microsoft mengikuti prinsip dan praktik inti untuk membangun dan mengirim AI secara bertanggung jawab, termasuk Windows. Anda dapat membaca selengkapnya tentang pendekatan Microsoft untuk pengembangan yang bertanggung jawab dalam Laporan Transparansi AI bertanggung jawab tahunan pertama. Windows mengikuti pilar dasar pengembangan RAI — mengatur, memetakan, mengukur, dan mengelola — yang selaras dengan Kerangka Kerja Manajemen Risiko AI Institut Nasional untuk Standar dan Teknologi (NIST).
Mengatur - Kebijakan, praktik, dan proses
Standar adalah dasar proses tata kelola dan kepatuhan. Microsoft telah mengembangkan Standar AI Bertanggung Jawab kami sendiri , termasuk enam prinsip yang dapat Anda gunakan sebagai titik awal untuk mengembangkan panduan Anda untuk AI yang bertanggung jawab. Kami sarankan Anda membangun prinsip AI ke dalam siklus hidup pengembangan Anda secara menyeluruh, serta ke dalam proses dan alur kerja Anda untuk kepatuhan terhadap hukum dan peraturan di seluruh AI privasi, keamanan, dan tanggung jawab. Ini mencakup dari penilaian awal setiap fitur AI, menggunakan alat seperti Daftar Periksa Kewajaran AI dan Panduan Interaksi Human-AI - Microsoft Research, hingga pemantauan dan peninjauan tolok ukur AI, pengujian dan proses menggunakan alat seperti kartu skor AI yang Bertanggung Jawab, hingga dokumentasi publik ke dalam kemampuan dan batasan fitur AI Anda dan pengungkapan dan kontrol pengguna -- perhatikan, persetujuan, pengumpulan data, dan informasi pemrosesan, dll. -- sesuai dengan undang-undang privasi, persyaratan peraturan, dan kebijakan yang berlaku.
Peta - Identifikasi risiko
Praktik yang direkomendasikan untuk mengidentifikasi risiko meliputi:
Pengujian ujung-ke-ujung
Red-teaming: Istilah red teaming secara historis menggambarkan serangan musuh sistematis untuk menguji kerentanan keamanan. Dengan munculnya model bahasa besar (LLM), istilah ini telah melampaui keamanan cyber tradisional dan berkembang dalam penggunaan umum untuk menggambarkan banyak jenis pemeriksaan, pengujian, dan serangan sistem AI. Dengan LLM, penggunaan jinak dan adversarial dapat menghasilkan output yang berpotensi berbahaya, yang dapat mengambil banyak bentuk, termasuk konten berbahaya seperti ujaran kebencian, hasrat atau pemuliaan kekerasan, atau konten seksual.
Evaluasi model: Selain menguji end-to-end, penting juga untuk mengevaluasi model itu sendiri.
Kartu Model: Untuk model yang tersedia untuk umum, seperti yang ada di HuggingFace, Anda dapat memeriksa Kartu Model setiap model sebagai referensi yang berguna untuk memahami apakah model adalah yang tepat untuk kasus penggunaan Anda. Baca selengkapnya tentang Kartu Model.
Pengujian manual: Manusia melakukan pengujian langkah demi langkah tanpa skrip adalah komponen penting dari evaluasi model yang mendukung...
Mengukur kemajuan pada sekumpulan kecil masalah prioritas. Saat mengurangi bahaya tertentu, seringkali paling produktif untuk terus memeriksa kemajuan secara manual terhadap himpunan data kecil sampai bahaya tidak lagi diamati sebelum pindah ke pengukuran otomatis.
Menentukan dan melaporkan metrik sampai pengukuran otomatis cukup dapat diandalkan untuk digunakan sendiri.
Pemeriksaan spot secara berkala untuk mengukur kualitas pengukuran otomatis.
Pengujian otomatis: Pengujian yang dijalankan secara otomatis juga merupakan komponen penting dari evaluasi model yang mendukung...
Mengukur dalam skala besar dengan peningkatan cakupan untuk memberikan hasil yang lebih komprehensif.
Pengukuran yang sedang berlangsung untuk memantau regresi apa pun saat sistem, penggunaan, dan mitigasi berevolusi.
Pemilihan model: Pilih model yang cocok untuk tujuan Anda dan edukasi diri Anda untuk memahami kemampuan, batasan, dan potensi tantangan keselamatannya. Saat menguji model Anda, pastikan model tersebut menghasilkan hasil yang sesuai untuk penggunaan Anda. Untuk memulai, tujuan untuk sumber model Microsoft (dan non-Microsoft/sumber terbuka) meliputi:
Ukuran - Menilai risiko dan mitigasi
Praktik yang direkomendasikan meliputi:
Menetapkan Content Moderator: Content Moderator memeriksa konten teks, gambar, dan video untuk materi yang berpotensi menyinggung, berisiko, atau tidak diinginkan dalam konten. Pelajari selengkapnya: Pengantar Content Moderator (Pelatihan Microsoft Learn).
Gunakan filter keamanan konten: Ansambel model klasifikasi multi-kelas ini mendeteksi empat kategori konten berbahaya (kekerasan, kebencian, seksual, dan bahaya diri) masing-masing pada empat tingkat keparahan (aman, rendah, sedang, dan tinggi). Pelajari selengkapnya: Cara mengonfigurasi filter konten dengan Azure OpenAI Service.
Terapkan meta-prompt: Meta-prompt adalah pesan sistem yang disertakan di awal perintah dan digunakan untuk memandikan model dengan konteks, instruksi, atau informasi lain yang relevan dengan kasus penggunaan Anda. Instruksi ini digunakan untuk memandu perilaku model. Pelajari lebih lanjut: Membuat pagar pembatas keamanan yang efektif dengan metaprompt / rekayasa pesan sistem.
Menggunakan daftar blokir: Ini memblokir penggunaan istilah atau pola tertentu dalam perintah. Pelajari selengkapnya: Gunakan daftar blokir di Azure OpenAI.
Kenali bukti model: Pembuktian adalah sejarah kepemilikan model, atau who-what-where-when, dan sangat penting untuk dipahami. Siapa yang mengumpulkan data dalam model? Siapa yang berkaitan dengan data? Jenis data apa yang digunakan? Di mana data dikumpulkan? Kapan data dikumpulkan? Mengetahui dari mana data model berasal dapat membantu Anda menilai kualitas, keandalan, dan menghindari penggunaan data yang tidak etis, tidak adil, bias, atau tidak akurat.
Gunakan alur standar: Gunakan satu con mode tenda ration pipeline daripada menarik bersama-sama bagian sepotong. Pelajari selengkapnya: Memahami alur pembelajaran mesin.
Menerapkan mitigasi UI: Ini memberikan kejelasan penting kepada pengguna Anda tentang kemampuan dan batasan fitur berbasis AI. Untuk membantu pengguna dan memberikan transparansi tentang fitur Anda, Anda dapat:
Mendorong pengguna untuk mengedit output sebelum menerimanya
Menyoroti potensi ketidakakuratan dalam output AI
Mengungkapkan peran AI dalam interaksi
Mengutip referensi dan sumber
Batasi panjang input dan output jika sesuai
Berikan struktur keluar input atau output – perintah harus mengikuti format standar
Siapkan respons yang telah ditentukan sebelumnya untuk perintah kontroversial.
Kelola - Mengurangi risiko AI
Rekomendasi untuk mengurangi risiko AI meliputi:
Pemantauan penyalahgunaan: Metodologi ini mendeteksi dan mengurangi instans konten dan/atau perilaku berulang yang menyarankan layanan telah digunakan dengan cara yang dapat melanggar Kode Etik atau ketentuan produk lain yang berlaku. Pelajari lebih lanjut: Pemantauan Penyalahgunaan.
Pengiriman bertahap: Luncurkan solusi AI Anda secara perlahan untuk menangani laporan dan kekhawatiran masuk.
Rencana respons insiden: Untuk setiap risiko prioritas tinggi, evaluasi apa yang akan terjadi dan berapa lama waktu yang diperlukan untuk menanggapi insiden, dan seperti apa proses responsnya.
Kemampuan untuk menonaktifkan fitur atau sistem: Menyediakan fungsionalitas untuk menonaktifkan fitur jika insiden akan atau telah terjadi yang memerlukan jeda fungsionalitas untuk menghindari bahaya lebih lanjut.
Kontrol/pemblokiran akses pengguna: Kembangkan cara untuk memblokir pengguna yang menyalahgunakan sistem.
Mekanisme umpan balik pengguna: Aliran untuk mendeteksi masalah dari sisi pengguna.
Penyebaran data telemetri yang bertanggung jawab: Mengidentifikasi, mengumpulkan, dan memantau sinyal yang menunjukkan kepuasan pengguna atau kemampuan mereka untuk menggunakan sistem sebagaimana dimaksud, memastikan Anda mengikuti undang-undang privasi, kebijakan, dan komitmen yang berlaku. Gunakan data telemetri untuk mengidentifikasi celah dan meningkatkan sistem.
Alat dan sumber daya
Kotak Alat AI yang bertanggung jawab: AI yang bertanggung jawab adalah pendekatan untuk menilai, mengembangkan, dan menyebarkan sistem AI dengan cara yang aman, dapat dipercaya, dan beretika. Kotak alat AI Yang Bertanggung Jawab adalah serangkaian alat yang menyediakan kumpulan model dan eksplorasi data dan penilaian antarmuka dan pustaka pengguna yang memungkinkan pemahaman yang lebih baik tentang sistem AI. Antarmuka dan pustaka ini memberdayakan pengembang dan pemangku kepentingan sistem AI untuk mengembangkan dan memantau AI dengan lebih bertanggung jawab dan mengambil tindakan berbasis data yang lebih baik.
Penelusuran Kesalahan Model Dasbor AI yang bertanggung jawab: Dasbor ini dapat membantu Anda Mengidentifikasi, Mendiagnosis, dan Mengurangi masalah, menggunakan data untuk mengambil tindakan berdasarkan informasi. Pengalaman yang dapat disesuaikan ini dapat diambil dalam banyak arah, dari menganalisis model atau data secara holistik, hingga melakukan penyelaman atau perbandingan mendalam tentang kohor yang menarik, hingga menjelaskan dan mengganggu prediksi model untuk instans individu, dan untuk memberi tahu pengguna tentang keputusan dan tindakan bisnis. Ambil Kuis Pengambilan Keputusan AI yang Bertanggung Jawab.
Tinjau ringkasan Azure Pembelajaran Mesin tentang Apa itu AI Yang Bertanggung Jawab?
Baca Pendekatan untuk Bertanggung Jawab AI untuk Copilot di Bing.
Baca artikel Brad Smith tentang Memerangi konten yang dihasilkan AI yang kasar: pendekatan komprehensif dari 13 Feb 2024.
Baca Blog Keamanan Microsoft.
Gambaran umum praktik AI yang Bertanggung Jawab untuk model Azure OpenAI - Layanan Azure AI
Cara menggunakan filter konten (pratinjau) dengan Azure OpenAI Service
Merencanakan tim merah untuk model bahasa besar (LLM) dan aplikasi mereka
Pivot AI/ML ke keamanan. Bilah bug siklus hidup pengembangan
Alat untuk Mengelola dan Mengidentifikasi Mitigasi AI yang Bertanggung Jawab - Microsoft Research
Analisis Kesalahan dan Bangun AI yang Bertanggung Jawab menggunakan toolkit Analisis Kesalahan (youtube.com)
InterpretML dan Cara Menjelaskan Model dengan IntepretML Deep Dive (youtube.com)
Penjelasan Kotak Hitam dan Kotak Kaca di Pembelajaran Mesin (youtube.com)