Model tanggung jawab bersama kecerdasan buatan (AI)

Saat Anda mempertimbangkan dan mengevaluasi integrasi yang diaktifkan AI, sangat penting untuk memahami model tanggung jawab bersama dan tugas mana yang ditangani platform AI atau penyedia aplikasi dan tugas mana yang Anda tangani. Tanggung jawab beban kerja bervariasi tergantung pada apakah integrasi AI didasarkan pada Software as a Service (SaaS), Platform as a Service (PaaS), atau Infrastructure as a Service (IaaS).

Pembagian tanggung jawab

Seperti halnya layanan cloud, Anda memiliki opsi saat menerapkan kemampuan AI untuk organisasi Anda. Bergantung pada opsi mana yang Anda pilih, Anda bertanggung jawab atas berbagai bagian dari operasi dan kebijakan yang diperlukan untuk menggunakan AI dengan aman.

Diagram berikut mengilustrasikan area tanggung jawab antara Anda dan Microsoft sesuai dengan jenis penyebaran.

Diagram showing AI responsibility zones.

Gambaran umum lapisan AI

Aplikasi yang diaktifkan AI terdiri dari tiga lapisan fungsionalitas yang mengelompokkan tugas bersama-sama, yang dilakukan oleh Anda atau penyedia AI. Tanggung jawab keamanan umumnya berada bersama siapa pun yang melakukan tugas, tetapi penyedia AI dapat memilih untuk mengekspos keamanan atau kontrol lain sebagai opsi konfigurasi yang sesuai untuk Anda. Ketiga lapisan ini meliputi:

Platform AI

Lapisan platform AI menyediakan kemampuan AI untuk aplikasi. Pada lapisan platform, ada kebutuhan untuk membangun dan melindungi infrastruktur yang menjalankan model AI, data pelatihan, dan konfigurasi tertentu yang mengubah perilaku model, seperti bobot dan bias. Lapisan ini menyediakan akses ke fungsionalitas melalui API, yang meneruskan teks yang dikenal sebagai Metaprompt ke model AI untuk diproses, lalu mengembalikan hasil yang dihasilkan, yang dikenal sebagai Prompt-Response.

Pertimbangan keamanan platform AI - Untuk melindungi platform AI dari input berbahaya, sistem keamanan harus dibangun untuk memfilter instruksi yang berpotensi berbahaya yang dikirim ke model AI (input). Karena model AI bersifat generatif, ada juga potensi bahwa beberapa konten berbahaya mungkin dihasilkan dan dikembalikan ke pengguna (output). Sistem keamanan apa pun harus terlebih dahulu melindungi dari input dan output yang berpotensi berbahaya dari banyak klasifikasi termasuk kebencian, jailbreak, dan lainnya. Klasifikasi ini kemungkinan akan berkembang dari waktu ke waktu berdasarkan pengetahuan model, lokal, dan industri.

Microsoft memiliki sistem keamanan bawaan untuk penawaran PaaS dan SaaS:

Aplikasi AI

Aplikasi AI mengakses kemampuan AI dan menyediakan layanan atau antarmuka yang digunakan pengguna. Komponen dalam lapisan ini dapat bervariasi dari yang relatif sederhana hingga sangat kompleks, tergantung pada aplikasi. Aplikasi AI mandiri paling sederhana bertindak sebagai antarmuka ke sekumpulan API yang mengambil permintaan pengguna berbasis teks dan meneruskan data tersebut ke model untuk respons. Aplikasi AI yang lebih kompleks mencakup kemampuan untuk membumikan permintaan pengguna dengan konteks tambahan, termasuk lapisan persistensi, indeks semantik, atau melalui plugin untuk memungkinkan akses ke lebih banyak sumber data. Aplikasi AI tingkat lanjut mungkin juga berinteraksi dengan aplikasi dan sistem yang ada. Aplikasi dan sistem yang ada mungkin berfungsi di seluruh teks, audio, dan gambar untuk menghasilkan berbagai jenis konten.

Pertimbangan keamanan aplikasi AI - Sistem keamanan aplikasi harus dibangun untuk melindungi aplikasi AI dari aktivitas berbahaya. Sistem keamanan memberikan inspeksi mendalam terhadap konten yang digunakan dalam Metaprompt yang dikirim ke model AI. Sistem keamanan juga memeriksa interaksi dengan plugin, konektor data, dan aplikasi AI lainnya (dikenal sebagai AI Orchestration). Salah satu cara Anda dapat menggabungkan ini dalam aplikasi AI berbasis IaaS/PaaS Anda sendiri adalah dengan menggunakan layanan Azure AI Content Brankas ty. Kemampuan lain tersedia tergantung pada kebutuhan Anda.

Penggunaan AI

Lapisan penggunaan AI menjelaskan bagaimana kemampuan AI pada akhirnya digunakan dan digunakan. AI generatif menawarkan jenis antarmuka pengguna/komputer baru yang pada dasarnya berbeda dari antarmuka komputer lain, seperti API, command-prompt, dan antarmuka pengguna grafis (GUI). Antarmuka AI generatif bersifat interaktif dan dinamis, memungkinkan kemampuan komputer untuk menyesuaikan diri dengan pengguna dan niat mereka. Antarmuka AI generatif berbeda dengan antarmuka sebelumnya yang terutama memaksa pengguna untuk mempelajari desain dan fungsionalitas sistem dan menyesuaikannya. Interaktivitas ini memungkinkan input pengguna, alih-alih perancang aplikasi, untuk memiliki tingkat pengaruh yang tinggi dari output sistem, membuat pagar pembatas keselamatan penting untuk melindungi orang, data, dan aset bisnis.

Pertimbangan keamanan penggunaan AI - Melindungi penggunaan AI mirip dengan sistem komputer apa pun karena bergantung pada jaminan keamanan untuk kontrol identitas dan akses, perlindungan dan pemantauan perangkat, perlindungan dan tata kelola data, kontrol administratif, dan kontrol lainnya.

Lebih banyak penekanan diperlukan pada perilaku pengguna dan akuntabilitas karena peningkatan pengaruh pengguna pada output sistem. Sangat penting untuk memperbarui kebijakan penggunaan yang dapat diterima dan mendidik pengguna tentang perbedaan aplikasi IT standar ke aplikasi yang diaktifkan AI. Ini harus mencakup pertimbangan khusus AI yang terkait dengan keamanan, privasi, dan etika. Selain itu, pengguna harus dididik tentang serangan berbasis AI yang dapat digunakan untuk mengelabui mereka dengan meyakinkan teks, suara, video, dan banyak lagi.

Jenis serangan khusus AI didefinisikan dalam:

Siklus hidup keamanan

Seperti halnya keamanan untuk jenis kemampuan lain, sangat penting untuk merencanakan pendekatan lengkap. Pendekatan lengkap mencakup orang, proses, dan teknologi di seluruh siklus hidup keamanan penuh: mengidentifikasi, melindungi, mendeteksi, merespons, memulihkan, dan mengatur. Kesenjangan atau kelemahan apa pun dalam siklus hidup ini dapat membuat Anda:

  • Gagal mengamankan aset penting
  • Pengalaman serangan yang mudah dicegah
  • Tidak dapat menangani serangan
  • Tidak dapat memulihkan layanan penting bisnis dengan cepat
  • Menerapkan kontrol secara tidak konsisten

Untuk mempelajari selengkapnya tentang sifat unik pengujian ancaman AI, baca bagaimana Microsoft AI Red Team membangun masa depan AI yang lebih aman.

Mengonfigurasi sebelum menyesuaikan

Microsoft merekomendasikan organisasi dimulai dengan pendekatan berbasis SaaS seperti model Copilot untuk adopsi awal AI mereka dan untuk semua beban kerja AI berikutnya. Ini meminimalkan tingkat tanggung jawab dan keahlian yang harus disediakan organisasi Anda untuk merancang, mengoperasikan, dan mengamankan kemampuan yang sangat kompleks ini.

Jika kemampuan "off the shelf" saat ini tidak memenuhi kebutuhan khusus untuk beban kerja, Anda dapat mengadopsi model PaaS dengan menggunakan layanan AI, seperti Azure OpenAI Service, untuk memenuhi persyaratan spesifik tersebut.

Pembuatan model kustom hanya boleh diadopsi oleh organisasi dengan keahlian mendalam dalam ilmu data dan pertimbangan keamanan, privasi, dan etika AI.

Untuk membantu menghadirkan AI ke dunia, Microsoft mengembangkan solusi Copilot untuk setiap solusi produktivitas utama: dari Bing dan Windows, ke GitHub dan Office 365. Microsoft mengembangkan solusi tumpukan penuh untuk semua jenis skenario produktivitas. Ini ditawarkan sebagai solusi SaaS. Dibangun ke dalam antarmuka pengguna produk, mereka disetel untuk membantu pengguna dengan tugas tertentu untuk meningkatkan produktivitas.

Microsoft memastikan bahwa setiap solusi Copilot direkayasa mengikuti prinsip kuat kami untuk tata kelola AI.

Langkah berikutnya

Pelajari selengkapnya tentang persyaratan pengembangan produk Microsoft untuk AI yang bertanggung jawab di Microsoft Responsible AI Standard.

Pelajari tentang tanggung jawab bersama untuk komputasi cloud.