Tanya Jawab Umum keamanan dan privasi data Copilot untuk Dynamics 365 dan Power Platform
Copilot untuk Dynamics 365 dan fitur Power Platform mengikuti serangkaian praktik keamanan dan privasi inti dan Standar AI yang Bertanggung Jawab Microsoft. Data Dynamics 365 dan Power Platform dilindungi oleh kontrol kepatuhan dan keamanan yang komprehensif dan unggul di industri.
Copilot dibangun di Microsoft Azure OpenAI Service dan dijalankan sepenuhnya di cloud Azure. Azure OpenAI menawarkan ketersediaan regional dan pemfilteran konten AI yang bertanggung jawab. Copilot menggunakan model OpenAI dengan seluruh kemampuan keamanan Microsoft Azure. OpenAI adalah organisasi independen. Kami tidak membagikan data Anda kepada OpenAI.
Fitur Copilot tidak tersedia di semua wilayah dan bahasa Azure. Tergantung di mana lingkungan Anda di-host, Anda mungkin perlu mengizinkan pergerakan data di seluruh wilayah untuk menggunakannya. Untuk informasi selengkapnya, lihat artikel yang tercantum di bagian Pergerakan data lintas wilayah.
Apa yang terjadi pada data saya ketika saya menggunakan Copilot?
Anda memegang kendali atas data Anda. Microsoft tidak membagikan data Anda kepada pihak ketiga kecuali atas izin Anda. Selain itu, kami tidak menggunakan data pelanggan Anda untuk melatih Copilot atau fitur AI-nya, kecuali jika Anda memberikan izin kepada kami untuk melakukannya. Copilot mematuhi izin dan kebijakan data yang ada, dan responsnya kepada Anda hanya didasarkan pada data yang dapat Anda akses secara pribadi. Untuk informasi lebih lanjut tentang cara mengontrol data dan penanganan data Anda, lihat artikel yang tercantum dalam Copilot di aplikasi Dynamics 365 dan Power Platform.
Copilot memantau penggunaan layanan yang merugikan atau berbahaya dengan pemrosesan sementara. Kami tidak menyimpan atau melakukan peninjauan langsung terhadap input dan output Copilot untuk tujuan pemantauan penyalahgunaan.
Bagaimana Copilot menggunakan data saya?
Setiap layanan atau fitur menggunakan Copilot berdasarkan data yang Anda berikan atau siapkan untuk diproses oleh Copilot.
Permintaan Anda (input) dan respons Copilot (output atau hasil):
TIDAK tersedia untuk pelanggan lain.
TIDAK digunakan untuk melatih atau meningkatkan produk atau layanan pihak ketiga mana pun (misalnya model OpenAI).
TIDAK digunakan untuk melatih atau meningkatkan model Microsoft AI, kecuali jika admin penyewa Anda memilih untuk berbagi data dengan kami. Pelajari lebih lanjut di FAQ untuk berbagi data opsional untuk fitur AI Copilot di Dynamics 365 dan Power Platform.
Pelajari selengkapnya tentang privasi dan keamanan data Azure OpenAI Service. Untuk mempelajari lebih lanjut tentang cara Microsoft melindungi dan menggunakan data Anda secara lebih umum, baca Pernyataan Privasi kami.
Ke mana perginya data saya?
Microsoft menjunjung kepercayaan. Kami menjunjung keamanan, privasi, dan kepatuhan dalam segala aktivitas kami, begitu pula dengan pendekatan kami terhadap AI. Data pelanggan, termasuk input dan output Copilot, disimpan dalam batas kepercayaan Microsoft Cloud.
Dalam beberapa skenario, seperti fitur yang didukung oleh Bing dan plug-in kopilot pihak ketiga, data pelanggan mungkin dikirimkan di luar batas kepercayaan Microsoft Cloud.
Bisakah Copilot mengakses konten terenkripsi?
Data diberikan kepada Copilot berdasarkan tingkat akses pengguna saat ini. Jika pengguna memiliki akses ke data terenkripsi di Dynamics 365 dan Power Platform, dan pengguna memberikannya kepada Copilot, maka Copilot dapat mengaksesnya.
Bagaimana cara Copilot melindungi data pelanggan?
Microsoft memiliki posisi unik dalam menghadirkan AI yang siap untuk perusahaan. Copilot didukung oleh Azure OpenAI Service dan mematuhi komitmen privasi, keamanan, dan peraturan yang ada kepada para pelanggan kami.
Dirancang dengan pendekatan komprehensif Microsoft untuk keamanan, privasi, dan kepatuhan. Copilot terintegrasi dalam layanan Microsoft seperti Dynamics 365 dan Power Platform dan mewarisi kebijakan dan proses keamanan, privasi, dan kepatuhan mereka, seperti autentikasi multifaktor dan batas-batas kepatuhan.
Berbagai bentuk perlindungan untuk melindungi data organisasi. Teknologi sisi layanan mengenkripsi konten organisasi saat diam maupun transit, untuk memastikan langkah keamanan yang tangguh. Koneksi dilindungi dengan Keamanan Lapisan Transportasi (TLS), dan transfer data antara Dynamics 365, Power Platform, dan Azure OpenAI dilakukan melalui jaringan backbone Microsoft, memastikan keandalan dan keamanannya. Pelajari selengkapnya tentang enkripsi di Microsoft Cloud.
Dirancang untuk melindungi data Anda di tingkat penyewa dan lingkungan. Kami tahu bahwa kebocoran data adalah kekhawatiran pelanggan. Model AI Microsoft tidak dilatih dan tidak belajar dari data penyewa Anda atau permintaan Anda, kecuali admin penyewa Anda telah memilih untuk berbagi data dengan kami. Di dalam lingkungan Anda, Anda dapat mengontrol akses melalui izin yang Anda atur. Mekanisme autentikasi dan otorisasi memisahkan permintaan ke model bersama di antara penyewa. Copilot menggunakan data yang hanya dapat Anda akses menggunakan teknologi yang sama yang telah kami gunakan bertahun-tahun untuk mengamankan data pelanggan.
Apakah respons Copilot selalu faktual?
Seperti halnya AI generatif lainnya, respons Copilot tidak 100% faktual. Meski kami terus meningkatkan respons terhadap pertanyaan berbasis fakta, Anda tetap harus menilai sendiri dan memeriksa hasilnya sebelum mengirimkannya kepada orang lain. Copilot memberikan draf dan ringkasan yang dapat membantu Anda melakukan lebih banyak hal, tetapi sepenuhnya otomatis. Anda selalu dapat meninjau konten yang dihasilkan AI.
Tim kami berupaya mengatasi masalah secara proaktif, seperti misinformasi dan disinformasi, pemblokiran konten, keamanan data, dan konten berbahaya atau diskriminatif, sesuai dengan prinsip AI yang bertanggung jawab.
Kami juga menawarkan panduan dalam pengalaman pengguna untuk memperkuat penggunaan konten dan tindakan yang dihasilkan dan disarankan AI secara bertanggung jawab.
Petunjuk dan perintah. Ketika Anda menggunakan Copilot, perintah dan elemen instruksional lainnya akan mengingatkan Anda untuk meninjau dan mengedit respons sesuai kebutuhan dan memeriksa keakuratan fakta, data, dan teks secara manual sebelum Anda menggunakan konten yang dibuat oleh AI.
Kutipan sumber. Jika memungkinkan, Copilot mengutip sumber informasinya, baik publik maupun internal, sehingga Anda dapat memeriksanya sendiri untuk mengonfirmasi responsnya.
Untuk informasi selengkapnya, lihat Tanya Jawab Umum AI yang Bertanggung Jawab untuk produk Anda di Microsoft Learn.
Bagaimana Copilot memblokir konten berbahaya?
Azure OpenAI Service memiliki sistem pemfilteran konten yang bekerja bersama model inti. Model pemfilteran konten untuk kategori Kebencian dan Keadilan, Seksual, Kekerasan, dan Menyakiti Diri Sendiri telah dilatih secara khusus dan diuji dalam berbagai bahasa. Sistem ini bekerja dengan menjalankan perintah input dan respons melalui model klasifikasi yang dirancang untuk mengidentifikasi dan memblokir output konten berbahaya.
Pelanggaran terkait kebencian dan keadilan mengacu pada konten yang menggunakan bahasa yang merendahkan atau diskriminatif berdasarkan atribut seperti ras, etnis, kebangsaan, identitas dan ekspresi gender, orientasi seksual, agama, status imigrasi, status kemampuan, penampilan pribadi, dan ukuran tubuh. Keadilan bertujuan untuk memastikan bahwa sistem AI memperlakukan semua kelompok orang secara adil tanpa berkontribusi pada ketidakadilan sosial yang ada. Konten seksual melibatkan diskusi tentang organ reproduksi manusia, hubungan romantis, tindakan yang digambarkan secara erotis atau penuh kasih sayang, kehamilan, tindakan seksual secara fisik, termasuk yang digambarkan sebagai penyerangan atau tindakan kekerasan seksual, prostitusi, pornografi, dan pelecehan. Kekerasan menggambarkan bahasa yang berkaitan dengan tindakan fisik yang dimaksudkan untuk menyakiti atau membunuh, termasuk tindakan, senjata, dan entitas terkait. Bahasa melukai diri sendiri mengacu pada tindakan yang disengaja yang dimaksudkan untuk melukai diri sendiri atau bunuh diri.
Pelajari selengkapnya tentang pemfilteran konten Azure OpenAI.
Apakah Copilot memblokir injeksi prompt (serangan jailbreak)?
Serangan jailbreak adalah perintah pengguna yang dirancang untuk memancing model AI generatif agar berperilaku sesuai dengan cara yang tidak seharusnya atau melanggar aturan yang seharusnya diikuti. Layanan di seluruh Dynamics 365 dan Power Platform diperlukan sebagai perlindungan dari injeksi perintah. Pelajari selengkapnya tentang serangan jailbreak dan cara menggunakan Keamanan Konten Azure AI untuk mendeteksinya.
Apakah Copilot memblokir injeksi perintah tidak langsung (serangan tidak langsung)?
Serangan tidak langsung, juga disebut sebagai serangan perintah tidak langsung atau serangan injeksi perintah lintas domain, merupakan potensi kerentanan di mana pihak ketiga menempatkan instruksi jahat di dalam dokumen yang dapat diakses dan diproses oleh sistem AI generatif. Layanan di seluruh Dynamics 365 dan Power Platform diperlukan sebagai perlindungan dari injeksi perintah tidak langsung. Pelajari selengkapnya tentang serangan tidak langsung dan cara menggunakan Keamanan Konten Azure AI untuk mendeteksinya.
Bagaimana Microsoft menguji dan memvalidasi kualitas Copilot, termasuk perlindungan dari injeksi perintah dan respons yang beralasan?
Setiap produk Copilot baru dan iterasi model bahasa harus melewati tinjauan AI yang bertanggung jawab secara internal sebelum diluncurkan. Sebelum dirilis, kami menggunakan proses yang disebut "red teaming" (tim menyimulasikan serangan musuh, menemukan dan mengeksploitasi kelemahan untuk membantu organisasi meningkatkan pertahanannya) untuk menilai potensi risiko pada konten berbahaya, skenario jailbreak, dan respons yang beralasan. Setelah rilis, kami menggunakan pengujian otomatis dan alat evaluasi manual dan otomatis untuk menilai kualitas respons Copilot.
Bagaimana Microsoft meningkatkan model fondasi dan mengukur peningkatan dalam respons yang beralasan?
Dalam konteks AI, khususnya AI yang berhubungan dengan model bahasa seperti yang menjadi dasar Copilot, grounding membantu AI menghasilkan respons yang lebih relevan dan masuk akal di dunia nyata. Grounding membantu memastikan bahwa respons AI didasarkan pada informasi yang dapat dipercaya dan seakurat serta serelevan mungkin. Metrik respons yang beralasan menilai seberapa akurat fakta yang dinyatakan dalam konten grounding yang disediakan untuk model ditunjukkan dalam respons akhir.
Model fondasi seperti GPT-4 ditingkatkan dengan teknik Retrieval Augmented Generation (RAG). Teknik ini memungkinkan model untuk menggunakan lebih banyak informasi dari yang pernah ada dalam pelatihan untuk memahami skenario pengguna. RAG bekerja dengan terlebih dahulu mengidentifikasi data yang relevan dengan skenario, mirip dengan cara mesin pencari mengidentifikasi halaman web yang relevan dengan istilah pencarian pengguna. Teknik ini menggunakan beberapa pendekatan untuk mengidentifikasi konten yang relevan dengan perintah pengguna dan harus digunakan untuk menganalisis respons. Pendekatan yang dilakukan termasuk pencarian dengan berbagai jenis indeks, seperti indeks terbalik menggunakan teknik pencarian informasi seperti pencocokan istilah, atau indeks vektor menggunakan perbandingan jarak vektor untuk kemiripan semantik. Setelah mengidentifikasi dokumen yang relevan, RAG meneruskan data ke model bersama dengan percakapan saat ini, memberikan lebih banyak konteks kepada model untuk lebih memahami informasi yang telah dimilikinya dan menghasilkan respons yang sesuai dengan dunia nyata. Terakhir, RAG memeriksa respons untuk memastikan bahwa respons tersebut didukung oleh konten sumber yang diberikan kepada model. Fitur AI generatif Copilot menggabungkan RAG dalam berbagai cara. Salah satu contohnya adalah obrolan menggunakan data, yaitu bot obrolan didasarkan pada sumber data pelanggan sendiri.
Metode lain untuk meningkatkan model dasar dikenal sebagai fine-tuning. Sebuah himpunan data besar yang terdiri dari pasangan kueri-respons ditampilkan ke model dasar untuk menambah pelatihan aslinya dengan sampel baru yang ditargetkan untuk skenario tertentu. Model ini kemudian dapat disebarkan sebagai model terpisah—yang sudah disesuaikan untuk skenario tersebut. Grounding bertujuan untuk membuat pengetahuan AI relevan dengan dunia nyata, sedangkan fine-tuning digunakan agar pengetahuan AI lebih spesifik untuk tugas atau domain tertentu. Microsoft menggunakan fine-tuning dalam berbagai cara. Sebagai contoh, kami menggunakan pembuatan alur Power Automate dari deskripsi bahasa alami yang disediakan oleh pengguna.
Apakah Copilot memenuhi persyaratan kepatuhan terhadap peraturan?
Microsoft Copilot adalah bagian dari ekosistem Dynamics 365 dan Power Platform dan memenuhi persyaratan yang sama untuk kepatuhan terhadap peraturan. Untuk informasi selengkapnya tentang sertifikasi peraturan layanan Microsoft, kunjungi Service Trust Portal. Selain itu, Copilot mematuhi komitmen kami terkait AI yang bertanggung jawab, yang tertuang dalam Standar AI yang Bertanggung Jawab kami. Seiring dengan berkembangnya regulasi di bidang AI, Microsoft akan terus beradaptasi dan merespons persyaratan baru.
Pelajari selengkapnya
Copilot di aplikasi Dynamics 365 dan Power Platform
Produk | Fitur | Memerlukan Lingkungan Terkelola? | Cara menonaktifkan fitur ini |
---|---|---|---|
AI Builder | Skenario dalam pratinjau | Tidak | Skenario dalam pratinjau |
Copilot Studio | Pengetahuan umum AI | Tidak | Keamanan dan tata kelola Copilot Studio |
Copilot Studio | Membuat dan mengedit topik dengan Copilot | Tidak | Keamanan dan tata kelola Copilot Studio |
Copilot Studio | Tindakan generatif | Tidak | Keamanan dan tata kelola Copilot Studio |
Copilot Studio | Jawaban generatif | Tidak | Keamanan dan tata kelola Copilot Studio |
Dynamics 365 Business Central | Semua (Lihat daftar lengkap di aka.ms/bcAI.) | Tidak | Mengaktifkan fitur |
Dynamics 365 Customer Insights - Data | Membuat segmen dengan Copilot untuk Customer Insights - Data (pratinjau) | Tidak | Customer Insights - Data memiliki tanda tersendiri untuk semua fitur Copilot oleh Azure OpenAI. Pelajari selengkapnya: Memberikan persetujuan untuk menggunakan Copilot di Customer Insights - Data |
Dynamics 365 Customer Insights - Data | Ikhtisar laporan persiapan data (pratinjau) | Tidak | Customer Insights - Data memiliki tanda tersendiri untuk semua fitur Copilot oleh Azure OpenAI. Pelajari selengkapnya: Memberikan persetujuan untuk menggunakan Copilot di Customer Insights - Data |
Dynamics 365 Customer Insights - Data | Mendapatkan jawaban dari Copilot atas pertanyaan tentang kemampuan (pratinjau) | Tidak | Customer Insights - Data memiliki tanda tersendiri untuk semua fitur Copilot oleh Azure OpenAI. Pelajari selengkapnya: Memberikan persetujuan untuk menggunakan Copilot di Customer Insights - Data |
Dynamics 365 Customer Insights (Data) | Melakukan dialog dengan data menggunakan Copilot di Customer Insights | Tidak | Customer Insights - Data memiliki tanda tersendiri untuk semua fitur Copilot oleh Azure OpenAI. Pelajari selengkapnya: Memberikan persetujuan untuk menggunakan Copilot di Customer Insights - Data |
Dynamics 365 Customer Insights - Data | Lihat konfigurasi sistem | Tidak | Customer Insights - Data memiliki tanda tersendiri untuk semua fitur Copilot oleh Azure OpenAI. Pelajari selengkapnya: Memberikan persetujuan untuk menggunakan Copilot di Customer Insights - Data |
Dynamics 365 Customer Insights - Journeys | Copilot membantu Anda mempelajari dan melakukan lebih banyak (tinjauan) | Tidak | Ketersediaan kopilot ini di lingkungan Anda ditentukan oleh pengaturan administrator Power Platform Pelajari cara menambahkan Copilot untuk aplikasi yang diarahkan model. Kemampuan ini adalah "kopilot aplikasi di Customer Insights - Journeys" sehingga dinonaktifkan di pusat admin Power Platform. Pelajari selengkapnya: FAQ AI yang bertanggung jawab |
Dynamics 365 Customer Insights - Journeys | Membuat perjalanan menggunakan bantuan AI | Tidak | Customer Insights - Journeys memiliki tanda tersendiri untuk fitur Copilot. Pelajari selengkapnya: Memberikan persetujuan untuk menggunakan Copilot di Customer Insights - Journeys |
Dynamics 365 Customer Insights - Journeys | Me-refresh dan menyempurnakan pesan Anda | Tidak | Customer Insights - Journeys memiliki tanda tersendiri untuk fitur Copilot. Pelajari selengkapnya: Memberikan persetujuan untuk menggunakan Copilot di Customer Insights - Journeys |
Dynamics 365 Customer Insights - Journeys | Mengatur gaya email Anda dengan tema dibantu AI | Tidak | Customer Insights - Journeys memiliki tanda tersendiri untuk fitur Copilot. Pelajari selengkapnya: Memberikan persetujuan untuk menggunakan Copilot di Customer Insights - Journeys |
Dynamics 365 Customer Insights - Journeys | Menarget pelanggan yang tepat menggunakan bantuan kueri |
Tidak | Customer Insights - Journeys memiliki tanda tersendiri untuk fitur Copilot. Pelajari selengkapnya: Memberikan persetujuan untuk menggunakan Copilot di Customer Insights - Journeys |
Dynamics 365 Customer Insights - Journeys | Menggunakan AI untuk memulai pembuatan email | Tidak | Customer Insights - Journeys memiliki tanda tersendiri untuk fitur Copilot. Pelajari selengkapnya: Memberikan persetujuan untuk menggunakan Copilot di Customer Insights - Journeys |
Dynamics 365 Customer Insights - Journeys | Menggunakan gambar dalam konten Anda | Tidak | Customer Insights - Journeys memiliki tanda tersendiri untuk fitur Copilot. Pelajari selengkapnya: Memberikan persetujuan untuk menggunakan Copilot di Customer Insights - Journeys |
Dynamics 365 Customer Service | Membuat email | Tidak | Mengelola fitur Copilot di Customer Service |
Dynamics 365 Customer Service | Membuat draf respons obrolan | Tidak | Mengelola fitur Copilot di Customer Service |
Dynamics 365 Customer Service | Menjawab pertanyaan | Tidak | Mengelola fitur Copilot di Customer Service |
Dynamics 365 Customer Service | Meringkas kasus dan percakapan | Tidak | Mengelola fitur Copilot di Customer Service |
Power Apps | Membuat aplikasi melalui percakapan | Tidak | Mengelola pengaturan fitur |
Power Apps | Bantuan Copilot untuk pengisian formulir dalam aplikasi yang diarahkan model | Tidak | Mengelola pengaturan fitur |
Power Apps | Membuat draf teks input yang ditulis dengan baik menggunakan Copilot | Tidak, lisensi pengguna premium | Membuat draf teks input yang ditulis dengan baik menggunakan Copilot |
Power Apps | Excel ke Tabel | Tidak | Mengelola pengaturan fitur |
Power Apps | Menggunakan bahasa alami untuk mengedit aplikasi menggunakan panel Copilot | Tidak | Mengelola pengaturan fitur |
Power Automate | Copilot pada alur cloud di halaman Beranda dan di desainer (Lihat Mulai menggunakan Copilot di alur cloud untuk detailnya.) | Tidak | Hubungi dukungan untuk menjalankan skrip PowerShell. |
Power Pages | Semua (Lihat ikhtisar Copilot di Power Pages untuk detailnya.) | Tidak | Menonaktifkan Copilot di Power Pages |
Pelajari lebih lanjut di FAQ untuk berbagi data opsional untuk fitur AI Copilot di Dynamics 365 dan Power Platform.
Ketersediaan wilayah dan bahasa
Ketersediaan Copilot secara internasional
Pergerakan data di berbagai wilayah geografis
- Cara kerja pergerakan data lintas wilayah
- Mengonfigurasi pergerakan data di seluruh lokasi geografis untuk fitur AI generatif di luar Amerika Serikat
- Pergerakan data Copilot di seluruh geografis di Dynamics 365 Sales
- Pergerakan data Copilot di seluruh wilayah geografis di Dynamics 365 Business Central
Keamanan di Microsoft
- Pengantar keamanan Azure
- Enkripsi di Microsoft Cloud
- Data, privasi, dan keamanan untuk Azure OpenAI Service – Layanan Azure AI