Bagikan melalui


Tanya Jawab Umum keamanan dan privasi data Copilot untuk Dynamics 365 dan Power Platform

Copilot untuk Dynamics 365 dan fitur Power Platform mengikuti serangkaian praktik keamanan dan privasi inti dan Standar AI yang Bertanggung Jawab Microsoft. Data Dynamics 365 dan Power Platform dilindungi oleh kontrol kepatuhan dan keamanan yang komprehensif dan unggul di industri.

Copilot dibangun di Microsoft Azure OpenAI Service dan dijalankan sepenuhnya di cloud Azure. Azure OpenAI menawarkan ketersediaan regional dan pemfilteran konten AI yang bertanggung jawab. Copilot menggunakan model OpenAI dengan seluruh kemampuan keamanan Microsoft Azure. OpenAI adalah organisasi independen. Kami tidak membagikan data Anda kepada OpenAI.

Fitur Copilot tidak tersedia di semua wilayah dan bahasa Azure. Tergantung di mana lingkungan Anda di-host, Anda mungkin perlu mengizinkan pergerakan data di seluruh wilayah untuk menggunakannya. Untuk informasi selengkapnya, lihat artikel yang tercantum di bagian Pergerakan data lintas wilayah.

Apa yang terjadi pada data saya ketika saya menggunakan Copilot?

Anda memegang kendali atas data Anda. Microsoft tidak membagikan data Anda kepada pihak ketiga kecuali atas izin Anda. Selain itu, kami tidak menggunakan data pelanggan Anda untuk melatih Copilot atau fitur AI-nya, kecuali jika Anda memberikan izin kepada kami untuk melakukannya. Copilot mematuhi izin dan kebijakan data yang ada, dan responsnya kepada Anda hanya didasarkan pada data yang dapat Anda akses secara pribadi. Untuk informasi lebih lanjut tentang cara mengontrol data dan penanganan data Anda, lihat artikel yang tercantum dalam Copilot di aplikasi Dynamics 365 dan Power Platform.

Copilot memantau penggunaan layanan yang merugikan atau berbahaya dengan pemrosesan sementara. Kami tidak menyimpan atau melakukan peninjauan langsung terhadap input dan output Copilot untuk tujuan pemantauan penyalahgunaan.

Bagaimana Copilot menggunakan data saya? 

Setiap layanan atau fitur menggunakan Copilot berdasarkan data yang Anda berikan atau siapkan untuk diproses oleh Copilot.

Permintaan Anda (input) dan respons Copilot (output atau hasil):

  • TIDAK tersedia untuk pelanggan lain.

  • TIDAK digunakan untuk melatih atau meningkatkan produk atau layanan pihak ketiga mana pun (misalnya model OpenAI).

  • TIDAK digunakan untuk melatih atau meningkatkan model AI Microsoft, kecuali admin penyewa Anda memilih untuk berbagi data dengan kami.

Pelajari lebih lanjut tentang privasi dan keamanan data Azure OpenAI Service. Untuk mempelajari lebih lanjut tentang cara Microsoft melindungi dan menggunakan data Anda secara lebih umum, baca Pernyataan Privasi kami.

Ke mana perginya data saya?

Microsoft menjunjung kepercayaan. Kami menjunjung keamanan, privasi, dan kepatuhan dalam segala aktivitas kami, begitu pula dengan pendekatan kami terhadap AI. Data pelanggan, termasuk input dan output Copilot, disimpan dalam batas kepercayaan Microsoft Cloud.

Dalam beberapa skenario, seperti fitur yang didukung oleh Bing dan plug-in kopilot pihak ketiga, data pelanggan mungkin dikirimkan di luar batas kepercayaan Microsoft Cloud.

Bisakah Copilot mengakses konten terenkripsi?

Data diberikan kepada Copilot berdasarkan tingkat akses pengguna saat ini. Jika pengguna memiliki akses ke data terenkripsi di Dynamics 365 dan Power Platform, dan pengguna memberikannya kepada Copilot, maka Copilot dapat mengaksesnya.

Bagaimana cara Copilot melindungi data pelanggan?

Microsoft memiliki posisi unik dalam menghadirkan AI yang siap untuk perusahaan. Copilot didukung oleh Azure OpenAI Service dan mematuhi komitmen privasi, keamanan, dan peraturan yang ada kepada para pelanggan kami.

  • Dirancang dengan pendekatan komprehensif Microsoft untuk keamanan, privasi, dan kepatuhan. Copilot terintegrasi dalam layanan Microsoft seperti Dynamics 365 dan Power Platform dan mewarisi kebijakan dan proses keamanan, privasi, dan kepatuhan mereka, seperti autentikasi multifaktor dan batas-batas kepatuhan.

  • Berbagai bentuk perlindungan untuk melindungi data organisasi. Teknologi sisi layanan mengenkripsi konten organisasi saat diam maupun transit, untuk memastikan langkah keamanan yang tangguh. Koneksi dilindungi dengan Keamanan Lapisan Transportasi (TLS), dan transfer data antara Dynamics 365, Power Platform, dan Azure OpenAI dilakukan melalui jaringan backbone Microsoft, memastikan keandalan dan keamanannya. Pelajari selengkapnya tentang enkripsi di Microsoft Cloud.

  • Dirancang untuk melindungi data Anda di tingkat penyewa dan lingkungan. Kami tahu bahwa kebocoran data adalah kekhawatiran pelanggan. Model AI Microsoft tidak dilatih dan tidak belajar dari data penyewa Anda atau permintaan Anda, kecuali admin penyewa Anda telah memilih untuk berbagi data dengan kami. Di dalam lingkungan Anda, Anda dapat mengontrol akses melalui izin yang Anda atur. Mekanisme autentikasi dan otorisasi memisahkan permintaan ke model bersama di antara penyewa. Copilot menggunakan data yang hanya dapat Anda akses menggunakan teknologi yang sama yang telah kami gunakan bertahun-tahun untuk mengamankan data pelanggan.

Apakah respons Copilot selalu faktual?

Seperti halnya AI generatif lainnya, respons Copilot tidak dijamin 100% faktual. Meski kami terus meningkatkan respons terhadap pertanyaan berbasis fakta, Anda tetap harus menilai sendiri dan memeriksa hasilnya sebelum mengirimkannya kepada orang lain. Copilot memberikan draf dan ringkasan yang dapat membantu Anda melakukan lebih banyak hal, tetapi sepenuhnya otomatis. Anda selalu dapat meninjau konten yang dihasilkan AI.

Tim kami berupaya mengatasi masalah secara proaktif, seperti misinformasi dan disinformasi, pemblokiran konten, keamanan data, dan konten berbahaya atau diskriminatif, sesuai dengan prinsip AI yang bertanggung jawab.

Kami juga menawarkan panduan dalam pengalaman pengguna untuk memperkuat penggunaan konten dan tindakan yang dihasilkan dan disarankan AI secara bertanggung jawab.

  • Petunjuk dan perintah. Ketika Anda menggunakan Copilot, perintah dan elemen instruksional lainnya akan mengingatkan Anda untuk meninjau dan mengedit respons sesuai kebutuhan dan memeriksa keakuratan fakta, data, dan teks secara manual sebelum Anda menggunakan konten yang dibuat oleh AI.

  • Kutipan sumber. Jika memungkinkan, Copilot mengutip sumber informasinya, baik publik maupun internal, sehingga Anda dapat memeriksanya sendiri untuk mengonfirmasi responsnya.

Untuk informasi selengkapnya, lihat Tanya Jawab Umum AI yang Bertanggung Jawab untuk produk Anda di Microsoft Learn.

Bagaimana Copilot memblokir konten berbahaya?

Azure OpenAI Service memiliki sistem pemfilteran konten yang bekerja bersama model inti. Model pemfilteran konten untuk kategori Kebencian dan Keadilan, Seksual, Kekerasan, dan Menyakiti Diri Sendiri telah dilatih secara khusus dan diuji dalam berbagai bahasa. Sistem ini bekerja dengan menjalankan perintah input dan respons melalui model klasifikasi yang dirancang untuk mengidentifikasi dan memblokir output konten berbahaya.

Pelanggaran terkait kebencian dan keadilan mengacu pada konten yang menggunakan bahasa yang merendahkan atau diskriminatif berdasarkan atribut seperti ras, etnis, kebangsaan, identitas dan ekspresi gender, orientasi seksual, agama, status imigrasi, status kemampuan, penampilan pribadi, dan ukuran tubuh. Keadilan bertujuan untuk memastikan bahwa sistem AI memperlakukan semua kelompok orang secara adil tanpa berkontribusi pada ketidakadilan sosial yang ada. Konten seksual melibatkan diskusi tentang organ reproduksi manusia, hubungan romantis, tindakan yang digambarkan secara erotis atau penuh kasih sayang, kehamilan, tindakan seksual secara fisik, termasuk yang digambarkan sebagai penyerangan atau tindakan kekerasan seksual, prostitusi, pornografi, dan pelecehan. Kekerasan menggambarkan bahasa yang berkaitan dengan tindakan fisik yang dimaksudkan untuk menyakiti atau membunuh, termasuk tindakan, senjata, dan entitas terkait. Bahasa melukai diri sendiri mengacu pada tindakan yang disengaja yang dimaksudkan untuk melukai diri sendiri atau bunuh diri.

Pelajari selengkapnya tentang pemfilteran konten Azure OpenAI.

Apakah Copilot memblokir injeksi prompt (serangan jailbreak)?

Serangan jailbreak adalah perintah pengguna yang dirancang untuk memancing model AI generatif agar berperilaku sesuai dengan cara yang tidak seharusnya atau melanggar aturan yang seharusnya diikuti. Layanan di seluruh Dynamics 365 dan Power Platform diperlukan sebagai perlindungan dari injeksi perintah. Pelajari selengkapnya tentang serangan jailbreak dan cara menggunakan Keamanan Konten Azure AI untuk mendeteksinya.

Apakah Copilot memblokir injeksi perintah tidak langsung (serangan tidak langsung)?

Serangan tidak langsung, juga disebut sebagai serangan perintah tidak langsung atau serangan injeksi perintah lintas domain, merupakan potensi kerentanan di mana pihak ketiga menempatkan instruksi jahat di dalam dokumen yang dapat diakses dan diproses oleh sistem AI generatif. Layanan di seluruh Dynamics 365 dan Power Platform diperlukan sebagai perlindungan dari injeksi perintah tidak langsung. Pelajari selengkapnya tentang serangan tidak langsung dan cara menggunakan Keamanan Konten Azure AI untuk mendeteksinya.

Bagaimana Microsoft menguji dan memvalidasi kualitas Copilot, termasuk perlindungan dari injeksi perintah dan respons yang beralasan?

Setiap produk Copilot baru dan iterasi model bahasa harus melewati tinjauan AI yang bertanggung jawab secara internal sebelum diluncurkan. Sebelum dirilis, kami menggunakan proses yang disebut "red teaming" (tim menyimulasikan serangan musuh, menemukan dan mengeksploitasi kelemahan untuk membantu organisasi meningkatkan pertahanannya) untuk menilai potensi risiko pada konten berbahaya, skenario jailbreak, dan respons yang beralasan. Setelah rilis, kami menggunakan pengujian otomatis dan alat evaluasi manual dan otomatis untuk menilai kualitas respons Copilot.

Bagaimana Microsoft meningkatkan model fondasi dan mengukur peningkatan dalam respons yang beralasan?

Dalam konteks AI, khususnya AI yang berhubungan dengan model bahasa seperti yang menjadi dasar Copilot, grounding membantu AI menghasilkan respons yang lebih relevan dan masuk akal di dunia nyata. Grounding membantu memastikan bahwa respons AI didasarkan pada informasi yang dapat dipercaya dan seakurat serta serelevan mungkin. Metrik respons yang beralasan menilai seberapa akurat fakta yang dinyatakan dalam konten grounding yang disediakan untuk model ditunjukkan dalam respons akhir.

Model fondasi seperti GPT-4 ditingkatkan dengan teknik Retrieval Augmented Generation (RAG). Teknik ini memungkinkan model untuk menggunakan lebih banyak informasi dari yang pernah ada dalam pelatihan untuk memahami skenario pengguna. RAG bekerja dengan terlebih dahulu mengidentifikasi data yang relevan dengan skenario, mirip dengan cara mesin pencari mengidentifikasi halaman web yang relevan dengan istilah pencarian pengguna. Teknik ini menggunakan beberapa pendekatan untuk mengidentifikasi konten yang relevan dengan perintah pengguna dan harus digunakan untuk menganalisis respons. Pendekatan yang dilakukan termasuk pencarian dengan berbagai jenis indeks, seperti indeks terbalik menggunakan teknik pencarian informasi seperti pencocokan istilah, atau indeks vektor menggunakan perbandingan jarak vektor untuk kemiripan semantik. Setelah mengidentifikasi dokumen yang relevan, RAG meneruskan data ke model bersama dengan percakapan saat ini, memberikan lebih banyak konteks kepada model untuk lebih memahami informasi yang telah dimilikinya dan menghasilkan respons yang sesuai dengan dunia nyata. Terakhir, RAG memeriksa respons untuk memastikan bahwa respons tersebut didukung oleh konten sumber yang diberikan kepada model. Fitur AI generatif Copilot menggabungkan RAG dalam berbagai cara. Salah satu contohnya adalah obrolan menggunakan data, yaitu bot obrolan didasarkan pada sumber data pelanggan sendiri.

Metode lain untuk meningkatkan model dasar dikenal sebagai fine-tuning. Sebuah himpunan data besar yang terdiri dari pasangan kueri-respons ditampilkan ke model dasar untuk menambah pelatihan aslinya dengan sampel baru yang ditargetkan untuk skenario tertentu. Model ini kemudian dapat disebarkan sebagai model terpisah—yang sudah disesuaikan untuk skenario tersebut. Grounding bertujuan untuk membuat pengetahuan AI relevan dengan dunia nyata, sedangkan fine-tuning digunakan agar pengetahuan AI lebih spesifik untuk tugas atau domain tertentu. Microsoft menggunakan fine-tuning dalam berbagai cara. Sebagai contoh, kami menggunakan pembuatan alur Power Automate dari deskripsi bahasa alami yang disediakan oleh pengguna.

Apakah Copilot memenuhi persyaratan kepatuhan terhadap peraturan?

Microsoft Copilot adalah bagian dari ekosistem Dynamics 365 dan Power Platform dan memenuhi persyaratan yang sama untuk kepatuhan terhadap peraturan. Untuk informasi selengkapnya tentang sertifikasi peraturan layanan Microsoft, kunjungi Service Trust Portal. Selain itu, Copilot mematuhi komitmen kami terkait AI yang bertanggung jawab, yang tertuang dalam Standar AI yang Bertanggung Jawab kami. Seiring dengan berkembangnya regulasi di bidang AI, Microsoft akan terus beradaptasi dan merespons persyaratan baru.

Pelajari selengkapnya tentang ketersediaan Dynamics 365, Power Platform, dan Copilot, lokasi data pelanggan, dan kepatuhan terhadap persyaratan global, regional, dan khusus industri untuk mengelola data.

Pelajari selengkapnya

Copilot di aplikasi Dynamics 365 dan Power Platform

Produk Fitur Memerlukan Lingkungan Terkelola? Cara menonaktifkan fitur ini
AI Builder Skenario dalam pratinjau Tidak Skenario dalam pratinjau
Dynamics 365 Business Central Semua (Lihat daftar lengkap di aka.ms/bcAI.) Tidak Mengaktifkan fitur
Dynamics 365 Customer Insights - Data Membuat segmen dengan Copilot di Customer Insights - Data (pratinjau) Tidak Customer Insights - Data memiliki tanda tersendiri untuk semua fitur Copilot oleh Azure OpenAI.

Pelajari selengkapnya: Memberikan persetujuan untuk menggunakan Copilot di Customer Insights - Data
Dynamics 365 Customer Insights - Data Ikhtisar laporan persiapan data (pratinjau) Tidak Customer Insights - Data memiliki tanda tersendiri untuk semua fitur Copilot oleh Azure OpenAI.

Pelajari selengkapnya: Memberikan persetujuan untuk menggunakan Copilot di Customer Insights - Data
Dynamics 365 Customer Insights - Data Dapatkan jawaban atas pertanyaan tentang kemampuan dari Copilot (pratinjau) Tidak Customer Insights - Data memiliki tanda tersendiri untuk semua fitur Copilot oleh Azure OpenAI.

Pelajari selengkapnya: Memberikan persetujuan untuk menggunakan Copilot di Customer Insights - Data
Dynamics 365 Customer Insights (Data) Berdialog dengan data menggunakan Copilot di Customer Insights Tidak Customer Insights - Data memiliki tanda tersendiri untuk semua fitur Copilot oleh Azure OpenAI.

Pelajari selengkapnya: Memberikan persetujuan untuk menggunakan Copilot di Customer Insights - Data
Dynamics 365 Customer Insights - Data Melihat konfigurasi sistem Tidak Customer Insights - Data memiliki tanda tersendiri untuk semua fitur Copilot oleh Azure OpenAI.

Pelajari selengkapnya: Memberikan persetujuan untuk menggunakan Copilot di Customer Insights - Data
Dynamics 365 Customer Insights - Journeys Copilot membantu Anda belajar dan berbuat lebih banyak (ulasan) Tidak Ketersediaan kopilot ini di lingkungan Anda ditentukan oleh pengaturan administrator Power Platform Pelajari cara menambahkan Copilot untuk aplikasi yang diarahkan model.


Kemampuan ini adalah "kopilot aplikasi di Customer Insights - Journeys" sehingga dinonaktifkan di pusat admin Power Platform. Pelajari selengkapnya: FAQ AI yang bertanggung jawab
Dynamics 365 Customer Insights - Journeys Membuat perjalanan menggunakan bantuan AI Tidak Customer Insights - Journeys memiliki tanda tersendiri untuk fitur Copilot.

Pelajari selengkapnya: Memberikan persetujuan untuk menggunakan Copilot di Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Me-refresh dan menyempurnakan pesan Anda Tidak Customer Insights - Journeys memiliki tanda tersendiri untuk fitur Copilot.

Pelajari selengkapnya: Memberikan persetujuan untuk menggunakan Copilot di Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Mengatur gaya email Anda dengan tema yang didukung AI Tidak Customer Insights - Journeys memiliki tanda tersendiri untuk fitur Copilot.

Pelajari selengkapnya: Memberikan persetujuan untuk menggunakan Copilot di Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Menarget pelanggan yang tepat menggunakan bantuan kueri

Tidak Customer Insights - Journeys memiliki tanda tersendiri untuk fitur Copilot.

Pelajari selengkapnya: Memberikan persetujuan untuk menggunakan Copilot di Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Menggunakan AI untuk memulai pembuatan email Tidak Customer Insights - Journeys memiliki tanda tersendiri untuk fitur Copilot.

Pelajari selengkapnya: Memberikan persetujuan untuk menggunakan Copilot di Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Menggunakan gambar dalam konten Anda Tidak Customer Insights - Journeys memiliki tanda tersendiri untuk fitur Copilot.

Pelajari selengkapnya: Memberikan persetujuan untuk menggunakan Copilot di Customer Insights - Journeys
Power Apps Membuat aplikasi melalui percakapan Tidak Mengelola pengaturan fitur
Power Apps Bantuan Copilot untuk pengisian formulir di aplikasi yang diarahkan model Tidak Mengelola pengaturan fitur
Power Apps Membuat draf teks input yang baik menggunakan Copilot Tidak, lisensi pengguna premium Membuat draf teks input yang baik menggunakan Copilot
Power Apps Excel ke Tabel Tidak Mengelola pengaturan fitur
Power Apps Menggunakan bahasa alami untuk mengedit aplikasi menggunakan panel Copilot Tidak Mengelola pengaturan fitur
Power Automate Copilot pada alur cloud di halaman Beranda dan di desainer (Lihat Mulai menggunakan Copilot di alur cloud untuk detailnya.) Tidak Hubungi dukungan untuk menjalankan skrip PowerShell.
Power Pages Semua (Lihat ikhtisar Copilot di Power Pages untuk detailnya.) Tidak Menonaktifkan Copilot di Power Pages

Ketersediaan wilayah dan bahasa

Ketersediaan Copilot secara internasional

Pergerakan data di berbagai wilayah geografis

Keamanan di Microsoft

Privasi di Microsoft

Pernyataan Privasi Microsoft

AI yang Bertanggung Jawab