Kongsi melalui


Soalan Lazim (FAQ) untuk keselamatan dan privasi data Copilot untuk Dynamics 365 dan Power Platform

Ciri Copilot for Dynamics 365 dan Power Platform mengikut set amalan keselamatan dan privasi teras serta Standard AI Bertanggungjawab Microsoft. Data Dynamics 365 dan Power Platform dilindungi oleh kawalan pematuhan, keselamatan dan privasi yang menyeluruh dan terkemuka dalam industri.

Copilot dibina pada Microsoft Azure OpenAI Service dan dijalankan sepenuhnya dalam awan Azure. Azure OpenAI menawarkan ketersediaan serantau dan penapisan kandungan AI yang bertanggungjawab. Copilot menggunakan model OpenAI dengan semua keupayaan keselamatan Microsoft Azure. OpenAI ialah sebuah organisasi bebas. Kami tidak berkongsi data anda dengan OpenAI.

Ciri Copilot tidak tersedia dalam semua geografi dan bahasa Azure. Bergantung pada tempat persekitaran anda dihoskan, anda mungkin perlu membenarkan pergerakan data merentas geografi untuk menggunakan ciri tersebut. Untuk mendapatkan maklumat lanjut, lihat artikel yang disenaraikan di bawah Pergerakan data merentas geografi.

Apakah yang akan berlaku pada data saya apabila saya menggunakan Copilot?

Anda mengawal data anda. Microsoft tidak berkongsi data anda dengan pihak ketiga melainkan anda telah memberikan keizinan untuk berbuat demikian. Selain itu, kami tidak menggunakan data pelanggan anda untuk melatih Copilot atau ciri AI Copilot melainkan anda memberikan persetujuan untuk kami berbuat demikian. Copilot mematuhi keizinan dan dasar data yang sedia ada, respons Copilot kepada anda juga hanya berdasarkan data yang boleh anda capai secara peribadi. Untuk mendapatkan maklumat lanjut tentang cara anda boleh mengawal data anda dan cara data anda dikendalikan, lihat artikel yang disenaraikan di bawah Copilot dalam aplikasi Dynamics 365 dan Power Platform.

Copilot memantau penggunaan perkhidmatan yang kasar atau memudaratkan dengan pemprosesan sementara. Kami tidak menyimpan atau menjalankan semakan mata terhadap input dan output Copilot untuk tujuan pemantauan penyalahgunaan.

Bagaimanakah Copilot menggunakan data saya? 

Setiap perkhidmatan atau ciri menggunakan Copilot berdasarkan data yang anda berikan atau sediakan untuk diproses oleh Copilot.

Gesaan anda (input) dan respons Copilot (output atau hasil):

  • TIDAK tersedia untuk pelanggan lain.

  • TIDAK digunakan untuk melatih atau menambah baik mana-mana produk atau perkhidmatan pihak ketiga (seperti model OpenAI).

  • TIDAK digunakan untuk melatih atau menambah baik model AI Microsoft melainkan pentadbir penyewa anda mengikut serta untuk berkongsi data dengan kami.

Ketahui lebih lanjut tentang privasi dan keselamatan data Azure OpenAI Service. Untuk mengetahui lebih lanjut tentang cara Microsoft melindungi dan menggunakan data anda secara lebih umum, baca Pernyataan Privasi kami.

Ke manakah data saya pergi?

Microsoft berfungsi atas kepercayaan. Kami komited terhadap keselamatan, privasi dan pematuhan dalam semua yang kami lakukan, termasuklah pendekatan kami terhadap AI. Data pelanggan, termasuk input dan output Copilot disimpan dalam sempadan kepercayaan Microsoft Cloud.

Dalam sesetengah senario, seperti ciri yang dikuasakan oleh Bing dan pemalam copilot pihak ketiga, data pelanggan mungkin dihantar di luar sempadan kepercayaan Microsoft Cloud.

Bolehkah Copilot mencapai kandungan yang disulitkan?

Data diberikan kepada Copilot berdasarkan tahap capaian pengguna semasa. Jika pengguna mempunyai capaian kepada data yang disulitkan dalam Dynamics 365 dan Power Platform dan pengguna memberikan data itu kepada Copilot, Copilot akan dapat mencapai data itu.

Bagaimanakah Copilot melindungi data pelanggan?

Microsoft mempunyai kedudukan unik untuk menyampaikan AI yang bersedia untuk perusahaan. Copilot dikuasakan oleh Azure OpenAI Service dan mematuhi komitmen privasi, keselamatan dan kawal selia kami yang sedia ada terhadap pelanggan kami.

  • Dibina berasaskan pendekatan menyeluruh Microsoft terhadap keselamatan, privasi dan pematuhan. Copilot disepadukan dalam perkhidmatan Microsoft seperti Dynamics 365 dan Power Platform serta mewarisi dasar dan proses keselamatan, privasi dan pematuhan produk tersebut, seperti pengesahan berbilang faktor dan sempadan pematuhan.

  • Pelbagai bentuk perlindungan untuk melindungi data organisasi. Teknologi bahagian perkhidmatan menyulitkan kandungan organisasi semasa disimpan dan dalam transit untuk keselamatan yang teguh. Sambungan dilindungi dengan Keselamatan Lapisan Pengangkutan (TLS) dan pemindahan data antara Dynamics 365, Power Platform dan Azure OpenAI berlaku melalui rangkaian tulang belakang Microsoft, memastikan kebolehpercayaan dan keselamatan. Ketahui lebih lanjut tentang penyulitan dalam Microsoft Cloud.

  • Dibina untuk melindungi data anda di peringkat penyewa dan persekitaran. Kami tahu bahawa kebocoran data ialah kebimbangan bagi pelanggan. Model AI Microsoft tidak dilatih dan tidak belajar daripada data penyewa anda atau gesaan anda, melainkan pentadbir penyewa anda mengikut serta untuk berkongsi data dengan kami. Dalam persekitaran anda, anda boleh mengawal capaian melalui kebenaran yang anda sediakan. Mekanisme pengesahan dan kebenaran mengasingkan permintaan kepada model yang dikongsi dalam kalangan penyewa. Copilot menggunakan data yang boleh anda capai sahaja, menggunakan teknologi yang telah kami gunakan selama bertahun-tahun untuk melindungi data pelanggan.

Adakah respons Copilot sentiasa berasaskan fakta?

Seperti mana-mana AI generatif, respons Copilot tidak dijamin 100% berasaskan fakta. Walaupun kami menambah baik respons kepada pertanyaan berasaskan fakta secara berterusan, anda seharusnya masih menggunakan pertimbangan anda dan menyemak output sebelum menghantar output tersebut kepada orang lain. Copilot menyediakan draf dan ringkasan yang berguna untuk membantu anda melakukan lebih banyak perkara, tetapi Copilot adalah automatik sepenuhnya. Anda sentiasa mempunyai peluang untuk menyemak kandungan yang dijana oleh AI.

Pasukan kami sedang berusaha untuk menangani isu secara proaktif, seperti maklumat yang salah dan tidak sesuai, sekatan kandungan, keselamatan data dan penggalakan kandungan yang berbahaya atau diskriminasi selaras dengan prinsip AI bertanggungjawab kami.

Kami juga menawarkan panduan dalam pengalaman pengguna untuk mengukuhkan penggunaan bertanggungjawab terhadap kandungan dan tindakan dicadangkan yang dijana oleh AI.

  • Arahan dan gesaan. Apabila anda menggunakan Copilot, gesaan dan elemen pengajaran lain mengingatkan anda untuk menyemak dan mengedit respons mengikut keperluan serta menyemak fakta, data dan teks secara manual untuk memastikan ketepatan sebelum menggunakan kandungan yang dijana oleh AI.

  • Sumber dinyatakan. Apabila berkenaan, Copilot menyatakan sumber maklumatnya, sama ada sumber awam atau dalaman, supaya anda boleh menyemak sumber sendiri untuk mengesahkan respons.

Untuk mendapatkan maklumat lanjut, lihat Soalan Lazim AI Bertanggungjawab untuk produk anda di Microsoft Learn.

Bagaimanakah Copilot menyekat kandungan berbahaya?

Azure OpenAI Service menyertakan sistem penapisan kandungan yang berfungsi bersama model asas. Model penapisan kandungan untuk kategori Kebencian dan Kesaksamaan, Seksual, Keganasan dan Mencederakan Diri telah dilatih dan diuji secara khusus dalam pelbagai bahasa. Sistem ini berfungsi dengan menjalankan kedua-dua gesaan input dan respons melalui model klasifikasi yang direka bentuk untuk mengenal pasti dan menyekat output kandungan berbahaya.

Kemudaratan berkaitan kebencian dan kesaksamaan merujuk kepada apa-apa kandungan yang menggunakan bahasa yang pejoratif atau mendiskriminasi berdasarkan atribut seperti bangsa, etnik, kewarganegaraan, identiti dan ungkapan jantina, orientasi seksual, agama, status imigresen, status keupayaan, penampilan diri dan saiz badan. Kesaksamaan tertumpu pada memastikan sistem AI melayan semua kumpulan orang secara saksama tanpa menyumbang kepada ketidaksamaan masyarakat yang sedia ada. Kandungan seksual melibatkan perbincangan tentang organ pembiakan manusia, hubungan percintaan, perbuatan yang digambarkan dari segi erotik atau mesra, kehamilan, perbuatan seksual fizikal termasuk yang digambarkan sebagai serangan atau tindakan keganasan seksual secara paksaan, pelacuran, pornografi dan penderaan. Keganasan menerangkan bahasa yang berkaitan dengan tindakan fizikal yang bertujuan untuk membahayakan atau membunuh, termasuk tindakan, senjata dan entiti yang berkaitan. Bahasa mencederakan diri sendiri merujuk kepada tindakan disengajakan yang bertujuan untuk mencederakan atau membunuh diri sendiri.

Ketahui lebih lanjut tentang penapisan kandungan Azure OpenAI.

Adakah Copilot menyekat suntikan gesaan (serangan godam)?

Serangan godam ialah gesaan pengguna yang direka bentuk bagi membuat model AI generatif melaksanakan tingkah laku yang tidak patut dilakukan selepas latihan atau melanggar peraturan yang telah diarahkan untuk dipatuhi. Perkhidmatan merentas Dynamics 365 dan Power Platform dikehendaki melindungi daripada suntikan gesaan. Ketahui lebih lanjut tentang serangan godam dan cara menggunakan Keselamatan Kandungan Azure AI untuk mengesan serangan godam.

Bagaimanakah Microsoft menguji dan mengesahkan kualiti Copilot, termasuk perlindungan suntikan gesaan dan respons berasas?

Setiap produk Copilot dan lelaran model bahasa baharu mesti lulus semakan AI bertanggungjawab dalaman sebelum boleh dilancarkan. Sebelum pengeluaran, kami menggunakan proses yang dipanggil "pasukan merah" (iaitu pasukan mensimulasikan serangan musuh lalu mencari dan mengeksploitasi kelemahan untuk membantu organisasi meningkatkan pertahanan mereka) untuk menilai potensi risiko dalam kandungan berbahaya, senario godam dan respons berasas. Selepas pengeluaran, kami menggunakan ujian automatik serta alat penilaian manual dan automatik untuk menilai kualiti respons Copilot.

Bagaimanakah Microsoft mempertingkatkan model asas dan mengukur peningkatan dalam respons berasas?

Dalam konteks AI, terutamanya AI yang mengendalikan model bahasa seperti model yang menjadi asas kepada Copilot, pengasasan membantu AI menjana respons yang lebih relevan dan masuk akal dalam dunia sebenar. Pengasasan membantu memastikan bahawa respons AI adalah berdasarkan maklumat yang boleh dipercayai serta seberapa tepat dan relevan yang mungkin. Metrik respons berasas menilai tahap ketepatan fakta yang dinyatakan dalam kandungan pengasasan yang diberikan kepada model dinyatakan dalam respons akhir.

Model asas seperti GPT-4 dipertingkatkan dengan teknik Penjanaan Diimbuh Pengambilan (RAG). Teknik ini membolehkan model menggunakan lebih banyak maklumat daripada yang digunakan dalam proses latihan untuk memahami senario pengguna. RAG berfungsi dengan terlebih dahulu mengenal pasti data yang berkaitan dengan senario, sama seperti cara enjin carian mengenal pasti halaman web yang berkaitan dengan istilah carian pengguna. Ciri ini menggunakan pelbagai pendekatan untuk mengenal pasti kandungan yang berkaitan dengan gesaan pengguna dan harus digunakan untuk mengasaskan respons. Pendekatan termasuk mencari jenis indeks yang berbeza, seperti indeks terbalik menggunakan teknik mendapatkan maklumat seperti padanan istilah atau indeks vektor menggunakan perbandingan jarak vektor untuk persamaan semantik. Selepas pendekatan ini mengenal pasti dokumen yang berkaitan, RAG menghantar data kepada model bersama-sama dengan perbualan semasa, memberi model lebih konteks untuk lebih memahami maklumat sedia ada dan menjana respons yang berasaskan dunia nyata. Akhir sekali, RAG menyemak respons untuk memastikan respons disokong oleh kandungan sumber yang diberikan kepada model. Ciri AI generatif Copilot menggabungkan RAG dalam pelbagai cara. Satu contoh ialah sembang dengan menggunakan data, yang bot sembang diasaskan dengan sumber data pelanggan sendiri.

Satu lagi kaedah untuk meningkatkan model asas dikenali sebagai penalaan halus. Set data besar pasangan pertanyaan-respons ditunjukkan kepada model asas untuk menambah latihan asal model dengan sampel baharu yang dikhususkan untuk senario tertentu. Model itu kemudiannya boleh digunakan sebagai model yang berasingan—iaitu model yang disesuaikan untuk senario itu. Pengasasan ialah tindakan menjadikan pengetahuan AI berkaitan dengan dunia sebenar, manakala penalaan halus memastikan pengetahuan AI lebih khusus untuk tugas atau domain tertentu. Microsoft menggunakan penalaan halus dalam pelbagai cara. Sebagai contoh, kami menggunakan penciptaan aliran Power Automate daripada penerangan bahasa semula jadi yang diberikan oleh pengguna.

Adakah Copilot memenuhi keperluan untuk pematuhan kawal selia?

Microsoft Copilot ialah sebahagian daripada ekosistem Dynamics 365 dan Power Platform serta memenuhi keperluan yang sama untuk pematuhan kawal selia. Untuk mendapatkan maklumat lanjut tentang pensijilan kawal selia perkhidmatan Microsoft, pergi ke Portal Kepercayaan Perkhidmatan (STP). Selain itu, Copilot berpegang teguh pada komitmen kami terhadap AI bertanggungjawab, yang dipraktikkan melalui Standard AI Bertanggungjawab kami. Microsoft meneruskan usaha penyesuaian dan bertindak balas terhadap keperluan baharu mengikut perkembangan peraturan AI.

Ketahui lebih lanjut tentang ketersediaan Dynamics 365, Power Platform dan Copilot, lokasi data pelanggan dan pematuhan terhadap keperluan global, serantau dan khusus industri untuk pengurusan data.

Ketahui lebih lanjut

Copilot dalam aplikasi Dynamics 365 dan Power Platform

Produk Ciri Persekitaran Terurus diperlukan? Cara mematikan ciri
AI Builder Senario dalam pratonton Tiada Senario dalam pratonton
Dynamics 365 Customer Insights - Data Cipta segmen dengan Copilot untuk Customer Insights - Data (pratonton) Tiada Customer Insights - Data mempunyai bendera sendiri untuk semua ciri Copilot oleh Azure OpenAI.

Ketahui lebih lanjut: Berikan keizinan untuk menggunakan Copilot dalam Customer Insights - Data
Dynamics 365 Customer Insights - Data Gambaran keseluruhan laporan penyediaan data (pratonton) Tiada Customer Insights - Data mempunyai bendera sendiri untuk semua ciri Copilot oleh Azure OpenAI.

Ketahui lebih lanjut: Berikan keizinan untuk menggunakan Copilot dalam Customer Insights - Data
Dynamics 365 Customer Insights - Data Dapatkan jawapan kepada soalan tentang keupayaan daripada Copilot (pratonton) Tiada Customer Insights - Data mempunyai bendera sendiri untuk semua ciri Copilot oleh Azure OpenAI.

Ketahui lebih lanjut: Berikan keizinan untuk menggunakan Copilot dalam Customer Insights - Data
Dynamics 365 Customer Insights (Data) Adakan dialog dengan data menggunakan Copilot dalam Customer Insights Tiada Customer Insights - Data mempunyai bendera sendiri untuk semua ciri Copilot oleh Azure OpenAI.

Ketahui lebih lanjut: Berikan keizinan untuk menggunakan Copilot dalam Customer Insights - Data
Dynamics 365 Customer Insights - Data Lihat konfigurasi sistem Tiada Customer Insights - Data mempunyai bendera sendiri untuk semua ciri Copilot oleh Azure OpenAI.

Ketahui lebih lanjut: Berikan keizinan untuk menggunakan Copilot dalam Customer Insights - Data
Dynamics 365 Customer Insights - Journeys Copilot membantu anda belajar dan melakukan lebih banyak perkara (semakan) Tiada Sama ada copilot ini tersedia dalam persekitaran anda ditentukan oleh tetapan pentadbir Power Platform. Ketahui cara menambah Copilot untuk aplikasi berpandukan model.


Keupayaan ini ialah "aplikasi Copilot dalam Customer Insights - Journeys " dan itulah sebabnya ia didayakan dalam pusat pentadbir Power Platform. Ketahui lebih lanjut: Soalan Lazim (FAQ) AI Bertanggungjawab
Dynamics 365 Customer Insights - Journeys Cipta perjalanan menggunakan bantuan AI Tiada Customer Insights - Journeys mempunyai bendera sendiri untuk ciri Copilot.

Ketahui lebih lanjut: Berikan keizinan untuk menggunakan Copilot dalam Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Segar semula dan sempurnakan mesej anda Tiada Customer Insights - Journeys mempunyai bendera sendiri untuk ciri Copilot.

Ketahui lebih lanjut: Berikan keizinan untuk menggunakan Copilot dalam Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Masukkan gaya e-mel anda dengan tema yang dibantu AI Tiada Customer Insights - Journeys mempunyai bendera sendiri untuk ciri Copilot.

Ketahui lebih lanjut: Berikan keizinan untuk menggunakan Copilot dalam Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Sasarkan pelanggan yang betul dengan menggunakan bantuan pertanyaan

Tiada Customer Insights - Journeys mempunyai bendera sendiri untuk ciri Copilot.

Ketahui lebih lanjut: Berikan keizinan untuk menggunakan Copilot dalam Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Gunakan AI untuk memulakan penciptaan e-mel Tiada Customer Insights - Journeys mempunyai bendera sendiri untuk ciri Copilot.

Ketahui lebih lanjut: Berikan keizinan untuk menggunakan Copilot dalam Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Gunakan imej dalam kandungan anda Tiada Customer Insights - Journeys mempunyai bendera sendiri untuk ciri Copilot.

Ketahui lebih lanjut: Berikan keizinan untuk menggunakan Copilot dalam Customer Insights - Journeys
Power Apps Bina aplikasi melalui perbualan Tiada Urus tetapan ciri
Power Apps Bantuan Copilot untuk mengisi borang dalam aplikasi berpandukan model Tiada Urus tetapan ciri
Power Apps Draf teks input yang ditulis dengan baik dengan Copilot Tidak, lesen pengguna premium Draf teks input yang ditulis dengan baik dengan Copilot
Power Apps Excel ke Jadual Tiada Urus tetapan ciri
Power Apps Gunakan bahasa semula jadi untuk mengedit aplikasi menggunakan panel Copilot Tiada Urus tetapan ciri
Power Automate Copilot dalam aliran awan pada Halaman utama dan dalam pereka bentuk (Lihat Mulakan dengan Copilot dalam aliran awan untuk mendapatkan butiran.) Tiada Hubungi sokongan untuk menjalankan skrip PowerShell.
Power Pages Semua (Lihat Gambaran keseluruhan Copilot dalam Power Pages untuk mendapatkan butiran.) Tiada Matikan Copilot dalam Power Pages

Ketersediaan serantau dan bahasa

Ketersediaan antarabangsa Copilot

Pergerakan data merentas geografi

Keselamatan di Microsoft

Privasi di Microsoft

Pernyataan Privasi Microsoft

AI Bertanggungjawab