Bieži uzdotie jautājumi par Copilot datu drošību un konfidencialitāti pakalpojumā Dynamics 365 un Power Platform
Copilot pakalpojumam Dynamics 365 un Power Platform līdzekļi atbilst drošības un konfidencialitātes pamatprakses noteikumu un Microsoft atbildīgas mākslīgā intelekta izmantošanas standarta prasībām. Dynamics 365 un Power Platform dati tiek aizsargāti, izmantojot visaptverošas, nozarē vadošās atbilstības, drošības un konfidencialitātes vadīklas.
Līdzeklis Copilot ir izstrādāts, pamatojoties uz Microsoft Azure OpenAI Service, un pilnībā darbojas Azure mākonī. Azure OpenAI piedāvā reģionālo pieejamību un atbildīgu mākslīgā intelekta satura filtrēšanu. Copilot izmanto OpenAI modeļus un visas Microsoft Azure drošības iespējas. OpenAI ir neatkarīga organizācija. Jūsu dati netiek koplietoti ar OpenAI.
Copilot līdzekļi nav pieejami visās Azure ģeogrāfiskās atrašanās vietās un valodās. Atkarībā no tā, kur vide tiek viesota, var būt nepieciešams atļaut pārvietot datus starp dažādām ģeogrāfiskajām atrašanās vietām, lai datus varētu izmantot. Papildinformāciju skatiet rakstos, kas uzskaitīti sadaļā Datu pārvietošana starp dažādām ģeogrāfiskajām atrašanās vietām.
Kas notiek ar maniem datiem, kad izmantoju Copilot?
Jūs kontrolējat savus datus. Korporācija Microsoft nekoplieto jūsu datus ar trešajām pusēm, ja vien neesat atļāvis(-usi) to darīt. Turklāt mēs neizmantojam jūsu klientu datus, lai apmācītu Copilot vai tā AI līdzekļus, ja vien neesat piešķīris(-usi) korporācijai attiecīgu atļauju. Copilot ievēro esošās datu atļaujas un politikas, un līdzekļa sniegto atbilžu pamatā ir tikai tie dati, kuriem varat piekļūt jūs. Papildinformāciju par to, kā varat kontrolēt datus un datu apstrādi, skatiet rakstos sadaļā Copilot Dynamics 365 programmās un Power Platform.
Copilot pārrauga, vai pakalpojums netiek izmantots ļaunprātīgi vai kaitnieciski, veicot īslaicīgu apstrādi. Copilot ievades un izvades dati netiek glabāti vai tiešā veidā pārskatīti, lai uzraudzītu ļaunprātīgas darbības.
Kā Copilot izmanto manus datus?
Katrs pakalpojums vai līdzeklis izmanto Copilot, pamatojoties uz jūsu sniegtajiem datiem vai Copilot datu apstrādes iestatījumiem.
Uzvednes (ievades dati) un Copilot atbildes (izvades dati vai rezultāti):
NAV pieejami citiem klientiem.
NETIEK izmantoti, lai apmācītu vai uzlabotu trešo pušu produktus vai pakalpojumus (piemēram, OpenAI modeļus).
NETIEK izmantoti, lai apmācītu vai uzlabotu Microsoft AI modeļus, izņemot gadījumus, kad jūsu nomnieka administrators ir piekritis datu koplietošanai ar korporāciju Microsoft. Uzziniet vairāk rakstā Bieži uzdotie jautājumi par neobligāto datu koplietošanu Copilot AI līdzekļiem sistēmā Dynamics 365 un Power Platform.
Papildinformācija par Azure OpenAI Service datu aizsardzību un drošību. Lai uzzinātu vairāk par to, kā korporācija Microsoft vispārīgi aizsargā un izmanto jūsu datus, izlasiet mūsu paziņojumu par konfidencialitāti.
Kur nokļūst mani dati?
Microsoft darbības pamatā ir uzticēšanās. Korporācija apņemas gādāt par drošību, konfidencialitāti un atbilstību it visā, ko mēs darām, un tas attiecas arī uz korporācijas pieeju AI. Klientu dati, tostarp Copilot ievades un izvades dati, tiek saglabāti atbilstoši Microsoft Cloud uzticamības robežām.
Dažos scenārijos, piemēram, ja līdzekļu darbību nodrošina Bing un trešo pušu palīga spraudņi, klientu dati var tikt pārsūtīti ārpus Microsoft Cloud uzticamības robežas.
Vai Copilot var piekļūt šifrētam saturam?
Līdzeklim Copilot dati tiek nodrošināti, pamatojoties uz pašreizējā lietotāja piekļuves līmeni. Ja lietotājam ir piekļuve šifrētiem datiem pakalpojumā Dynamics 365 un Power Platform un lietotājs šos datus nodrošinās līdzeklim Copilot, tad Copilot varēs piekļūt šiem datiem.
Kā Copilot aizsargā klientu datus?
Korporācijai Microsoft ir unikāla iespēja nodrošināt lietošanai uzņēmumā gatavu AI. Copilot darbību nodrošina Azure OpenAI Service, un tas atbilst mūsu esošajām konfidencialitātes, drošības un reglamentējošās atbilstības saistībām attiecībā uz mūsu klientiem.
Veidots, pamatojoties uz Microsoft visaptverošo pieeju drošībai, konfidencialitātei un atbilstībai. Līdzeklis Copilot ir integrēts tādos Microsoft pakalpojumos kā Dynamics 365 un Power Platform un izmanto šo pakalpojumu drošības, konfidencialitātes un atbilstības politikas un procesus, piemēram, daudzfaktoru autentifikāciju un atbilstības robežvērtības.
Vairāku veidu aizsardzība organizācijas datiem. Pakalpojuma puses tehnoloģijas šifrē organizācijas saturu miera stāvoklī un pārejas procesā, lai gādātu par ievērojamu drošību. Savienojumiem ir nodrošināta transporta slāņa drošība (Transport Layer Security — TLS), un datu pārsūtīšana starp Dynamics 365 Power Platform un Azure OpenAI tiek veikta Microsoft mugurkaula tīklā, gādājot par uzticamību un drošību. Papildinformācija par šifrēšanu Microsoft Cloud.
Veidots, lai aizsargātu datus gan nomnieka, gan vides līmenī. Mēs zinām, ka klienti ir nobažījušies par datu noplūdi. Microsoft mākslīgā intelekta modeļi netiek apmācīti ar jūsu nomnieka datiem vai uzvedņu datiem, ja vien nomnieka administrators nav piekritis koplietot datus ar korporāciju Microsoft. Savās vidēs varat kontrolēt piekļuvi, izmantojot iestatītās atļaujas. Autentifikācijas un autorizācijas mehānismi nodala pieprasījumus atbilstoši nomnieku koplietojamam modelim. Copilot izmanto datus, kuriem varat piekļūt tikai jūs; šeit tiek izmantota tā pati tehnoloģija, ko mēs jau gadiem izmantojam klientu datu aizsardzībai.
Vai Copilot atbildes vienmēr ir faktiem atbilstošas?
Līdzīgi jebkura citam ģeneratīvajam mākslīgajam intelektam Copilot atbildes nav 100% faktiem atbilstošas. Lai gan mēs turpinām uzlabot atbildes uz vaicājumiem, kuru pamatā ir fakti, jums ir patstāvīgi jāpieņem lēmums par izvades datiem un tie jāpārskata pirms nosūtīšanas citām personām. Copilot nodrošina noderīgus melnrakstus un kopsavilkumus, lai palīdzētu jums paveikt vairāk, tomēr līdzekļa darbība ir pilnībā automātiska. Jums vienmēr ir iespēja pārskatīt AI ģenerēto saturu.
Mūsu komandas strādā pie tā, lai varētu proaktīvi novērst problēmas, piemēram, kļūdainu informāciju un dezinformāciju, satura bloķēšanu un datu drošību, un lai varētu novērst kaitīga vai diskriminējoša satura veicināšanu saskaņā ar mūsu atbildīgas mākslīgā intelekta izmantošanas principiem.
Mēs arī piedāvājam norādījumus lietotājiem, lai veicinātu AI ģenerētā satura un ieteikto darbību atbildīgu lietošanu.
Norādījumi un uzvednes. Kad izmantojat līdzekli Copilot, uzvednes un citi norādījumu elementi atgādina par nepieciešamību pārskatīt un rediģēt atbildes pirms to lietošanas, kā arī manuāli pārbaudīt faktu, datu un teksta precizitāti, pirms izmantojat AI ģenerēto saturu.
Citēti avoti. Ja piemērojams, Copilot norāda publiskus un iekšējus informācijas avotus, lai lietotājs varētu tos pārskatīt un apstiprināt atbildes.
Papildinformāciju skatiet izmantotajam produktam atbilstošajos bieži uzdotajos jautājumos par atbildīgu mākslīgā intelekta izmantošanu platformā Microsoft Learn.
Kā Copilot bloķē kaitīgu saturu?
Azure OpenAI Service ietver satura filtrēšanas sistēmu, kas darbojas kopā ar pamata modeļiem. Satura filtrēšanas modeļi naida un godīguma, seksuāla satura, vardarbības un paškaitējuma kategorijām ir īpaši apmācīti un testēti dažādās valodās. Šī sistēma darbojas, apstrādājot ievades uzvedni un atbildi ar klasifikācijas modeļiem, kas ir izstrādāti, lai identificētu un bloķētu kaitīga satura izvadi.
Ar naidu un godīgumu saistīts kaitējums attiecas uz jebkuru saturu, kas izmanto nievājošu vai diskriminējošu valodu, pamatojoties uz tādiem atribūtiem kā rase, etniskā piederība, tautība, dzimtes identitāte un dzimuma pašizpausme, seksuālā orientācija, reliģija, imigrācijas statuss, spēju statuss, personīgais izskats un auguma aprises. Godīguma mērķis ir nodrošināt, lai AI sistēmas izturētos pret visām cilvēku grupām vienlīdzīgi, neveicinot esošo nevienlīdzību sabiedrībā. Seksuāls saturs ietver diskusijas par cilvēka dzimumorgāniem, romantiskām attiecībām, darbībām, kas attēlotas ar erotiskiem vai romantiskiem terminiem, grūtniecību, fiziskiem dzimumaktiem, tostarp tādiem, kas attēloti kā uzbrukums vai piespiedu seksuālā vardarbība, prostitūciju, pornogrāfiju un vardarbību. Vardarbīga valoda ir valoda, kas saistīta ar fiziskām darbībām, kuru mērķis ir kaitējums vai nogalināšana, tostarp darbības, ieroči un saistītās entītijas. Paškaitējuma valoda attiecas uz apzinātām darbībām, kuru mērķis ir kaitēt sev vai izdarīt pašnāvību.
Papildinformācija par Azure OpenAI satura filtrēšanu.
Vai Copilot bloķē uzvedņu injekcijas (atlaušanas uzbrukumus)?
Atlaušanas uzbrukumi ir lietotāja uzvednes, kas paredzētas, lai liktu ģeneratīvajam mākslīgā intelekta modelim veikt darbības, no kurām tas ir apmācīts izvairīties, vai pārkāpt noteikumus, kas tam ir jāievēro. Dynamics 365 un Power Platform pakalpojumiem ir obligāti jāievieš aizsardzība pret uzvedņu injekcijām. Papildinformācija par atlaušanas uzbrukumiem un to, kā izmantot Azure AI Content Safety, lai tos konstatētu.
Vai Copilot bloķē netiešas uzvedņu injekcijas (netiešus uzbrukumus)?
Netiešie uzbrukumi, kas tiek saukti arī par netiešajiem uzvedņu uzbrukumiem vai starpdomēnu uzvedņu injekciju uzbrukumiem, ir potenciāla ievainojamība, kur trešās puses ievieto ļaunprātīgas instrukcijas dokumentos, kuriem ģeneratīvā mākslīgā intelekta sistēma var piekļūt un apstrādāt. Dynamics 365 un Power Platform pakalpojumiem ir obligāti jāievieš aizsardzība pret netiešajām uzvedņu injekcijām. Papildinformācija par netiešajiem uzbrukumiem un to, kā izmantot Azure AI Content Safety, lai tos noteiktu.
Kā Microsoft testē un validē Copilot kvalitāti, tostarp aizsardzību pret uzvedņu injekcijām un pamatotas atbildes?
Visas jaunās Copilot produkta un valodas modeļa iterācijas tiek iekšēji pārskatītas atbilstoši atbildīgas mākslīgā intelekta izmantošanas principiem, un tikai pēc tam iterācija tiek palaista. Pirms izlaišanas tiek izmantots process, ko dēvē par “sarkanās komandas uzbrukumu” (kurā komanda simulē uzbrukumu, meklējot un izmantojot trūkumus, lai palīdzētu organizācijai uzlabot aizsardzību), lai novērtētu iespējamos riskus saistībā ar kaitīgu saturu, uzlaušanas scenārijiem un pamatotām atbildēm. Pēc izlaišanas mēs izmantojam automātisku testēšanu, kā arī manuālus un automātiskus novērtēšanas rīkus, lai novērtētu Copilot atbilžu kvalitāti.
Kā korporācija Microsoft uzlabo pamata modeli un mēra pamatotu atbilžu uzlabojumus?
AI kontekstā, it īpaši tāda AI, kas darbojas ar valodu modeļiem (piemēram, valodu modeli, uz kuru ir balstīts līdzeklis Copilot), pamatošana palīdz AI ģenerēt atbildes, kas ir atbilstošākas un efektīvāk izmantojamas reālajā pasaulē. Pamatošana palīdz gādāt par to, lai AI atbildes būtu balstītas uz uzticamu informāciju un būtu pēc iespējas precīzākas un atbilstīgākas. Pamatotu atbilžu metrika novērtē, cik precīzi fakti, kas norādīti modelim nodrošinātajā pamatojuma saturā, tiek izmantoti galīgajā atbildē.
Pamata modeļus, piemēram, GPT-4, uzlabo izgūšanas paplašinātās ģenerēšanas (Retrieval Augmented Generation — RAG) metodes. Šīs metodes ļauj modeļiem izmantot vairāk informācijas, nekā tie saņēma apmācībās, lai izprastu konkrēta lietotāja scenāriju. RAG darbojas, sākotnēji identificējot datus, kas ir saistīti ar scenāriju, līdzīgi kā meklēšanas programma identificē tīmekļa lapas, kas atbilst lietotāja meklēšanas nosacījumiem. Metode izmanto vairākas pieejas, lai noteiktu, kāds saturs ir atbilstošs lietotāja uzvednei un ir jāizmanto, lai pamatotu atbildi. Pieejas ietver dažādu indeksu tipu meklēšanu, piemēram, apgrieztos indeksus, izmantojot tādus informācijas izgūšanas paņēmienus kā terminu saskaņošanu, vai vektoru indeksus, izmantojot vektoru attāluma salīdzinājumu semantiskai līdzībai. Pēc atbilstošo dokumentu identificēšanas RAG nodod datus modelim kopā ar pašreizējo sarunu, sniedzot modelim vairāk konteksta, lai modelis labāk saprastu informāciju, kas tam jau ir pieejama, un ģenerētu atbildi, kas ir pamatota reālajā pasaulē. Visbeidzot RAG pārbauda atbildi, lai pārliecinātos, vai tā tiek atbalstīta ar avota saturu, ko tas sniedzis modelim. Copilot ģeneratīvā AI līdzekļi ietver RAG dažādos veidos. Viens piemērs ir tērzēšana ar datiem, kur tērzēšanas robota darbība tiek pamatota ar paša klienta datu avotiem.
Citu pamata modeļu darbības uzlabošanas metodi dēvē par precizēšanu. Apjomīga vaicājumu un atbilžu pāru datu kopa tiek parādīta pamata modelim, lai papildinātu tā sākotnējo apmācību ar jauniem paraugiem, kas paredzēti noteiktam scenārijam. Pēc tam modeli var izvietot kā atsevišķu modeli, kas ir pielāgots šim scenārijam. Pamatošanas mērķis ir padarīt AI zināšanas atbilstošas reālajai pasaulei, savukārt precizēšanas mērķis ir padarīt AI zināšanas specifiski piemērotas konkrētam uzdevumam vai domēnam. Korporācija Microsoft precizēšanu izmanto vairākos veidos. Piemēram, mēs izmantojam Power Automate plūsmas izveidi no lietotāja sniegtiem dabiskas valodas aprakstiem.
Vai Copilot atbildīs prasībām par normatīvo prasību ievērošanu?
Microsoft Copilot ir daļa no Dynamics 365 un Power Platform ekosistēmas un atbilst šīs ekosistēmas vienotajiem noteikumiem par normatīvo prasību ievērošanu. Papildinformāciju par Microsoft pakalpojumu normatīvajām sertifikācijām skatiet Pakalpojumu drošības kontroles portālā. Turklāt Copilot ievēro mūsu saistības attiecībā uz atbildīgu mākslīgā intelekta izmantošanu, kā noteikts mūsu atbildīgas mākslīgā intelekta izmantošanas standartā. Kamēr noteikumi par AI lietošanu turpina attīstīties, Microsoft turpina pielāgoties un reaģēt uz jaunām prasībām.
Papildinformācija
Copilot Dynamics 365 programmās un platformā Power Platform
Uzziniet vairāk rakstā Bieži uzdotie jautājumi par neobligāto datu koplietošanu Copilot AI līdzekļiem sistēmā Dynamics 365 un Power Platform.
Reģionālā un valodu pieejamība
Copilot starptautiskā pieejamība
Datu pārvietošana starp ģeogrāfiskajiem apgabaliem
- Datu apstrādes veids visos reģionos
- Datu pārvietošanas konfigurēšana ģeogrāfiskajās atrašanās vietās, lai izmantotu ģeneratīvā AI līdzekļus ārpus ASV
- Copilot datu pārvietošana ģeogrāfiskajos apgabalos pakalpojumā Dynamics 365 Sales
- Copilot datu pārvietošana ģeogrāfiskajos apgabalos pakalpojumā Dynamics 365 Business Central
Drošība korporācijā Microsoft
- Iepazīšanās ar Azure drošību
- Šifrēšana pakalpojumā Microsoft Cloud
- Dati, konfidencialitāte un drošība Azure OpenAI Service – Azure AI pakalpojumi
Konfidencialitāte uzņēmumā Microsoft
Microsoft personas datu aizsardzības paziņojums
Atbildīga mākslīgā intelekta izmantošana
- Microsoft atbildīga mākslīgā intelekta standarts
- Bieži uzdotie jautājumi par atbildīgu mākslīgo intelektu pakalpojumā Microsoft Power Platform
- Bieži uzdotie jautājumi par atbildīgu mākslīgo intelektu pakalpojumā Dynamics 365
- Bieži uzdotie jautājumi par atbildīgu mākslīgo intelektu pakalpojumā Microsoft Copilot Studio