Bieži uzdotie jautājumi par Copilot datu drošību un privātumu Dynamics 365 un Power Platform
Copilot pakalpojumam Dynamics 365 un Power Platform līdzekļi atbilst drošības un konfidencialitātes pamatprakses kopumam un Microsoft atbildīga AI standartam. Dynamics 365 un Power Platform datus aizsargā visaptverošas, nozarē vadošās atbilstības, drošības un konfidencialitātes kontroles.
Copilot ir veidots uz Microsoft Azure OpenAI pakalpojuma un pilnībā darbojas Azure mākonī. Azure OpenAI piedāvā reģionālo pieejamību un atbildīga AI satura filtrēšanu. Copilot izmanto OpenAI modeļus ar visām drošības iespējām Microsoft Azure. OpenAI ir neatkarīga organizācija. Mēs nekopīgojam jūsu datus ar OpenAI.
Copilot līdzekļi nav pieejami visās Azure ģeogrāfiskajos apgabalos un valodās. Atkarībā no tā, kur tiek viesota vide, iespējams, jums būs jāatļauj datu pārvietošana dažādās ģeogrāfiskās atrašanās vietās, lai tos izmantotu. Papildinformāciju skatiet rakstos, kas uzskaitīti sadaļā Datu pārvietošana starp ģeogrāfiskajām atrašanās vietām.
Kas notiek ar maniem datiem, kad izmantoju Copilot?
Jūs kontrolējat savus datus. Microsoft nekopīgo jūsu datus ar trešo pusi, ja vien neesat piešķīris atļauju to darīt. Turklāt mēs neizmantojam klientu datus, lai apmācītu Copilot vai tā AI līdzekļus, ja vien neesat sniedzis piekrišanu to darīt. Copilot ievēro esošās datu atļaujas un politikas, un Copilot atbildes jums ir balstītas tikai uz datiem, kuriem varat personīgi piekļūt. Lai iegūtu papildinformāciju par to, kā varat kontrolēt savus datus un kā tiek apstrādāti jūsu dati, skatiet rakstus, kas uzskaitīti sadaļā Copilot sadaļā Dynamics 365 lietotnes un Power Platform.
Copilot pārrauga, vai pakalpojums netiek izmantots ļaunprātīgi vai kaitnieciski, veicot īslaicīgu apstrādi. Mēs nesaglabājam un nepārskatām Copilot ievades un izvades, lai uzraudzītu produkta izmantošanu ļaunprātīgos nolūkos.
Kā Copilot izmanto manus datus?
Katrs pakalpojums vai līdzeklis izmanto Copilot, pamatojoties uz datiem, ko esat sniedzis vai iestatījis tā, lai tos apstrādātu Copilot.
Jūsu uzvednes (ievades) un Copilot atbildes (izvades vai rezultāti):
NAV pieejami(as) citiem klientiem.
NETIEK izmantoti(as), lai apmācītu vai uzlabotu trešo pušu produktus vai pakalpojumus (piemēram, OpenAI modeļus).
NETIEK izmantoti, lai apmācītu vai uzlabotu Microsoft AI modeļus, ja vien nomnieka administrators neizvēlas kopīgot datus ar mums. Uzziniet vairāk sadaļā Bieži uzdotie jautājumi par papildu datu kopīgošanu Copilot AI funkcijām operētājsistēmā Dynamics 365 un Power Platform.
Uzziniet vairāk par Azure OpenAI Service datu konfidencialitāti un drošību. Lai uzzinātu vairāk par to, kā Microsoft aizsargā un izmanto jūsu datus vispārīgāk, izlasiet mūsu paziņojumu par konfidencialitāti.
Kur nokļūst mani dati?
Microsoft darbojas uz uzticību. Esam apņēmusies sniegt drošību, privātumu un atbalstu visam, ko darām, un mūsu pieeja mākslīgajam intelektam nav atšķirīga. Klientu dati, tostarp Copilot ieejas un izejas, tiek glabāti mākoņa uzticamības Microsoft robežās.
Dažos scenārijos, piemēram, Bing nodrošinātajos līdzekļos un trešās puses kopilota spraudņos, klientu dati var tikt pārsūtīti ārpus mākoņa uzticamības Microsoft robežas.
Vai Copilot var piekļūt šifrētam saturam?
Copilot sniegtie dati tiek nodrošināti saskaņā ar pašreizējā lietotāja piekļuves līmeni. Ja lietotājam ir piekļuve šifrētajiem datiem pakalpojumos Dynamics 365 un Power Platform un lietotājs tos nodrošina pakalpojumam Copilot, tad Copilot var piekļūt šiem datiem.
Kā Copilot aizsargā klientu datus?
Microsoft ir unikāli pozicionēts, lai nodrošinātu uzņēmumam gatavu AI. Copilot darbību nodrošina Azure OpenAI Service, un tas atbilst mūsu esošajām konfidencialitātes, drošības un normatīvajām saistībām pret mūsu klientiem.
Balstīta uz Microsoft visaptverošo pieeju drošībai, konfidencialitātei un atbilstībai. Copilot ir integrēts Microsoft tādos pakalpojumos kā Dynamics 365 un Power Platform pārmanto to drošības, konfidencialitātes un atbilstības politikas un procesus, piemēram, daudzfaktoru autentifikāciju un atbilstības robežas.
Organizācijas datus aizsargā vairāki aizsardzības veidi. Pakalpojuma puses tehnoloģijas šifrē organizācijas saturu, kamēr tas atrodas vietā vai tiek pārsūtīts, drošības apsvērumu dēļ. Savienojumi tiek aizsargāti, izmantojot transporta slānis drošību (TLS), un datu pārsūtīšana starp Dynamics 365 Power Platform un Azure OpenAI notiek Microsoft pamattīklā, nodrošinot gan uzticamību, gan drošību. Uzziniet vairāk par šifrēšanu mākonī Microsoft .
Izstrādāts, lai aizsargāt jūsu datus gan nomnieka, gan vides līmenī. Mēs zinām, ka klienti ir nobažījušies par datu noplūdi. Microsoft AI modeļi netiek apmācīti un nemācās no jūsu nomnieka datiem vai uzvednēm, ja vien nomnieka administrators nav izvēlējies kopīgot datus ar mums. Savā vidē varat kontrolēt piekļuvi, izmantojot iestatītās atļaujas. Autentifikācijas un autorizācijas mehānismi nošķir pieprasījumus koplietojamajā modelī starp nomniekiem. Copilot izmanto tādus datus, kuriem varat piekļūt tikai jūs; šeit tiek izmantota tā pati tehnoloģija, ko mēs jau gadiem izmantojam klientu datu aizsardzībai.
Vai Copilot atbildes vienmēr ir faktiskas?
Tāpat kā jebkuram ģeneratīvam AI, Copilot atbildes nav 100% faktiskas. Kamēr mēs turpināsim uzlabot atbildes uz faktos pamatotiem jautājumiem, jums joprojām ir ieteicams pārskatīt iegūto rezultātu un to kritiski novērtēt pirms nosūtīšanas citiem. Copilot nodrošina noderīgus melnrakstus un kopsavilkumus, lai palīdzētu jums paveikt vairāk, bet tas notiek pilnībā automātiski. Jums vienmēr ir iespēja pārskatīt AI ģenerēto saturu.
Mūsu komandas strādā, lai proaktīvi risinātu tādus jautājumus kā maldinoša informācija un dezinformācija, satura bloķēšana, datu drošība un kaitīga vai diskriminējoša satura reklamēšana saskaņā ar mūsu atbildīgā MI principiem.
Lietotāja saskarē mēs nodrošinām arī norādes par to, kā ieviest atbildīgu AI ģenerētā satura un ieteikto darbību izmantošanu.
Instrukcijas un uzvednes. Izmantojot Copilot, uzvednes un citi informācijas elementi atgādina pārskatīt un rediģēt atbildes un manuāli pārbaudīt informācijas, datu un teksta precizitāti pirms AI ģenerēta satura izmantošanas.
Citēti avoti. Vajadzības gadījumā Copilot norāda savus informācijas avotus — gan publiskus, gan iekšējus —, lai jūs tos varētu tos pārskatīt pats un apstiprināt savas atbildes.
Papildinformāciju skatiet sadaļā Bieži uzdotie jautājumi par atbildīgu mākslīgā intelekta izmantošanu vietnē Microsoft Learn.
Kā Copilot bloķē kaitniecisku saturu?
Azure OpenAI Service ir iekļauta satura filtrēšanas sistēma, kas darbojas kopā ar pamata modeļiem. Satura filtrēšanas modeļi attiecībā uz naida, seksualitātes, vardarbības un paškaitējuma kategorijām ir specifiski apmācīti un testēti dažādās valodās. Šī sistēma darbojas, izpildot gan ievades uzvedni, gan atbildi, izmantojot klasifikācijas modeļus, kas izstrādāti, lai identificētu un bloķētu kaitnieciska satura izvadi.
Ar naidu saistīta kaitniecība attiecas uz jebkuru saturu, kas izmanto aizskarošu vai diskriminējošu valodu, balstoties uz tādām īpašībām kā rase, etniskā piederība, nacionalitāte, dzimumidentitāte un tās izpausmes, seksuālā orientācija, reliģija, imigrācijas statuss, fiziskās spējas, izskats un ķermeņa izmēri. Taisnīgums ir saistīts ar to, lai nodrošinātu, ka MI sistēmas izturas pret visām cilvēku grupām taisnīgi, neveicinot pastāvošo nevienlīdzību sabiedrībā. Seksuāla rakstura saturs ietver diskusijas par cilvēku reproduktīvajiem orgāniem, romantiskām attiecībām, erotiski vai sirsnīgi attēlotām darbībām, grūtniecību, fiziskām seksuālām darbībām, tostarp tādām, kas attēlotas kā uzbrukums vai piespiedu seksuāla vardarbība, prostitūcija, pornogrāfija un ļaunprātīga izmantošana. Vardarbība ir valoda, kas saistīta ar fiziskām darbībām, kuru mērķis ir kaitēt vai nogalināt, tostarp darbībām, ieročiem un saistītām vienībām. Paškaitējuma valoda attiecas uz apzinātām darbībām, kuru mērķis ir ievainot vai nogalināt sevi.
Uzziniet vairāk par Azure OpenAI satura filtrēšanu.
Vai Copilot bloķē uzvedņu injekcijas (atlaušanas uzbrukumus)?
Jailbreak uzbrukumi ir lietotāju uzvednes, kas ir paredzētas, lai provocētu ģeneratīvo AI modeli uzvesties tā, kā tas tika apmācīts, nevis vai pārkāpt noteikumus, kas tam ir jāievēro. Dynamics 365 un Power Platform pakalpojumi ir nepieciešami, lai ieviestu aizsardzību pret uzvedņu injekcijām. Uzziniet vairāk par jailbreak uzbrukumiem un to, kā izmantot Azure AI satura drošību, lai tos noteiktu.
Vai Copilot bloķē netiešas uzvedņu injekcijas (netiešos uzbrukumus)?
Netiešie uzbrukumi, ko dēvē arī par netiešiem ātriem uzbrukumiem vai starpdomēnu ātriem injicēšanas uzbrukumiem, ir potenciāla ievainojamība, ja trešās puses dokumentos, kuriem ģeneratīvā AI sistēma var piekļūt un apstrādāt, ievieto ļaunprātīgas instrukcijas. Dynamics 365 un Power Platform pakalpojumi ir nepieciešami, lai ieviestu aizsardzību pret netiešo uzvedņu injekcijām. Uzziniet vairāk par netiešajiem uzbrukumiem un to, kā izmantot Azure MI satura drošību, lai tos noteiktu.
Kā pārbaudīt Microsoft un apstiprināt Copilot kvalitāti, ieskaitot ātru aizsardzību pret iesmidzināšanu un iezemētas reakcijas?
Lai varētu palaist katru jauno Copilot produktu un valodas modeļa iterāciju, tam ir jāveic iekšēja atbildīga AI pārskatīšanas procedūra. Pirms izlaišanas mēs izmantojam procesu ar nosaukumu "sarkanā komanda" (kurā darba grupa simulē uzbrukumu, meklējot un izmantojot ievainojamības, lai organizācijai palīdzētu uzlabot tās aizsardzību), lai novērtētu potenciālos riskus saistībā ar kaitniecisku saturu, atlaušanas uzbrukumu scenārijiem un pamatotām atbildēm. Pēc izlaišanas mēs izmantojam automatizētu testēšanu un manuālus un automatizētus novērtēšanas rīkus, lai novērtētu Copilot atbilžu kvalitāti.
Microsoft Kā uzlabot pamatu modeli un izmērīt uzlabojumus pamatotās atbildēs?
MI kontekstā, jo īpaši MI, kas nodarbojas ar tādiem valodas modeļiem kā tas, uz kura balstās Copilot, zemējums palīdz AI radīt atbildes, kas ir atbilstošākas un saprotamākas reālajā pasaulē. Pamata izveide palīdz nodrošināt, ka AI atbildes ir balstītas uz uzticamu informāciju un ir iespējami precīzas un saistošas. Izmantojot pamata atbildes metriku, tiek novērtēts, cik precīzi fakti modelim sniegtajā pamata saturā ir attēloti gala atbildē.
Tādi pamata modeļi kā GPT-4 tiek uzlaboti ar izgūšanas paplašinātās ģenerēšanas (Retrieval Augmented Generation — RAG) metodēm. Šīs metodes ļauj modeļiem izmantot vairāk informācijas, nekā tie tika apmācīti, lai saprastu lietotāja scenāriju. RAG darbojas, vispirms identificējot scenārijam atbilstošus datus, līdzīgi kā meklētājprogramma identificē tīmekļa lapas, kas ir saistītas ar lietotāja meklēšanas terminiem. Tā izmanto vairākas pieejas, lai noteiktu, kāds saturs ir saistīts ar lietotāja uzvedni, un tā ir jāizmanto, lai iegūtu pamatotu atbildi. Pieejas iekļauj meklēšanu attiecībā pret dažāda tipa indeksiem, piemēram, invertētajiem indeksiem, izmantojot tādas informācijas izgūšanas metodes kā terminu atbilstības noteikšana vai vektoru indeksi, lietojot vektoru attālumu salīdzinājumus semantiskās līdzības noteikšanai. Kad identificēti atbilstošie dokumenti, RAF datus nodod modelim kopā ar pašreizējo sarunu, tādējādi nodrošinot modelim plašāku kontekstu, lai labāk izprastu jau esošo informāciju un ģenerētu atbildi, kas ir pamatota reālajā pasaulē. Visbeidzot, RAG pārbauda atbildi, lai pārliecinātos, vai šī atbilde tiek atbalstīta ar modelim nodrošināto avota saturu. Copilot ģeneratīvā AI līdzekļi ietver RAG dažādos veidos. Viens piemērs ir tērzēšana ar datu izmantošanu, kad tērzēšanas robota informācijas pamatā ir klienta datu avoti.
Vēl viena metode pamata modeļu uzlabošanai ir pazīstama kā precizēšana. Liela vaicājumu un atbilžu pāru datu kopa tiek norādīta pamata modelim, lai paplašinātu tā sākotnējo apmācību ar jauniem paraugiem, kas ir paredzēti konkrētam scenārijam. Pēc tam modeli var izvietot kā atsevišķu modeli — modeli, kas ir pielāgots šim scenārijam. Lai gan pamata izveides mērķis ir padarīt AI zināšanas saistītas ar reālo pasaulē, precīzā pielāgošana ļauj AI zināšanas pielāgot noteiktam uzdevumam vai domēnam. Microsoft izmanto precizēšanu vairākos veidos. Piemēram, mēs izmantojam Power Automate plūsmas izveidi no lietotāja nodrošinātajiem dabiskās valodas aprakstiem.
Vai Copilot atbilst prasībām par normatīvu ievērošanas izpildi?
Microsoft Copilot ir daļa no Dynamics 365 un Power Platform ekosistēmas un atbilst tām pašām prasībām attiecībā uz atbilstību normatīviem. Lai iegūtu papildinformāciju par pakalpojumu normatīvo sertifikāciju Microsoft , dodieties uz pakalpojumu drošības kontroles portālu. Turklāt Copilot ievēro mūsu apņemšanos attiecībā uz atbildīgu AI, kas tiek īstenota, izmantojot mūsu atbildīgā AI standartu. Attīstoties AI regulējumam, Microsoft tas turpina pielāgoties un reaģēt uz jaunām prasībām.
Uzzināt vairāk
Copilot izmantošana Dynamics 365 programmās un Power Platform
Uzziniet vairāk sadaļā Bieži uzdotie jautājumi par papildu datu kopīgošanu Copilot AI funkcijām operētājsistēmā Dynamics 365 un Power Platform.
Reģionālā un valodu pieejamība
Copilot starptautiskā pieejamība
Datu pārvietošana starp ģeogrāfiskajiem apgabaliem
- Kā darbojas datu pārvietošana starp reģioniem
- Datu kustības konfigurēšana starp ģeogrāfiskajām atrašanās vietām, lai iegūtu ģeneratīvas AI funkcijas ārpus Amerikas Savienotajām Valstīm
- Kopilota datu pārvietošana starp ģeogrāfiskajām atrašanās vietām pakalpojumā Dynamics 365 Sales
- Kopilota datu kustība starp ģeogrāfiskajām atrašanās vietām Dynamics 365 Business Central
Drošība plkst. Microsoft
- Iepazīšanās ar Azure drošību
- Šifrēšana mākonī Microsoft
- Dati, konfidencialitāte un drošība pakalpojumam Azure OpenAI Service — Azure AI pakalpojumi