Ofte stillede spørgsmål om Copilot-datasikkerhed og beskyttelse af personlige oplysninger i Dynamics 365 og Power Platform
Copilot for Dynamics 365 og Power Platform-funktioner følger et sæt metoder for kernesikkerhed og beskyttelse af personlige oplysninger og Microsofts Standard for ansvarlig AI. Dynamics 365- og Power Platform-data er beskyttet af omfattende, brancheførende overholdelse af angivne standarder, sikkerhedskontrolelementer og kontrolelementer til beskyttelse af personlige oplysninger.
Copilot er bygget på Microsoft Azure OpenAI Service og kører fuldstændigt i Azure-skyen. Azure OpenAI tilbyder tilgængelighed i geografiske områder og filtrering af indhold i ansvarlig AI. Copilot bruger OpenAI-modeller med alle sikkerhedsfunktionerne i Microsoft Azure. OpenAI er en uafhængig organisation. Vi deler ikke dine data med OpenAI.
Copilot-funktioner er ikke tilgængelige i alle geografiske områder og sprog, der dækkes af Azure. Afhængigt af, hvor dit miljø hostes, kan du få brug for at tillade databevægelser på tværs af geografiske områder, før du kan bruge dem. Du kan finde flere oplysninger i de artikler, der er anført under Databevægelser på tværs af geografiske områder.
Hvad sker der med mine data, når jeg bruger Copilot?
Du har kontrol over dine data. Microsoft deler ikke dine data med en tredjepart, medmindre du har givet rettighed til det. Desuden bruger vi ikke dine kundedata til at træne Copilot eller dens AI-funktioner, medmindre du har givet samtykke til, at vi kan gøre det. Copilot overholder eksisterende datarettigheder og politikker, og dens svar til dig er kun baseret på data, som du personligt har adgang til. Du kan finde flere oplysninger om, hvordan du kan styre dine data, og hvordan dine data håndteres, i de artikler, der er anført under Copilot i Dynamics 365-apps og Power Platform.
Copilot overvåger for krænkende og skadelig brug af servicen med gennemsigtig behandling. Vi opbevarer ikke og udfører ikke kontrol af Copilot-input og -output med henblik på overvågning af misbrug.
Hvordan bruger Copilot mine data?
Hver tjeneste eller funktion bruger Copilot baseret på de data, du angiver eller har konfigureret til behandling i Copilot.
Dine prompter (input) og Copilots svar (output eller resultater):
Er IKKE tilgængelige for andre kunder.
Bruges IKKE til at træne eller forbedre nogen tredjepartsprodukter eller -tjenester (f.eks. OpenAI-modeller).
Bruges IKKE til at træne eller forbedre Microsoft AI-modeller, medmindre din lejeradministrator har tilvalgt at dele data med os.
Få mere at vide om beskyttelse af personlige oplysninger og sikkerhed for Azure OpenAI Service. Du kan få mere at vide om, hvordan Microsoft beskytter og bruger dine data mere generelt, ved at læse vores Erklæring om beskyttelse af personlige oplysninger.
Hvor sendes mine data hen?
Microsoft kører på tillid. Vi forpligter os til sikkerhed, beskyttelse af personlige oplysninger og overholdelse af angivne standarder i alt, hvad vi gør, og vores tilgang til AI er ikke anderledes. Kundedata, herunder Copilot-input og -output, gemmes inden for tillidsgrænsen for Microsoft Cloud.
I nogle scenarier, f.eks. funktioner, der drives af Bing og tredjeparts copilot-plug-ins, kan kundedata overføres uden for tillidsgrænsen for Microsoft Cloud.
Kan Copilot få adgang til krypteret indhold?
Data leveres til Copilot baseret på adgangsniveauet for den aktuelle bruger. Hvis en bruger har adgang til krypterede data i Dynamics 365 og Power Platform, og brugeren leverer dem til Copilot, så kan Copilot få adgang til dem.
Hvordan beskytter Copilot kundedata?
Microsoft har en unik position til at levere virksomhedsparat kunstig intelligens. Copilot, der er drevet af Azure OpenAI Service og er i overensstemmelse med vores eksisterende forpligtelser til beskyttelse af personlige oplysninger, sikkerhed og overholdelse af angivne standarder over for vores kunder.
Bygget på Microsofts omfattende tilgang til sikkerhed, beskyttelse af personlige oplysninger og overholdelse af angivne standarder. Copilot er integreret i Microsoft-tjenester, f.eks. Dynamics 365 og Power Platform, og arver disse produkters politikker og processer til sikkerhed, beskyttelse af personlige oplysninger og overholdelse af angivne standarder.
Flere former for beskyttelse sikrer organisationsdata. Teknologier på tjenestesiden krypterer organisationsindhold, der opbevares og er på gennemgang, for at give en robust sikkerhed. Forbindelser sikres med Transport Layer Security (TLS) og dataoverførsler mellem Dynamics 365, Power Platform og Azure OpenAI sker via Microsofts basisnetværk, så pålideligheden og sikkerheden bevares. Få mere at vide om kryptering i Microsoft Cloud.
Designet til at beskytte dine data både på lejer- og miljøniveau. Vi ved, at datalækager er et stort problem for kunderne. Microsoft AI-modellerne trænes ikke på og lærer ikke af dine lejerdata eller dine prompter, medmindre din lejeradministrator har valgt at dele data med os. I dine miljøer kan du styre adgangen ved hjælp af de rettigheder, du konfigurerer. Godkendelse og godkendelsesmekanismer inddeler anmodninger til den delte model mellem lejere. Copilot bruger data, som kun du har adgang til, ved brug af den samme teknologi, som vi har brugt i mange år til sikring af kundedata.
Er Copilots svar altid faktuelle?
Som det er tilfældet med al anden generativ AI, kan Copilot-svar ikke garanteres at være 100 % faktuelle. Selvom vi fortsat forbedrer svarene på faktabaserede forespørgsler, skal du stadig bruge din dømmekraft og gennemgå outputtet, før du sender det til andre. Copilot indeholder nyttige kladder og oversigter, som kan hjælpe dig med at gøre mere, men det sker helt automatisk. Du har altid en mulighed for at gennemse det AI-genererede indhold.
Vores teams arbejder proaktivt på at løse problemer, f.eks. misinformation og desinformation, indholdsblokering, datasikkerhed og udbredelse af skadeligt eller diskriminerende indhold i overensstemmelse med vores principper for ansvarlig AI.
Vi tilbyder også vejledning i brugeroplevelsen for at styrke den ansvarlige brug af AI-genereret indhold og foreslåede handlinger.
Instruktioner og prompter. Når du bruger Copilot, minder prompter og vejledende elementer dig om at gennemse og redigere svar efter behov og til manuelt at kontrollere fakta, data og tekst for nøjagtighed, før du bruger det AI-genererede indhold.
Citerede kilder. Hvor det er relevant, angiver Copilot sine oplysningskilder, uanset om det er offentlige eller interne, så du selv kan gennemgå dem og bekræfte deres svar.
Du kan finde flere oplysninger i Ofte stillede spørgsmål om ansvarlige kunstig intelligens for dit produkt på Microsoft Learn.
Hvordan blokerer Copilot skadeligt indhold?
Azure OpenAI Service indeholder et indholdsfiltreringssystem, der fungerer side om side med kernemodeller. Indholdsfiltreringsmodellerne for kategorierne had og fairness, seksuelt indhold, vold og selvskade er trænet og testet specifikt på forskellige sprog. Dette system fungerer ved at køre både inputprompten og svaret gennem klassifikationsmodeller, der er designet til at identificere og blokere output med skadeligt indhold.
Skade i relation til had og fairness refererer til alt indhold, der bruger nedsættende eller diskriminerende sprog baseret på attributter som race, etnicitet, nationalitet, kønsidentitet og -udtryk, seksuel orientering, religion, immigrationsstatus, fysisk formåen, personlig udseende og kropsstørrelse. Fairness drejer sig om at sikre, at AI-systemer behandler alle grupper af personer ens uden at bidrage til eksisterende sociale uligheder. Seksuelt indhold omfatter diskussioner om organer til menneskelig forplantning, romantiske relation, handlinger der fremstilles med erotiske eller hengivne ord, graviditet, fysiske seksuelle handlinger, herunder dem, der er fremstillet som angreb eller en tvungen handling af seksuel vold, prostitution, pornografi og misbrug. Vold beskriver sprog, der er relateret til fysiske handlinger, der har til formål at skade eller dræbe, herunder handlinger, våben og tilknyttede enheder. Et selvskadende sprog refererer til overlagte handlinger, der har til formål at skade eller dræbe én selv.
Få mere at vide om Azure OpenAI-indholdsfiltrering.
Blokerer Copilot indskydelse af prompt (jailbreak-angreb)?
Jailbreak-angreb er brugerprompts, der er designet til at provokere den generative AI-model til at opføre sig på måder, den blev trænet i at undgå, eller til at bryde reglerne, den har fået besked om at følge. Tjenester på tværs af Dynamics 365 og Power Platform er påkrævet for at beskytte mod indskydelse af prompt. Få mere at vide om jailbreak-angreb, og hvordan du bruger Azure AI Content Safety til at registrere dem.
Hvordan tester og validerer Microsoft kvaliteten af Copilot, herunder beskyttelse mod indskydelse af prompt og begrundede svar?
Alle nye Copilot-produkter og gentagelse af sprogmodel skal bestå et internt gennemsyn for ansvarlig AI, før det kan startes. Inden frigivelsen bruger vi en proces med navnet "rød teamarbejde" (hvor et team simulerer et fjendtligt angreb, hvor der søges efter og udnyttes svagheder, som kan hjælpe organisationen med at forbedre sit forsvar) til at vurdere de potentielle risici i forbindelse med skadeligt indhold, jailbreak-scenarier og begrundede svar. Efter frigivelsen bruger vi automatiseret test og manuelle og automatiserede evalueringsværktøjer til at vurdere kvaliteten af Copilot-svar.
Hvordan forbedrer Microsoft den grundlæggende model og måler forbedringer i begrundede svar?
I forbindelse med AI kan man – særligt med AI, der behandler sprogmodeller som den, Som Copilot er baseret på, hjælper begrundelse AI med at generere svar, der er mere relevante og giver mening i den virkelige verden. Begrundelse hjælper med til at sikre, at AI-svarene er baseret på pålidelige oplysninger og er så nøjagtige og relevante som muligt. Begrundede svarværdier evaluerer, hvordan nøjagtigt de fakta, der er angivet i det begrundede indhold, som sendes til modellen, vises i det endelige svar.
Fundamentsmodeller som f.eks. GPT-4 er udvidet med teknikker til hentning af forstærket oprettelse (Retrieval Augmented Generation - RAG). Disse teknikker gør det muligt for modellerne at bruge flere oplysninger, end de var trænet til, for at forstå en brugers scenarie. RAG fungerer ved først at identificere data, der er relevante for scenariet, på samme måde som et søgeprogram identificerer websider, der er relevante for brugerens søgeord. Den bruger flere metoder til at identificere, hvilket indhold der er relevant for brugerprompten og bør bruges til at begrunde svaret. Metoderne omfatter søgning efter forskellige typer indekser, f.eks. omvendte indekser ved hjælp af informationshentningsteknikker som termsammenholdelse, eller vektorindekser ved brug af vektorafstandssammenligninger af semantisk lighed. Når modellen har identificeret de relevante dokumenter, sender RAG dataene til modellen sammen med den aktuelle samtale, så modellen får en bedre forståelse af de oplysninger, den allerede har, og genererer et svar, der er begrundet i den virkelige verden. Til sidst kontrollerer RAG svaret for at sikre, at det understøttes af det kildeindhold, som er angivet for modellen. Copilots generative AI-funktioner inkorporerer RAG på flere måder. Et eksempel er chat med brug af data, hvor en chatrobot er begrundet med kundens egne datakilder.
En anden metode til forbedring af grundlagsmodeller er kendt som finjustering. Et stort datasæt af forespørgselssvarpar vises til en grundlagsmodel for at udvide dens oprindelige træning med nye prøver, som er målrettet mod et bestemt scenarie. Modellen kan derefter udrulles som en separat model – en model, der finjusteres til det pågældende scenarie. Mens begrundelse handler om at gøre AI's viden relevant for den virkelige verden, drejer finjusteringen sig om at gøre AI's viden mere specifik til en bestemt opgave eller et bestemt domæne. Microsoft bruger finjustering på flere måder. Vi bruger f.eks. oprettelse af Power Automate-flow fra naturlige sprogbeskrivelser, som brugeren har angivet.
Overholder Copilot kravene i forbindelse med bemyndigelse af overholdelseskrav?
Microsoft Copilot er en del af Dynamics 365- og Power Platform-økosystemet og opfylder de samme krav til overholdelse af angivne standarder for lovgivningskrav. Du kan finde flere oplysninger om de lovgivningsmæssige certificeringer af Microsoft-tjenester ved at gå til Service Trust Portal. Derudover overholder Copilot vores forpligtelse til at overholde ansvarlig AI, som er aktiveret via vores Standard for ansvarlig AI. Efterhånden som lovgivning om kunstig intelligens udvikler sig, fortsætter Microsoft med at tilpasse sig og reagere på nye krav.
Få mere at vide
Copilot i Dynamics 365-apps og Power Platform
Produkt | Funktion | Er Administrerede miljøer påkrævet? | Sådan slås funktionen fra |
---|---|---|---|
AI Builder | Scenarier i forhåndsversion | Nej | Scenarier i forhåndsversion |
Dynamics 365 Customer Insights - Data | Oprette segmenter med Copilot til Customer Insights - Data (forhåndsversion) | Nej | Customer Insights - Data har sit eget flag for alle Copilot-funktionerne fra Azure OpenAI. Få mere at vide: Giv samtykke til at bruge Copilot i Customer Insights - Data |
Dynamics 365 Customer Insights - Data | Oversigt over dataforberedelsesrapport (forhåndsversion) | Nej | Customer Insights - Data har sit eget flag for alle Copilot-funktionerne fra Azure OpenAI. Få mere at vide: Giv samtykke til at bruge Copilot i Customer Insights - Data |
Dynamics 365 Customer Insights - Data | Få svar på spørgsmål om funktioner fra Copilot (forhåndsversion) | Nej | Customer Insights - Data har sit eget flag for alle Copilot-funktionerne fra Azure OpenAI. Få mere at vide: Giv samtykke til at bruge Copilot i Customer Insights - Data |
Dynamics 365 Customer Insights (Data) | Få en dialog med data ved hjælp af Copilot i Customer Insights | Nej | Customer Insights - Data har sit eget flag for alle Copilot-funktionerne fra Azure OpenAI. Få mere at vide: Giv samtykke til at bruge Copilot i Customer Insights - Data |
Dynamics 365 Customer Insights - Data | Vis systemkonfiguration | Nej | Customer Insights - Data har sit eget flag for alle Copilot-funktionerne fra Azure OpenAI. Få mere at vide: Giv samtykke til at bruge Copilot i Customer Insights - Data |
Dynamics 365 Customer Insights - Journeys | Copilot hjælper dig med at få mere at vide og gøre mere (gennemgang) | Nej | Om denne copilot er tilgængelig i dit miljø, bestemmes af indstillingerne for Power Platform Administrator. Få mere at vide om, hvordan du tilføjer Copilot til modelbaserede apps. Denne egenskab er "app-copilot i Customer Insights - Journeys", og derfor er den aktiveret i Power Platform Administration. Få mere at vide: Ofte stillede spørgsmål om ansvarlig AI |
Dynamics 365 Customer Insights - Journeys | Oprette kampagneforløb ved brug af AI-assistance | Nej | Customer Insights - Journeys har sine egne flag til Copilot-funktioner. Få mere at vide: Giv samtykke til at bruge Copilot i Customer Insights - Journeys |
Dynamics 365 Customer Insights - Journeys | Opdatere og perfektionere dit budskab | Nej | Customer Insights - Journeys har sine egne flag til Copilot-funktioner. Få mere at vide: Giv samtykke til at bruge Copilot i Customer Insights - Journeys |
Dynamics 365 Customer Insights - Journeys | Udforme dine mails med AI-assisterede temaer | Nej | Customer Insights - Journeys har sine egne flag til Copilot-funktioner. Få mere at vide: Giv samtykke til at bruge Copilot i Customer Insights - Journeys |
Dynamics 365 Customer Insights - Journeys | Nå de rette kunder vha. forespørgselsassistent |
Nej | Customer Insights - Journeys har sine egne flag til Copilot-funktioner. Få mere at vide: Giv samtykke til at bruge Copilot i Customer Insights - Journeys |
Dynamics 365 Customer Insights - Journeys | Bruge AI til at starte oprettelse af mail | Nej | Customer Insights - Journeys har sine egne flag til Copilot-funktioner. Få mere at vide: Giv samtykke til at bruge Copilot i Customer Insights - Journeys |
Dynamics 365 Customer Insights - Journeys | Bruge billeder i dit indhold | Nej | Customer Insights - Journeys har sine egne flag til Copilot-funktioner. Få mere at vide: Giv samtykke til at bruge Copilot i Customer Insights - Journeys |
Power Apps | Opbygge apps via samtale | Nej | Administrer funktionsindstillinger |
Power Apps | Copilot-assistance til formularudfyldelse i modelbaserede apps | Nej | Administrer funktionsindstillinger |
Power Apps | Udarbejde kladde til velskrevet, inputtekst med Copilot | Nej, Premium-brugerlicens | Udarbejde kladde til velskrevet, inputtekst med Copilot |
Power Apps | Excel til tabel | Nej | Administrer funktionsindstillinger |
Power Apps | Brug naturligt sprog til at redigere en app ved hjælp af Copilot-panelet | Nej | Administrer funktionsindstillinger |
Power Automate | Copilot i cloudflows på startsiden og i designeren (Se Kom i gang med Copilot i cloudflows for at få flere oplysninger). | Nej | Kontakt support for at køre et PowerShell-script. |
Power Pages | Alle (Se Copilot-oversigt i Power Pages for at få flere oplysninger.) | Nej | Deaktiver Copilot i Power Pages |
Tilgængelighed i geografiske områder og tilgængelige sprog
International tilgængelighed af Copilot
Dataflytning på tværs af geografiske områder
- Hvordan sker dataflytning på tværs af regioner
- Konfigurere dataflytning på tværs af geografiske placeringer for generative AI-funktioner uden for USA
- Copilot-dataflytning på tværs af geografiske områder i Dynamics 365 Sales
- Copilot-dataflytning på tværs af geografiske områder i Dynamics 365 Business Central
Sikkerhed hos Microsoft
- Introduktion til Azure-sikkerhed
- Kryptering i Microsoft Cloud
- Data, beskyttelse af personlige oplysninger og sikkerhed for Azure OpenAI Service – Azure AI-tjenester
Beskyttelse af personlige oplysninger hos Microsoft
Microsofts erklæring om beskyttelse af personlige oplysninger