Del via


Ofte stillede spørgsmål om Copilot-datasikkerhed og beskyttelse af personlige oplysninger i Dynamics 365 og Power Platform

Copilot for Dynamics 365 og Power Platform-funktioner følger et sæt metoder for kernesikkerhed og beskyttelse af personlige oplysninger og Microsofts Standard for ansvarlig AI. Dynamics 365- og Power Platform-data er beskyttet af omfattende, brancheførende overholdelse af angivne standarder, sikkerhedskontrolelementer og kontrolelementer til beskyttelse af personlige oplysninger.

Copilot er bygget på Microsoft Azure OpenAI Service og kører fuldstændigt i Azure-skyen. Azure OpenAI tilbyder tilgængelighed i geografiske områder og filtrering af indhold i ansvarlig AI. Copilot bruger OpenAI-modeller med alle sikkerhedsfunktionerne i Microsoft Azure. OpenAI er en uafhængig organisation. Vi deler ikke dine data med OpenAI.

Copilot-funktioner er ikke tilgængelige i alle geografiske områder og sprog, der dækkes af Azure. Afhængigt af, hvor dit miljø hostes, kan du få brug for at tillade databevægelser på tværs af geografiske områder, før du kan bruge dem. Du kan finde flere oplysninger i de artikler, der er anført under Databevægelser på tværs af geografiske områder.

Hvad sker der med mine data, når jeg bruger Copilot?

Du har kontrol over dine data. Microsoft deler ikke dine data med en tredjepart, medmindre du har givet rettighed til det. Desuden bruger vi ikke dine kundedata til at træne Copilot eller dens AI-funktioner, medmindre du har givet samtykke til, at vi kan gøre det. Copilot overholder eksisterende datarettigheder og politikker, og dens svar til dig er kun baseret på data, som du personligt har adgang til. Du kan finde flere oplysninger om, hvordan du kan styre dine data, og hvordan dine data håndteres, i de artikler, der er anført under Copilot i Dynamics 365-apps og Power Platform.

Copilot overvåger for krænkende og skadelig brug af servicen med gennemsigtig behandling. Vi opbevarer ikke og udfører ikke kontrol af Copilot-input og -output med henblik på overvågning af misbrug.

Hvordan bruger Copilot mine data? 

Hver tjeneste eller funktion bruger Copilot baseret på de data, du angiver eller har konfigureret til behandling i Copilot.

Dine prompter (input) og Copilots svar (output eller resultater):

  • Er IKKE tilgængelige for andre kunder.

  • Bruges IKKE til at træne eller forbedre nogen tredjepartsprodukter eller -tjenester (f.eks. OpenAI-modeller).

  • Bruges IKKE til at træne eller forbedre Microsoft AI-modeller, medmindre din lejeradministrator har tilvalgt at dele data med os.

Få mere at vide om beskyttelse af personlige oplysninger og sikkerhed for Azure OpenAI Service. Du kan få mere at vide om, hvordan Microsoft beskytter og bruger dine data mere generelt, ved at læse vores Erklæring om beskyttelse af personlige oplysninger.

Hvor sendes mine data hen?

Microsoft kører på tillid. Vi forpligter os til sikkerhed, beskyttelse af personlige oplysninger og overholdelse af angivne standarder i alt, hvad vi gør, og vores tilgang til AI er ikke anderledes. Kundedata, herunder Copilot-input og -output, gemmes inden for tillidsgrænsen for Microsoft Cloud.

I nogle scenarier, f.eks. funktioner, der drives af Bing og tredjeparts copilot-plug-ins, kan kundedata overføres uden for tillidsgrænsen for Microsoft Cloud.

Kan Copilot få adgang til krypteret indhold?

Data leveres til Copilot baseret på adgangsniveauet for den aktuelle bruger. Hvis en bruger har adgang til krypterede data i Dynamics 365 og Power Platform, og brugeren leverer dem til Copilot, så kan Copilot få adgang til dem.

Hvordan beskytter Copilot kundedata?

Microsoft har en unik position til at levere virksomhedsparat kunstig intelligens. Copilot, der er drevet af Azure OpenAI Service og er i overensstemmelse med vores eksisterende forpligtelser til beskyttelse af personlige oplysninger, sikkerhed og overholdelse af angivne standarder over for vores kunder.

  • Bygget på Microsofts omfattende tilgang til sikkerhed, beskyttelse af personlige oplysninger og overholdelse af angivne standarder. Copilot er integreret i Microsoft-tjenester, f.eks. Dynamics 365 og Power Platform, og arver disse produkters politikker og processer til sikkerhed, beskyttelse af personlige oplysninger og overholdelse af angivne standarder.

  • Flere former for beskyttelse sikrer organisationsdata. Teknologier på tjenestesiden krypterer organisationsindhold, der opbevares og er på gennemgang, for at give en robust sikkerhed. Forbindelser sikres med Transport Layer Security (TLS) og dataoverførsler mellem Dynamics 365, Power Platform og Azure OpenAI sker via Microsofts basisnetværk, så pålideligheden og sikkerheden bevares. Få mere at vide om kryptering i Microsoft Cloud.

  • Designet til at beskytte dine data både på lejer- og miljøniveau. Vi ved, at datalækager er et stort problem for kunderne. Microsoft AI-modellerne trænes ikke på og lærer ikke af dine lejerdata eller dine prompter, medmindre din lejeradministrator har valgt at dele data med os. I dine miljøer kan du styre adgangen ved hjælp af de rettigheder, du konfigurerer. Godkendelse og godkendelsesmekanismer inddeler anmodninger til den delte model mellem lejere. Copilot bruger data, som kun du har adgang til, ved brug af den samme teknologi, som vi har brugt i mange år til sikring af kundedata.

Er Copilots svar altid faktuelle?

Som det er tilfældet med al anden generativ AI, kan Copilot-svar ikke garanteres at være 100 % faktuelle. Selvom vi fortsat forbedrer svarene på faktabaserede forespørgsler, skal du stadig bruge din dømmekraft og gennemgå outputtet, før du sender det til andre. Copilot indeholder nyttige kladder og oversigter, som kan hjælpe dig med at gøre mere, men det sker helt automatisk. Du har altid en mulighed for at gennemse det AI-genererede indhold.

Vores teams arbejder proaktivt på at løse problemer, f.eks. misinformation og desinformation, indholdsblokering, datasikkerhed og udbredelse af skadeligt eller diskriminerende indhold i overensstemmelse med vores principper for ansvarlig AI.

Vi tilbyder også vejledning i brugeroplevelsen for at styrke den ansvarlige brug af AI-genereret indhold og foreslåede handlinger.

  • Instruktioner og prompter. Når du bruger Copilot, minder prompter og vejledende elementer dig om at gennemse og redigere svar efter behov og til manuelt at kontrollere fakta, data og tekst for nøjagtighed, før du bruger det AI-genererede indhold.

  • Citerede kilder. Hvor det er relevant, angiver Copilot sine oplysningskilder, uanset om det er offentlige eller interne, så du selv kan gennemgå dem og bekræfte deres svar.

Du kan finde flere oplysninger i Ofte stillede spørgsmål om ansvarlige kunstig intelligens for dit produkt på Microsoft Learn.

Hvordan blokerer Copilot skadeligt indhold?

Azure OpenAI Service indeholder et indholdsfiltreringssystem, der fungerer side om side med kernemodeller. Indholdsfiltreringsmodellerne for kategorierne had og fairness, seksuelt indhold, vold og selvskade er trænet og testet specifikt på forskellige sprog. Dette system fungerer ved at køre både inputprompten og svaret gennem klassifikationsmodeller, der er designet til at identificere og blokere output med skadeligt indhold.

Skade i relation til had og fairness refererer til alt indhold, der bruger nedsættende eller diskriminerende sprog baseret på attributter som race, etnicitet, nationalitet, kønsidentitet og -udtryk, seksuel orientering, religion, immigrationsstatus, fysisk formåen, personlig udseende og kropsstørrelse. Fairness drejer sig om at sikre, at AI-systemer behandler alle grupper af personer ens uden at bidrage til eksisterende sociale uligheder. Seksuelt indhold omfatter diskussioner om organer til menneskelig forplantning, romantiske relation, handlinger der fremstilles med erotiske eller hengivne ord, graviditet, fysiske seksuelle handlinger, herunder dem, der er fremstillet som angreb eller en tvungen handling af seksuel vold, prostitution, pornografi og misbrug. Vold beskriver sprog, der er relateret til fysiske handlinger, der har til formål at skade eller dræbe, herunder handlinger, våben og tilknyttede enheder. Et selvskadende sprog refererer til overlagte handlinger, der har til formål at skade eller dræbe én selv.

Få mere at vide om Azure OpenAI-indholdsfiltrering.

Blokerer Copilot indskydelse af prompt (jailbreak-angreb)?

Jailbreak-angreb er brugerprompts, der er designet til at provokere den generative AI-model til at opføre sig på måder, den blev trænet i at undgå, eller til at bryde reglerne, den har fået besked om at følge. Tjenester på tværs af Dynamics 365 og Power Platform er påkrævet for at beskytte mod indskydelse af prompt. Få mere at vide om jailbreak-angreb, og hvordan du bruger Azure AI Content Safety til at registrere dem.

Hvordan tester og validerer Microsoft kvaliteten af Copilot, herunder beskyttelse mod indskydelse af prompt og begrundede svar?

Alle nye Copilot-produkter og gentagelse af sprogmodel skal bestå et internt gennemsyn for ansvarlig AI, før det kan startes. Inden frigivelsen bruger vi en proces med navnet "rød teamarbejde" (hvor et team simulerer et fjendtligt angreb, hvor der søges efter og udnyttes svagheder, som kan hjælpe organisationen med at forbedre sit forsvar) til at vurdere de potentielle risici i forbindelse med skadeligt indhold, jailbreak-scenarier og begrundede svar. Efter frigivelsen bruger vi automatiseret test og manuelle og automatiserede evalueringsværktøjer til at vurdere kvaliteten af Copilot-svar.

Hvordan forbedrer Microsoft den grundlæggende model og måler forbedringer i begrundede svar?

I forbindelse med AI kan man – særligt med AI, der behandler sprogmodeller som den, Som Copilot er baseret på, hjælper begrundelse AI med at generere svar, der er mere relevante og giver mening i den virkelige verden. Begrundelse hjælper med til at sikre, at AI-svarene er baseret på pålidelige oplysninger og er så nøjagtige og relevante som muligt. Begrundede svarværdier evaluerer, hvordan nøjagtigt de fakta, der er angivet i det begrundede indhold, som sendes til modellen, vises i det endelige svar.

Fundamentsmodeller som f.eks. GPT-4 er udvidet med teknikker til hentning af forstærket oprettelse (Retrieval Augmented Generation - RAG). Disse teknikker gør det muligt for modellerne at bruge flere oplysninger, end de var trænet til, for at forstå en brugers scenarie. RAG fungerer ved først at identificere data, der er relevante for scenariet, på samme måde som et søgeprogram identificerer websider, der er relevante for brugerens søgeord. Den bruger flere metoder til at identificere, hvilket indhold der er relevant for brugerprompten og bør bruges til at begrunde svaret. Metoderne omfatter søgning efter forskellige typer indekser, f.eks. omvendte indekser ved hjælp af informationshentningsteknikker som termsammenholdelse, eller vektorindekser ved brug af vektorafstandssammenligninger af semantisk lighed. Når modellen har identificeret de relevante dokumenter, sender RAG dataene til modellen sammen med den aktuelle samtale, så modellen får en bedre forståelse af de oplysninger, den allerede har, og genererer et svar, der er begrundet i den virkelige verden. Til sidst kontrollerer RAG svaret for at sikre, at det understøttes af det kildeindhold, som er angivet for modellen. Copilots generative AI-funktioner inkorporerer RAG på flere måder. Et eksempel er chat med brug af data, hvor en chatrobot er begrundet med kundens egne datakilder.

En anden metode til forbedring af grundlagsmodeller er kendt som finjustering. Et stort datasæt af forespørgselssvarpar vises til en grundlagsmodel for at udvide dens oprindelige træning med nye prøver, som er målrettet mod et bestemt scenarie. Modellen kan derefter udrulles som en separat model – en model, der finjusteres til det pågældende scenarie. Mens begrundelse handler om at gøre AI's viden relevant for den virkelige verden, drejer finjusteringen sig om at gøre AI's viden mere specifik til en bestemt opgave eller et bestemt domæne. Microsoft bruger finjustering på flere måder. Vi bruger f.eks. oprettelse af Power Automate-flow fra naturlige sprogbeskrivelser, som brugeren har angivet.

Overholder Copilot kravene i forbindelse med bemyndigelse af overholdelseskrav?

Microsoft Copilot er en del af Dynamics 365- og Power Platform-økosystemet og opfylder de samme krav til overholdelse af angivne standarder for lovgivningskrav. Du kan finde flere oplysninger om de lovgivningsmæssige certificeringer af Microsoft-tjenester ved at gå til Service Trust Portal. Derudover overholder Copilot vores forpligtelse til at overholde ansvarlig AI, som er aktiveret via vores Standard for ansvarlig AI. Efterhånden som lovgivning om kunstig intelligens udvikler sig, fortsætter Microsoft med at tilpasse sig og reagere på nye krav.

Få mere at vide om Dynamics 365, Power Platform, og Copilot-tilgængelighed, kundedataplaceringer og overholdelse af standarder for globale, regionale og branchespecifikke krav til administration af data.

Få mere at vide

Copilot i Dynamics 365-apps og Power Platform

Produkt Funktion Er Administrerede miljøer påkrævet? Sådan slås funktionen fra
AI Builder Scenarier i forhåndsversion Nej Scenarier i forhåndsversion
Dynamics 365 Customer Insights - Data Oprette segmenter med Copilot til Customer Insights - Data (forhåndsversion) Nej Customer Insights - Data har sit eget flag for alle Copilot-funktionerne fra Azure OpenAI.

Få mere at vide: Giv samtykke til at bruge Copilot i Customer Insights - Data
Dynamics 365 Customer Insights - Data Oversigt over dataforberedelsesrapport (forhåndsversion) Nej Customer Insights - Data har sit eget flag for alle Copilot-funktionerne fra Azure OpenAI.

Få mere at vide: Giv samtykke til at bruge Copilot i Customer Insights - Data
Dynamics 365 Customer Insights - Data Få svar på spørgsmål om funktioner fra Copilot (forhåndsversion) Nej Customer Insights - Data har sit eget flag for alle Copilot-funktionerne fra Azure OpenAI.

Få mere at vide: Giv samtykke til at bruge Copilot i Customer Insights - Data
Dynamics 365 Customer Insights (Data) Få en dialog med data ved hjælp af Copilot i Customer Insights Nej Customer Insights - Data har sit eget flag for alle Copilot-funktionerne fra Azure OpenAI.

Få mere at vide: Giv samtykke til at bruge Copilot i Customer Insights - Data
Dynamics 365 Customer Insights - Data Vis systemkonfiguration Nej Customer Insights - Data har sit eget flag for alle Copilot-funktionerne fra Azure OpenAI.

Få mere at vide: Giv samtykke til at bruge Copilot i Customer Insights - Data
Dynamics 365 Customer Insights - Journeys Copilot hjælper dig med at få mere at vide og gøre mere (gennemgang) Nej Om denne copilot er tilgængelig i dit miljø, bestemmes af indstillingerne for Power Platform Administrator. Få mere at vide om, hvordan du tilføjer Copilot til modelbaserede apps.


Denne egenskab er "app-copilot i Customer Insights - Journeys", og derfor er den aktiveret i Power Platform Administration. Få mere at vide: Ofte stillede spørgsmål om ansvarlig AI
Dynamics 365 Customer Insights - Journeys Oprette kampagneforløb ved brug af AI-assistance Nej Customer Insights - Journeys har sine egne flag til Copilot-funktioner.

Få mere at vide: Giv samtykke til at bruge Copilot i Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Opdatere og perfektionere dit budskab Nej Customer Insights - Journeys har sine egne flag til Copilot-funktioner.

Få mere at vide: Giv samtykke til at bruge Copilot i Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Udforme dine mails med AI-assisterede temaer Nej Customer Insights - Journeys har sine egne flag til Copilot-funktioner.

Få mere at vide: Giv samtykke til at bruge Copilot i Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Nå de rette kunder vha. forespørgselsassistent

Nej Customer Insights - Journeys har sine egne flag til Copilot-funktioner.

Få mere at vide: Giv samtykke til at bruge Copilot i Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Bruge AI til at starte oprettelse af mail Nej Customer Insights - Journeys har sine egne flag til Copilot-funktioner.

Få mere at vide: Giv samtykke til at bruge Copilot i Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Bruge billeder i dit indhold Nej Customer Insights - Journeys har sine egne flag til Copilot-funktioner.

Få mere at vide: Giv samtykke til at bruge Copilot i Customer Insights - Journeys
Power Apps Opbygge apps via samtale Nej Administrer funktionsindstillinger
Power Apps Copilot-assistance til formularudfyldelse i modelbaserede apps Nej Administrer funktionsindstillinger
Power Apps Udarbejde kladde til velskrevet, inputtekst med Copilot Nej, Premium-brugerlicens Udarbejde kladde til velskrevet, inputtekst med Copilot
Power Apps Excel til tabel Nej Administrer funktionsindstillinger
Power Apps Brug naturligt sprog til at redigere en app ved hjælp af Copilot-panelet Nej Administrer funktionsindstillinger
Power Automate Copilot i cloudflows på startsiden og i designeren (Se Kom i gang med Copilot i cloudflows for at få flere oplysninger). Nej Kontakt support for at køre et PowerShell-script.
Power Pages Alle (Se Copilot-oversigt i Power Pages for at få flere oplysninger.) Nej Deaktiver Copilot i Power Pages

Tilgængelighed i geografiske områder og tilgængelige sprog

International tilgængelighed af Copilot

Dataflytning på tværs af geografiske områder

Sikkerhed hos Microsoft

Beskyttelse af personlige oplysninger hos Microsoft

Microsofts erklæring om beskyttelse af personlige oplysninger

Ansvarlig AI