Ofte stillede spørgsmål om beskyttelse af personlige oplysninger og data i Copilot for Dynamics 365 og Power Platform

Copilot for Dynamics 365 og Power Platform indeholder et sæt af vigtige sikkerheds- og privatlivspraksisser og Microsoft Ansvarlig AI-standard. Dynamics 365- og Power Platform-data er beskyttet af omfattende, brancheførende overholdelse af sikkerheds- og privatlivskontroller.

Copilot er bygget på Microsoft Azure OpenAI Service og køres fuldstændigt i Azure-cloud. Azure OpenAI tilbyder regional tilgængelighed og filtrering af indhold i ansvarlig kunstig intelligens. Copilot bruger OpenAI-modeller med alle sikkerhedsfunktioner i Microsoft Azure. OpenAI er en uafhængig organisation. Vi deler ikke dine data med OpenAI.

Copilot-funktioner er ikke tilgængelige i alle Azure-geografiske områder og sprog. Afhængigt af, hvor dit miljø er hostet, skal du muligvis tillade, at dataene bevæger sig tværs over geografiske områder for at bruge dem. Du kan finde flere oplysninger i de artikler, der er anført under Dataflytning på tværs af geografiske områder.

Hvad sker der med mine data, når jeg bruger Copilot?

Du har kontrol over dine data. Microsoft deler ikke dine data med en tredjepart, medmindre du har givet tilladelse til at gøre det. Desuden bruger vi ikke dine kundedata til at træne eller forbedre Copilot eller dens AI-funktioner, medmindre du giver samtykke om, at vi må gøre det. Copilot overholder eksisterende datatilladelser og politikker, og dets svar til dig er baseret kun på data, de personligt har adgang til. Du kan finde flere oplysninger om, hvordan du kan styre dine data, og hvordan dine data håndteres, i de artikler, der er anført under Copilot i Dynamics 365-apps og Power Platform.

Copilot overvåger for krænkende og skadelig brug af servicen med gennemsigtig behandling. Vi opbevarer eller udfører ikke undersøgelse af Copilot-input og -output med henblik på overvågning af misbrug.

Hvordan bruger Copilot mine data? 

Hver service eller funktion bruger Copilot baseret på de data, du leverer eller opsætter til Copilot at behandle.

Dine prompts (input) og Copilots svar (output eller resultater):

  • Er IKKE tilgængelige for andre kunder.

  • Bruges IKKE til at træne eller forbedre nogen tredjepartsprodukter eller -services (såsom OpenAI-modeller).

  • Bruges IKKE til at træne eller forbedre Microsoft AI-modeller, medmindre din lejeradministrator har tilvalgt at dele data med os.

Få mere at vide om Azure OpenAI Service-data, beskyttelse af personlige oplysninger og sikkerhed. Du kan få mere at vide om, hvordan Microsoft beskytter og bruger dine data mere generelt, ved at læse vores erklæring om beskyttelse af personlige oplysninger.

Hvor går mine data hen?

Microsoft drives af tillid. Vi forpligter os til sikkerhed, beskyttelse af personlige oplysninger og overholdelse af regler og standarder i alt, hvad vi gør, og vores tilgang til kunstig intelligens er ikke anderledes. Kundedata, herunder Copilot-input og -output, gemmes inden for Microsoft Cloud Trust-grænsen.

I visse scenarier, f.eks. funktioner, der er drevet af Bing og copilot-plug-ins fra tredjepart, kan kundedata blive overført uden for Microsoft Cloud-tillidsgrænsen.

Kan Copilot få adgang til krypteret indhold?

Data, der leveres til Copilot, er baseret på adgangsniveauet for den aktuelle bruger. Hvis en bruger har adgang til de krypterede data i Dynamics 365 og Power Platform, og brugeren leverer dem til Copilot, har Copilot adgang til dem.

Hvordan beskytter Copilot kundedata?

Microsoft har en unik position til at levere virksomhedsparat kunstig intelligens. Copilot, der er drevet af Azure OpenAI Service og overholder vores eksisterende forpligtelser til beskyttelse af personlige oplysninger, sikkerhed og overholdelse af angivne standarder over for vores kunder.

  • Bygget på Microsofts omfattende tilgang til sikkerhed, beskyttelse af personlige oplysninger og overholdelse af angivne standarder. Copilot er integreret i Microsoft-services, som f.eks. Dynamics 365 og Power Platform, og arver deres politikker til sikkerhed, overholdelse af angivne standarder og processer, såsom multifaktorgodkendelse og grænser for overholdelse af angivne standarder.

  • Flere former for beskyttelse til sikring af organisationsdata. Teknologier på servicesiden krypterer organisationsindhold i hvile og undervejs for robust sikkerhed. Forbindelserne beskyttes med TLS (Transport Layer Security), og dataoverførsler mellem Dynamics 365 Power Platform og Azure OpenAI sker via Microsofts netværk for at sikre stabilitet og sikkerhed. Få mere at vide om kryptering i Microsoft Cloud.

  • Designet til at beskytte dine data både på lejer- og miljøniveau. Vi ved, at datalækager er et stort problem for kunderne. Microsoft AI-modeller er ikke trænet i og lærer ikke af dine lejerdata eller dine spørgsmål, medmindre din lejeradministrator har valgt at dele data med os. I dine miljøer kan du styre adgangen via de tilladelser, du opsætter. Godkendelses- og godkendelsesmekanismer imødekommer forespørgsler til den delte model blandt lejere. Copilot udnytter data, som kun du har adgang til vha. den samme teknologi, som vi har brugt i mange år til at beskytte kundedata.

Er Copilots svar altid faktuelle?

Som det gælder med alt generativ kunstig intelligens, er Copilots svar ikke garanteret at være 100 % faktuelle. Selvom vi fortsat vil forbedre svarene på faktabaserede forespørgsler, skal du stadig bruge din vurdering, når du gennemgår outputtet, før du sender det til andre. Copilot indeholder nyttige kladder og oversigter, der kan hjælpe dig med at gøre mere, men det sker automatisk. Du har altid mulighed for at gennemse det AI-genererede indhold.

Vores teams arbejder proaktivt på at tage fat i problemer som f.eks. misinformation og desinformation, indholdsblokering, datasikkerhed og opprioritering af udbredelse af skadeligt eller diskriminerende indhold i overensstemmelse med vores principper for ansvarlig kunstig intelligens.

Vi tilbyder også en vejledning i brugeroplevelsen for at styrke ansvarlig brug af AI-genereret indhold og foreslåede handlinger.

  • Instruktioner og prompts. Når du bruger Copilot, husker prompts og andre informationselementer dig på, hvordan du kan gennemse og redigere svar efter behov inden brug og til manuelt at kontrollere fakta, data og tekst for nøjagtighed før du bruger AI-genereret indhold.

  • Citerede kilder. Hvor det er relevant, henviser Copilot til sine informationskilder, uanset om de er offentlige eller interne, så du selv kan gennemse dem for at bekræfte svarene.

Du kan finde flere oplysninger i Ofte stillede spørgsmål om ansvarlige kunstig intelligens for dit produkt på Microsoft Learn.

Blokerer Copilot indtagelse af prompte (jailbreak-angreb)?

Jailbreak-angreb er brugerprompts, der er designet til at provokere den generative AI-model til at udvise adfærd, den er trænet i at undgå, eller til at bryde de regler, den har fået besked på at følge. Services på tværs af Dynamics 365 og Power Platform er påkrævet for at beskytte mod prompt-indskydelser. Få mere at vide om jailbreak-angreb, og hvordan du bruger Azure AI Content Safety til at registrere dem.

Hvordan tester og validerer Microsoft Copilot-kvaliteten, herunder beskyttelse mod prompt-indskydelser og begrundede svar?

Alle nye Copilot-produkter og gentagede sprogmodeller skal bestå en intern, ansvarlig AI-gennemgang, før det kan startes. Inden udgivelsen bruger vi en proces, der kaldes "rød gruppe" (hvor et team simulerer et angreb, hvor de angreb, der simuleres, finder og udnytter svagheder for at hjælpe organisationen med at forbedre organisationens sårbarheder) til at vurdere potentielle risici i skadeligt indhold, jailbreak-scenarioer og begrundede svar. Efter udgivelsen bruger vi automatiserede test og manuelle og automatiserede evalueringsværktøjer til at vurdere kvaliteten af Copilot-svar.

Hvordan forbedrer Microsoft den grundlæggende model og måler forbedringer i begrundede svar?

I forbindelse med kunstig intelligens især den kunstige intelligens, der håndterer sprogmodeller som den, Copilot er baseret på, hjælper grounding kunstig intelligens med at generere svar, der er mere relevante og giver mening i den virkelige verden. Grounding sikrer, at svar fra kunstig intelligens er baseret på pålidelige oplysninger og er så nøjagtige og relevante som muligt. Begrundede svarmetrikværdier vurderer, hvor nøjagtigt de faktiske forhold, der angives i det materiale, der leveres til modellen, repræsenteres i det endelige svar.

Foundation-modeller som GPT-4 er forbedret ved RAG-teknikker (Retrieval Augmented Generation). Med disse teknikker kan modellerne bruge flere oplysninger, end de var trænet til at forstå en brugers scenario. RAG fungerer ved først at identificere data, der er relevante for scenariet, på samme måde som et søgeprogram identificerer websider, der er relevante for brugerens søgeord. Det bruger flere fremgangsmåder til at identificere, hvilket indhold der er relevant for brugerprompten, og det skal bruges til at identificere responset. Fremgangsmåder omfatter søgning mod forskellige typer indekser, f.eks. omvendte indekser ved hjælp af teknikker til hentning af oplysninger, f.eks. termmatchning, eller indekser for opslagsindeks, der bruger sammenligninger af længder på medaljer for semantisk lighed. Når RAG identificerer relevante dokumenter, overfører det dataene til modellen sammen med den aktuelle samtale, så modellen får en bedre sammenhæng, så den bedre kan forstå de oplysninger, den allerede har, og oprette et svar, der er udviklet i den virkelige verden. Til sidst kontrollerer RAG svaret for at sikre, at det understøttes af det kildeindhold, der blev leveret til modellen. Copilots generative AI-funktioner inkorporerer RAG på flere måder. Et eksempel er chat med data, hvor en chatrobot bliver brugt sammen med kundens egne datakilder.

En anden metode til forbedring af grundlæggende modeller kaldes finjustering. En stor datasæt af forespørgselssvarpar vises i en grundlæggende model, så den oprindelige træning kan anvendes på nye eksempler, der er beregnet til et bestemt scenario. Modellen kan derefter udrulles som en separat model – en model, der er finjusteret til det pågældende scenario. Selv om grounding handler om at gøre den kunstige intelligens viden relevant for den virkelige verden, handler finjustering om at gøre den kunstige intelligens viden mere specifik for en bestemt opgave eller et bestemt domæne. Microsoft bruger finjustering på flere måder. Vi bruger f.eks. oprettelse af Power Automate-flow fra naturlige sprogbeskrivelser, som brugeren har angivet.

Hvordan blokerer Copilot skadelige indhold?

Azure OpenAI Service indeholder et indholdsfiltreringssystem, der fungerer side om side med kernemodeller. De indholdsfiltreringsmodeller, der anvendes i kategorierne Had og fairness, Sex, Vold og Selvbeskadigelse er specifikt trænet og testet på forskellige sprog. Dette system fungerer ved at køre både inputprompten og svaret via klassificeringsmodeller, der er udviklet til at identificere og blokere outputtet af skadelige indhold.

Had og fairnessrelaterede emner refererer til alt indhold, der bruger et nedsættende eller diskriminerende sprog, som er baseret på attributter som race, tilhørsforhold, nationalitet, identitet og udtryk, seksuel orientering, religion, immigrationsstatus, tilstandsstatus, personligt udseende og kropsstørrelse. Fairness handler om at sikre, at AI-systemer behandler alle grupper af personer lige uden at bidrage til eksisterende socioøkonomiske uligheder. Seksuelt indhold involverer diskussioner om de menneskelige reproduktive organer, romantiske relationer, handlinger, som skildres i erotiske eller hengivne udtryk, graviditet, fysiske seksuelle handlinger, herunder dem som skildres som et angreb eller en tvungen handling af seksuel vold, prostitution, pornografi og misbrug. Vold beskriver sprog, der relaterer til fysiske handlinger, som er beregnet til at skade eller dræbe, herunder handlinger, vågen og relateret objekter. Sprog med selvskade henviser til overlagte handlinger, der er beregnet på at skade eller dræbe sig selv.

Få mere at vide om Azure OpenAI-indholdsfiltrering.

Overholder Copilot kravene i forbindelse med bemyndigelse af overholdelseskrav?

Microsoft Copilot er del af Dynamics 365 og Power Platform-økosystemet og overholder de samme krav til overholdelse af lovgivningskrav. Du kan finde flere oplysninger om de lovgivningsmæssige certificeringer for Microsoft-services ved at gå til Service Trust Portal. Derudover opretholder Copilot vores forpligtelse til at overholde en ansvarlig kunstig intelligens, som tages i brug, gennem vores ansvarlige AI-standarder. Efterhånden som lovgivning om kunstig intelligens udvikler sig, fortsætter Microsoft med at tilpasse sig og reagere på nye krav.

Få mere at vide om Dynamics 365, Power Platform og Copilot-tilgængelighed, kundedataplaceringer og overholdelse af standarder for globale, regionale og branchespecifikke krav til administration af data.

Flere oplysninger

Copilot i Dynamics 365-apps og Power Platform

Produkt Funktion Er administrerede miljøer påkrævet? Sådan slås funktionen fra
AI Builder Scenarier i forhåndsversion Nej Scenarier i forhåndsversion
Dynamics 365 Customer Insights - Data Oprette segmenter med Copilot til Customer Insights - Data (forhåndsversion) Nej Customer Insights - Data har sit eget flag for alle Copilot-funktioner fra Azure OpenAI.

Få mere at vide: Giv samtykke til at bruge Copilot i Customer Insights - Data
Dynamics 365 Customer Insights - Data Oversigt over dataforberedelsesrapport (forhåndsversion) Nej Customer Insights - Data har sit eget flag for alle Copilot-funktioner fra Azure OpenAI.

Få mere at vide: Giv samtykke til at bruge Copilot i Customer Insights - Data
Dynamics 365 Customer Insights - Data Få svar på spørgsmål om funktioner fra Copilot (forhåndsversion) Nej Customer Insights - Data har sit eget flag for alle Copilot-funktioner fra Azure OpenAI.

Få mere at vide: Giv samtykke til at bruge Copilot i Customer Insights - Data
Dynamics 365 Customer Insights (Data) Få en dialogboks med data ved hjælp af Copilot i Customer Insights Nej Customer Insights - Data har sit eget flag for alle Copilot-funktioner fra Azure OpenAI.

Få mere at vide: Giv samtykke til at bruge Copilot i Customer Insights - Data
Dynamics 365 Customer Insights - Data Vis systemkonfiguration Nej Customer Insights - Data har sit eget flag for alle Copilot-funktioner fra Azure OpenAI.

Få mere at vide: Giv samtykke til at bruge Copilot i Customer Insights - Data
Dynamics 365 Customer Insights - Journeys Copilot hjælper dig med at lære og gøre mere (forhåndsversion) Nej Hvorvidt denne copilot er tilgængelig i dit miljø, bestemmes af Power Platform-administratorindstillinger. Få mere at vide om tilføjelse af Copilot i modelbaserede apps.


Denne funktion er "app-copilot i Customer Insights - Journeys", og det er derfor, den er aktiveret i Power Platform Administration. Få mere at vide: Ofte stillede spørgsmål om ansvarlig AI
Dynamics 365 Customer Insights - Journeys Oprette kampagneforløb ved brug af AI-assistance Nej Customer Insights - Journeys har sine egne flag for Copilot-funktioner.

Få mere at vide: Giv samtykke til at bruge Copilot i Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Opdatere og perfektionere dit budskab Nej Customer Insights - Journeys har sine egne flag for Copilot-funktioner.

Få mere at vide: Giv samtykke til at bruge Copilot i Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Formatere dine mails med AI-assisterede temaer Nej Customer Insights - Journeys har sine egne flag for Copilot-funktioner.

Få mere at vide: Giv samtykke til at bruge Copilot i Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Nå ud til de rette kunder vha. forespørgselsassistenten

Nej Customer Insights - Journeys har sine egne flag for Copilot-funktioner.

Få mere at vide: Giv samtykke til at bruge Copilot i Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Bruge AI til at starte oprettelse af mail Nej Customer Insights - Journeys har sine egne flag for Copilot-funktioner.

Få mere at vide: Giv samtykke til at bruge Copilot i Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Bruge billeder i dit indhold Nej Customer Insights - Journeys har sine egne flag for Copilot-funktioner.

Få mere at vide: Giv samtykke til at bruge Copilot i Customer Insights - Journeys
Power Apps Opbygge apps via samtale Nej Administrer funktionsindstillinger
Power Apps Copilot-hjælp til formularfyldning i modelbaserede apps Nej Administrer funktionsindstillinger
Power Apps Lave kladder til velskrevet inputtekst med Copilot Nej, premiumbrugerlicens Lave kladder til velskrevet inputtekst med Copilot
Power Apps Excel til tabel Nej Administrer funktionsindstillinger
Power Apps Bruge det naturlige sprog til at redigere en app ved hjælp af Copilot-panelet Nej Administrer funktionsindstillinger
Power Pages Alle (se Copilot-oversigten i Power Pages for at få flere oplysninger) Nej Deaktivere Copilot i Power Pages

Tilgængelighed for område og sprog

International tilgængelighed for Copilot

Databevægelser på tværs af geografiske områder

Sikkerhed hos Microsoft

Politik om beskyttelse af personlige oplysninger hos Microsoft

Microsofts erklæring om beskyttelse af personlige oplysninger

Ansvarlig AI