Del via


Data, Beskyttelse af personlige oplysninger og Sikkerhed for Microsoft 365 Copilot

Microsoft 365 Copilot er et avanceret behandlings- og orkestreringsprogram, der leverer produktivitetsfunktioner, der er drevet af kunstig intelligens ved at koordinere følgende komponenter:

  • Store sprogmodeller (LLM'er)
  • Indhold i Microsoft Graph, f.eks. mails, chatsamtaler og dokumenter, som du allerede har adgang til.
  • De Microsoft 365-produktivitetsapps, du bruger hver dag, f.eks. Word og PowerPoint.

Du kan få et overblik over, hvordan disse tre komponenter arbejder sammen, i Microsoft 365 Copilot-oversigt. Du kan finde links til andet indhold, der er relateret til Microsoft 365 Copilot, i dokumentationen til Microsoft 365 Copilot.

Vigtigt!

  • Microsoft 365 Copilot overholder vores eksisterende forpligtelser til beskyttelse af personlige oplysninger, sikkerhed og overholdelse af angivne standarder over for kommercielle Microsoft 365-kunder, herunder generel forordning om databeskyttelse (GDPR) og EU-datagrænsen.
  • Prompter, svar og data, der tilgås via Microsoft Graph, bruges ikke til at oplære grundlæggende LLM'er, herunder dem, der bruges af Microsoft 365 Copilot.
  • Microsoft 365 Copilot opererer med flere beskyttelser, som omfatter, men er ikke begrænset til, blokering af skadeligt indhold, registrering af beskyttet materiale og blokering af promptinjektioner (jailbreak-angreb).

Oplysningerne i denne artikel er beregnet til at hjælpe med at besvare følgende spørgsmål:

Bemærk!

Microsoft 365 Copilot vil med tiden udvikle sig med nye funktioner. Hvis du vil holde dig opdateret om Microsoft 365 Copilot eller stille spørgsmål, skal du besøge community'et Microsoft 365 Copilot i Microsoft Tech Community.

Hvordan bruger Microsoft 365 Copilot dine beskyttede organisationsdata?

Microsoft 365 Copilot giver værdi ved at forbinde LLM'er med dine organisationsdata. Microsoft 365 Copilot får adgang til indhold og kontekst via Microsoft Graph. Det kan generere svar, der er forankret i kundens forretningsindhold, f.eks. brugerdokumenter, mails, kalender, chats, møder, kontakter og andre forretningsdata. Microsoft 365 Copilot kombinerer dette indhold med brugerens arbejdskontekst, f.eks. det møde, en bruger er i nu, den mailudveksling, som brugeren har haft om et emne, eller de chatsamtaler, som brugeren havde i sidste uge. Microsoft 365 Copilot bruger denne kombination af indhold og kontekst til at levere præcise, relevante, kontekstafhængige svar.

Vigtigt!

Prompter, svar og data, der tilgås via Microsoft Graph, bruges ikke til at oplære grundlæggende LLM'er, herunder dem, der bruges af Microsoft 365 Copilot.

Microsoft 365 Copilot viser kun organisationsdata, som individuelle brugere som minimum har visningstilladelser til. Det er vigtigt, at du bruger de modeller til adgangstilladelse, der er tilgængelige i Microsoft 365-tjenester, f.eks. SharePoint, for at sikre, at de rette brugere eller grupper har den rette adgang til det rette indhold i din organisation. Dette omfatter tilladelser, du giver til brugere uden for din organisation via samarbejdsløsninger mellem lejere, f.eks. delte kanaler i Microsoft Teams.

Når du angiver prompter ved hjælp af Microsoft 365 Copilot, forbliver oplysningerne i dine prompter, de data, de henter, samt de genererede svar inden for Microsoft 365-overholdelsesgrænsen, i overensstemmelse med vores nuværende forpligtelser til datasikkerhed og overholdelse af angivne standarder. Microsoft 365 Copilot bruge Azure OpenAI-tjenester til behandling, ikke OpenAI's offentligt tilgængelige tjenester. Azure OpenAI cachelagrer ikke kundeindhold, og Copilot-modificerede prompter til Microsoft 365 Copilot. Du kan få flere oplysninger i afsnittet Data, der er gemt om brugerinteraktioner med Microsoft 365 Copilot senere i denne artikel.

Bemærk!

  • Når du bruger plug-ins til at hjælpe Microsoft 365 Copilot med at give mere relevante oplysninger, skal du kontrollere erklæringen om beskyttelse af personlige oplysninger og vilkår for anvendelse af plug-in'en til at finde ud af, hvordan den håndterer din organisations data. Du kan få flere oplysninger under Udvidelse af Microsoft 365 Copilot.
  • Når du bruger plugin'en til webindhold, fortolker Microsoft 365 Copilot brugerens prompt og identificerer udtryk, hvor websøgning kan forbedre kvaliteten af svaret. På baggrund af disse vilkår genererer Copilot en søgeforespørgsel, som den sender til tjenesten Bing Search. Du kan få flere oplysninger ved at se Data, beskyttelse af personlige oplysninger og sikkerhed for webforespørgsler i Microsoft 365 Copilot.

Selvom redigering af misbrug, som omfatter menneskelig gennemgang af indhold, er tilgængelig i Azure OpenAI, har Microsoft 365 Copilot-tjenester fravalgt det. Du kan få oplysninger om indholdsfiltrering i afsnittet Hvordan blokerer Copilot skadeligt indhold senere i denne artikel.

Bemærk!

Vi kan bruge kundefeedback, som er valgfri, til at forbedre Microsoft 365 Copilot, ligesom vi bruger kundefeedback til at forbedre andre Microsoft 365-tjenester og Microsoft 365-produktivitetsapps. Vi bruger ikke denne feedback til at oplære de basismodeller, der bruges af Microsoft 365 Copilot. Kunder kan administrere feedback via administratorkontrolelementer. Du kan få flere oplysninger under Administrer Microsoft-feedback for din organisation og Giv feedback om Microsoft Copilot med Microsoft 365 Apps.

Data, der er gemt om brugerinteraktioner med Microsoft 365 Copilot

Når en bruger interagerer med Microsoft 365 Copilot (ved hjælp af apps som f.eks. Word, PowerPoint, Excel, OneNote, Loop eller Whiteboard), gemmer vi data om disse interaktioner. De gemte data omfatter brugerens prompt og Copilots svar, herunder citater til alle oplysninger, der bruges til at underbygge Copilots svar. Vi henviser til brugerens prompt og Copilots svar på denne prompt som "indholdet af interaktioner", og registreringen af disse interaktioner er brugerens Copilot-aktivitetshistorik. Disse gemte data giver f.eks. brugere med Copilot-aktivitetshistorik i Business Chat og møder i Microsoft Teams. Disse data behandles og gemmes i overensstemmelse med kontraktlige forpligtelser i forhold til din organisations øvrige indhold i Microsoft 365. Dataene krypteres, mens de gemmes, og de bruges ikke til at oplære grundlæggende VM'er, herunder dem, der bruges af Microsoft 365 Copilot.

Administratorer kan bruge Indholdssøgning eller Microsoft Purview til at få vist og administrere disse gemte data. Administratorer kan også bruge Microsoft Purview til at angive opbevaringspolitikker for de data, der er relateret til chatinteraktioner med Copilot. Du kan finde flere oplysninger i følgende artikler:

I forbindelse med Microsoft Teams-chats med Copilot kan administratorer også bruge eksport-API'er til Microsoft Teams til at få vist de gemte data.

Sletning af oversigten over brugerinteraktioner med Microsoft 365 Copilot

Brugerne kan slette deres Aktivitetshistorik for Copilot, som indeholder deres prompter og svar, som Copilot returnerer, ved at gå til portalen Min konto. Du kan få flere oplysninger under Slet din Microsoft 365 Copilot aktivitetsoversigt.

Microsoft 365 Copilot og EU's datagrænse

Microsoft 365 Copilot kald til LLM dirigeres til de nærmeste datacentre i området, men kan også kalde til andre områder, hvor kapacitet er tilgængelig i perioder med høj udnyttelse.

For brugere i EU har vi yderligere sikkerhedsforanstaltninger for at overholde EU's datagrænse. EU-trafik forbliver inden for EU's datagrænse, mens verdensomspændende trafik kan sendes til EU og andre lande eller områder med henblik på LLM-behandling.

Microsoft 365 Copilot og dataopbevaring

Microsoft 365 Copilot overholder forpligtelser til dataopbevaring som beskrevet i Microsofts produktvilkår og tillæg om databeskyttelse. Microsoft 365 Copilot blev tilføjet som en dækket arbejdsbelastning i forpligtelserne til dataopbevaring i Microsofts produktvilkår den 1. marts 2024.

Microsoft Advanced Data Residency (ADR) og Multi-Geo Capabilities-tilbud omfatter forpligtelser til dataopbevaring for Microsoft 365 Copilot-kunder fra 1. marts 2024. For EU-kunder er Microsoft 365 Copilot en EU-datagrænsetjeneste. Kunder uden for EU kan få deres forespørgsler behandlet i USA, EU eller andre områder.

Udvidelse af Microsoft 365 Copilot

Selvom Microsoft 365 Copilot allerede kan bruge apps og data i Microsoft 365-økosystemet, er mange organisationer stadig afhængige af forskellige eksterne værktøjer og tjenester til styring af arbejde og samarbejde. Microsoft 365 Copilot oplevelser kan referere til tredjepartsværktøjer og -tjenester, når de besvarer en brugers anmodning ved hjælp af Microsoft Graph-connectors eller plug-ins. Data fra Graph-connectors kan returneres i Microsoft 365 Copilot-svar, hvis brugeren har tilladelse til at få adgang til disse oplysninger.

Når plug-ins er aktiveret, bestemmer Microsoft 365 Copilot, om den skal bruge en bestemt plug-in for at hjælpe med at give brugeren et relevant svar. Hvis der er brug for en plug-in, genererer Microsoft 365 Copilot en søgeforespørgsel, der skal sendes til plug-in'en på brugerens vegne. Forespørgslen er baseret på brugerens prompt, Copilot-aktivitetshistorik og data, som brugeren har adgang til i Microsoft 365.

I afsnittet Integrerede apps i Microsoft 365 Administration kan administratorer få vist de tilladelser og den dataadgang, der kræves af en plug-in, samt plug-in'ens vilkår for anvendelse og erklæring om beskyttelse af personlige oplysninger. Administratorer har fuld kontrol over, hvilke plug-ins der er tilladt i deres organisation. En bruger kan kun få adgang til de plug-ins, som vedkommendes administrator tillader, og som brugeren har installeret eller er tildelt. Microsoft 365 Copilot bruger kun plug-ins, der er slået til af brugeren.

Du kan finde flere oplysninger i følgende artikler:

Hvordan beskytter Microsoft 365 Copilot organisationsdata?

Modellen til adgangstilladelse i din Microsoft 365-lejer kan hjælpe med at sikre, at data ikke utilsigtet lækker mellem brugere, grupper og lejere. Microsoft 365 Copilot præsenterer kun data, som hver enkelt person kan få adgang til ved hjælp af de samme underliggende kontrolelementer for dataadgang, der bruges i andre Microsoft 365-tjenester. Semantisk indeks respekterer den brugeridentitetsbaserede adgangsgrænse, så groundingprocessen kun får adgang til indhold, som den aktuelle bruger er autoriseret til at få adgang til. Du kan få flere oplysninger i Microsofts politik om beskyttelse af personlige oplysninger og tjenestedokumentation.

Når du har data, der er krypteret af Microsoft Purview Information Protection, overholder Microsoft 365 Copilot de brugsrettigheder, der er tildelt brugeren. Denne kryptering kan anvendes af følsomhedsmærkater eller af begrænsede tilladelser i apps i Microsoft 365 ved hjælp af IRM (Information Rights Management). Du kan få mere at vide om brug af Microsoft Purview med Microsoft 365 Copilot under Microsoft Purview-datasikkerhed og overholdelsesbeskyttelse generative AI-apps.

Vi implementerer allerede flere former for beskyttelse for at forhindre kunder i at kompromittere Microsoft 365-tjenester og -programmer eller få uautoriseret adgang til andre lejere eller selve Microsoft 365-systemet. Her er nogle eksempler på disse former for beskyttelse:

  • Logisk isolering af kundeindhold i hver lejer for Microsoft 365-tjenester opnås via Microsoft Entra-godkendelse og rollebaseret adgangskontrol. For at få mere at vide, skal du se Microsoft 365-isolationskontrol.

  • Microsoft bruger streng fysisk sikkerhed, baggrundsscreening og en krypteringsstrategi i flere lag for at beskytte fortroligheden og integriteten af kundeindhold.

  • Microsoft 365 bruger tjenestebaserede teknologier, der krypterer kundeindhold som inaktive og under overførsel, herunder BitLocker, kryptering pr. fil, TLS (Transport Layer Security) og IP-sikkerhed (IPsec). Du kan finde specifikke oplysninger om kryptering i Microsoft 365 under Kryptering i Microsoft Cloud.

  • Din kontrol over dine data styrkes af Microsofts forpligtelse til at overholde gældende love om beskyttelse af personlige oplysninger, f.eks. GDPR, og standarder for beskyttelse af personlige oplysninger, f.eks. ISO/IEC 27018, verdens første internationale kodeks for praksis for beskyttelse af personlige oplysninger i cloudmiljøet.

  • For indhold, der tilgås via Microsoft 365 Copilot-plug-ins, kan kryptering udelukke programadgang og dermed begrænse plug-in'en i at få adgang til indholdet. Du kan få flere oplysninger under Konfigurer brugsrettigheder til Azure Information Protection.

Overholdelse af lovmæssige krav

Efterhånden som reguleringen inden for kunstig intelligens udvikler sig, vil Microsoft fortsætte med at tilpasse sig og opfylde fremtidige lovmæssige krav.

Microsoft 365 Copilot er bygget oven på Microsofts aktuelle forpligtelser i forhold til datasikkerhed og beskyttelse af personlige oplysninger i virksomheden. Der er ingen ændring af disse forpligtelser. Microsoft 365 Copilot er integreret i Microsoft 365 og overholder alle eksisterende forpligtelser til beskyttelse af personlige oplysninger, sikkerhed og overholdelse af angivne standarder for kommercielle Microsoft 365-kunder. Du kan få flere oplysninger under Microsoft Overholdelse af angivne standarder.

Ud over at overholde regler prioriterer vi en åben dialog med vores kunder, partnere og tilsynsmyndigheder for bedre at forstå og håndtere bekymringer og dermed fremme et miljø med tillid og samarbejde. Vi anerkender, at beskyttelse af personlige oplysninger, sikkerhed og gennemsigtighed ikke kun er funktioner, men forudsætninger i det AI-drevne landskab hos Microsoft.

Flere oplysninger

Microsoft 365 Copilot og kontrolelementer til beskyttelse af personlige oplysninger for forbundne oplevelser

Nogle kontrolelementer til beskyttelse af personlige oplysninger for forbundne oplevelser i Microsoft 365 Apps kan påvirke tilgængeligheden af Microsoft 365 Copilot-funktioner. Dette omfatter kontrolelementerne til beskyttelse af personlige oplysninger for forbundne oplevelser, der analyserer dit indhold, og kontrolelementet til beskyttelse af personlige oplysninger for valgfri forbundne oplevelser. Du kan få oplysninger om de kontrolelementer til beskyttelse af personlige oplysninger under Overblik over kontrolelementer til beskyttelse af personlige oplysninger for Microsoft 365 Apps for enterprise.

Kontrolelement til beskyttelse af personlige oplysninger for forbundne oplevelser, der analyserer dit indhold

Hvis du deaktiverer forbundne oplevelser, der analyserer dit indhold på enheder i din organisation, vil Microsoft 365 Copilot funktioner ikke være tilgængelige for dine brugere i følgende apps:

  • Excel
  • OneNote
  • Outlook
  • PowerPoint
  • Word

Dette gælder for, når du kører den nyeste version af disse apps på Windows-, Mac-, iOS- eller Android-enheder.

Der er også et kontrolelement til beskyttelse af personlige oplysninger, der slår alle forbundne oplevelser fra, herunder forbundne oplevelser, der analyserer dit indhold. Hvis du bruger kontrolelementet til beskyttelse af personlige oplysninger, vil Microsoft 365 Copilot funktioner ikke være tilgængelige i appsene og på de enheder, der er beskrevet ovenfor.

Kontrolelementet til beskyttelse af personlige oplysninger for valgfri forbundne oplevelser

Hvis du slår valgfri forbundne oplevelser fra i din organisation, vil Microsoft 365 Copilot-funktioner, der er valgfri forbundne oplevelser, ikke være tilgængelige for dine brugere. Websøgning vil f.eks. ikke være tilgængelig for dine brugere.

Der er også et kontrolelement til beskyttelse af personlige oplysninger, der slår alle forbundne oplevelser fra, herunder valgfri forbundne oplevelser. Hvis du bruger dette kontrolelement til beskyttelse af personlige oplysninger, vil Microsoft 365 Copilot-funktioner, der er valgfri forbundne oplevelser, ikke være tilgængelige.

Om det indhold, som Microsoft 365 Copilot opretter

De svar, som generativ AI giver, er ikke garanteret at være 100 % faktuelle. Mens vi fortsætter med at forbedre svarene, bør brugerne stadig bruge deres dømmekraft, når de gennemgår outputtet, før de sender dem til andre. Vores Microsoft 365 Copilot-funktioner leverer nyttige udkast og resuméer, der hjælper dig med at opnå mere, samtidig med at du får mulighed for at gennemgå den genererede kunstige intelligens i stedet for at automatisere disse opgaver fuldstændigt.

Vi fortsætter med at forbedre algoritmerne for proaktivt at løse problemer, f.eks. misinformation og desinformation, blokering af indhold, datasikkerhed og forhindre promovering af skadeligt eller diskriminerende indhold i overensstemmelse med vores principper for ansvarlig kunstig intelligens.

Microsoft kræver ikke ejerskab over outputtet fra tjenesten. Når det er sagt, træffer vi ikke beslutning om, hvorvidt en kundes output er ophavsretligt beskyttet eller håndhæves over for andre brugere. Dette skyldes, at genererende AI-systemer kan give lignende svar på lignende prompter eller forespørgsler fra flere kunder. Derfor kan flere kunder have eller gøre krav på rettigheder til indhold, der er det samme eller stort set det samme.

Hvis en tredjepart sagsøger en kommerciel kunde for krænkelse af ophavsret for at bruge Microsofts Copilots eller det output, de genererer, beskytter vi kunden og betaler mængden af eventuelle uønskede søgsmål eller afregninger, der er resultatet af søgsmålet, så længe kunden har brugt de rækværk og indholdsfiltre, vi har indbygget i vores produkter. Du kan få flere oplysninger under Microsoft annoncerer den nye Copilot Copyright-rettigheder for kunder.

Hvordan blokerer Copilot skadeligt indhold?

Azure OpenAI Service indeholder et indholdsfiltreringssystem, der fungerer sammen med kernemodeller. Indholdsfiltreringsmodellerne for kategorierne Had og retfærdighed, Seksuelt, Vold og Selvskade er specifikt uddannet og testet på forskellige sprog. Dette system fungerer ved at køre både inputprompten og svaret via klassificeringsmodeller, der er designet til at identificere og blokere outputtet af skadeligt indhold.

Had og retfærdighedsrelaterede skader er alt indhold, der bruger nedsættende eller diskriminerende sprog baseret på egenskaber som race, etnicitet, nationalitet, kønsidentitet og -udtryk, seksuel orientering, religion, indvandringsstatus, evnestatus, personligt udseende og kropsstørrelse. Retfærdighed handler om at sikre, at AI-systemer behandler alle grupper af mennesker lige uden at bidrage til eksisterende samfundsmæssige uligheder. Seksuelt indhold omfatter diskussioner om menneskelige kønsorganer, romantiske forhold, handlinger, der er beskrevet med erotiske eller kærlige udtryk, graviditet og fysiske seksuelle handlinger, herunder dem, der portrætteres som et angreb eller tvungen seksuel vold, prostitution, pornografi og misbrug. Vold beskriver sprog relateret til fysiske handlinger, der er beregnet til at skade eller dræbe, herunder handlinger, våben og relaterede enheder. Selvskadesprog er forsætlige handlinger, der er beregnet til, at man skader sig selv eller begår selvmord.

Få mere at vide om filtrering af Azure OpenAI-indhold.

Leverer Copilot registrering af beskyttet materiale?

Ja, Microsoft 365 Copilot leverer registrering af beskyttede materialer, hvilket omfatter tekst, der er underlagt ophavsret og kode, der er underlagt licensbegrænsninger. Ikke alle disse afhjælpninger er relevante for alle Copilot til Microsoft 365-scenarier.

Blokerer Copilot promptinjektioner (jailbreak-angreb)?

Jailbreak-angreb er brugerprompts, der er designet til at provokere den generative AI-model til at opføre sig på måder, som den blev trænet til ikke opføre sig på, eller til at overtræde de regler, den har fået at vide, at den skal følge. Microsoft 365 Copilot er designet til at beskytte mod promptinjektionsangreb. Få mere at vide om jailbreak-angreb, og hvordan du bruger Azure AI Content Safety til at registrere dem.

Forpligtet til ansvarlig kunstig intelligens

Efterhånden som kunstig intelligens er klar til at transformere vores liv, skal vi i fællesskab definere nye regler, normer og praksisser for brug og indvirkning af denne teknologi. Microsoft har været på en rejse med ansvarlig kunstig intelligens siden 2017, hvor vi definerede vores principper og tilgang til at sikre, at denne teknologi bruges på en måde, der er drevet af etiske principper, der sætter mennesker først.

Hos Microsoft er vi guidet af vores principper for kunstig intelligens, vores standard for ansvarlig kunstig intelligens og årtiers forskning i kunstig intelligens, grounding og beskyttelse af personlige oplysninger, der bevarer maskinel indlæring. Et tværfagligt team af forskere, teknikere og politikeksperter gennemgår vores systemer for kunstig intelligens for potentielle skader og afhjælpninger – de finjusterer oplæringsdata, filtrerer for at begrænse skadeligt indhold, forespørgsels- og resultatblokerende følsomme emner og anvender Microsoft-teknologier som InterpretML og Fairlearn for at hjælpe med at registrere og rette databias. Vi gør det klart, hvordan systemet træffer beslutninger ved at bemærke begrænsninger, henvise til kilder og bede brugerne om at gennemse, tjekke fakta og justere indhold baseret på ekspertise inden for emnet. Du kan få flere oplysninger under Styring af kunstig intelligens: En plan for fremtiden.

Vi tilstræber at hjælpe vores kunder med at bruge vores produkter, med kunstig intelligens ansvarligt, dele vores erfaringer og opbygge tillidsbaserede partnerskaber. For disse nye tjenester ønsker vi at give vores kunder oplysninger om de tiltænkte anvendelser, funktioner og begrænsninger i vores platformstjeneste med kunstig intelligens, så de har den viden, der er nødvendig for at foretage ansvarlige udrulningsvalg. Vi deler også ressourcer og skabeloner med udviklere i organisationer og med uafhængige softwareleverandører (ISV'er) for at hjælpe dem med at bygge effektive, sikre og gennemsigtige AI-løsninger.