Data, beskyttelse af personlige oplysninger og sikkerhed for Microsoft Copilot til Microsoft 365

Microsoft Copilot til Microsoft 365 er et avanceret behandlings- og orkestreringsprogram, der leverer produktivitetsfunktioner, der er drevet af kunstig intelligens, ved at koordinere følgende komponenter:

  • Store sprogmodeller (LLM'er)
  • Indhold i Microsoft Graph, f.eks. mails, chatsamtaler og dokumenter, som du allerede har adgang til.
  • De Microsoft 365-apps, du bruger hver dag, f.eks. Word og PowerPoint.

Du kan få et overblik over, hvordan disse tre komponenter arbejder sammen, i oversigten over Microsoft Copilot til Microsoft 365. Du kan finde links til andet indhold, der er relateret til Microsoft Copilot til Microsoft 365, ved at se dokumentationen til Microsoft Copilot til Microsoft 365.

Vigtigt!

  • Microsoft Copilot til Microsoft 365 overholder vores eksisterende forpligtelser til beskyttelse af personlige oplysninger, sikkerhed og overholdelse af angivne standarder over for kommercielle Microsoft 365-kunder, herunder den generelle forordning om databeskyttelse (GDPR) og EU-datagrænsen.
  • Prompter, svar og data, der tilgås via Microsoft Graph, bruges ikke til at oplære grundlæggende LLM'er, herunder dem, der bruges af Microsoft Copilot til Microsoft 365.

Oplysningerne i denne artikel er beregnet til at hjælpe med at besvare følgende spørgsmål:

Bemærk!

Microsoft Copilot til Microsoft 365 vil med tiden udvikle sig med nye funktioner. Hvis du vil holde dig opdateret om Microsoft Copilot til Microsoft 365 eller stille spørgsmål, skal du besøge Microsoft 365 Copilot-community'et på Microsoft Tech Community.

Hvordan bruger Microsoft Copilot til Microsoft 365 dine proprietære organisationsdata?

Microsoft Copilot til Microsoft 365 giver værdi ved at forbinde LLM'er med dine organisationsdata. Microsoft Copilot til Microsoft 365 får adgang til indhold og kontekst via Microsoft Graph. Det kan generere svar, der er forankret i kundens forretningsindhold, f.eks. brugerdokumenter, mails, kalender, chats, møder, kontakter og andre forretningsdata. Microsoft Copilot til Microsoft 365 kombinerer dette indhold med brugerens arbejdskontekst, f.eks. det møde, en bruger er i nu, den mailudveksling, som brugeren har haft om et emne, eller de chatsamtaler, som brugeren havde i sidste uge. Microsoft Copilot til Microsoft 365 bruger denne kombination af indhold og kontekst til at levere præcise, relevante og kontekstafhængige svar.

Vigtigt!

Prompter, svar og data, der tilgås via Microsoft Graph, bruges ikke til at oplære grundlæggende LLM'er, herunder dem, der bruges af Microsoft Copilot til Microsoft 365.

Microsoft Copilot til Microsoft 365 viser kun organisationsdata, som individuelle brugere som minimum har visningstilladelser til. Det er vigtigt, at du bruger de modeller til adgangstilladelse, der er tilgængelige i Microsoft 365-tjenester, f.eks. SharePoint, for at sikre, at de rette brugere eller grupper har den rette adgang til det rette indhold i din organisation. Dette omfatter tilladelser, du giver til brugere uden for din organisation via samarbejdsløsninger mellem lejere, f.eks. delte kanaler i Microsoft Teams.

Når du angiver prompter ved hjælp af MMicrosoft Copilot til Microsoft 365, forbliver oplysningerne i dine prompter, de data, de henter, samt de genererede svar inden for Microsoft 365-overholdelsesgrænsen, i overensstemmelse med vores nuværende forpligtelser til datasikkerhed og overholdelse af angivne standarder. Microsoft Copilot til Microsoft 365 bruger Azure OpenAI-tjenester til behandling, ikke OpenAI's offentligt tilgængelige tjenester.

Bemærk!

Når du bruger Microsoft Copilot til Microsoft 365, kan din organisations data forlade Microsoft 365-tjenestegrænsen under følgende omstændigheder:

  • Når du bruger plugins til at hjælpe Microsoft Copilot til Microsoft 365 med at give mere relevante oplysninger. Se erklæringen om beskyttelse af personlige oplysninger og vilkår for anvendelse af for plugin'en for at finde ud af, hvordan den håndterer din organisations data. Du kan få flere oplysninger ved at se Udvidelsesmuligheder for Microsoft Copilot til Microsoft 365.
  • Når du bruger webindholds-plug-in'en til at forbedre chatsvar, genererer Copilot til Microsoft 365 en søgeforespørgsel, der sendes til Bing for at få de nyeste oplysninger fra internettet. Du kan få flere oplysninger ved at seMicrosoft Copilot til Microsoft 365 og plug-in'en til webindhold.

Overvågning af misbrug for Microsoft Copilot til Microsoft 365 sker i realtid uden at give Microsoft stående adgang til kundedata, hverken til menneskelig eller automatiseret gennemgang. Selvom moderering af misbrug, som omfatter menneskelig gennemgang af indhold, er tilgængelig i Azure OpenAI, har Microsoft Copilot til Microsoft 365-tjenester fravalgt det. Microsoft 365-data indsamles eller gemmes ikke af Azure OpenAI.

Bemærk!

Vi kan bruge kundefeedback, som er valgfri, til at forbedre Microsoft Copilot til Microsoft 365, ligesom vi bruger kundefeedback til at forbedre andre Microsoft 365-tjenester og Microsoft 365-apps. Vi bruger ikke denne feedback til at oplære de basismodeller, der bruges af Microsoft Copilot til Microsoft 365. Kunder kan administrere feedback via administratorkontrolelementer. Du kan få flere oplysninger under Administrer Microsoft-feedback for din organisation og Giv feedback om Microsoft Copilot til Microsoft 365.

Data, der er gemt om brugerinteraktioner med Microsoft Copilot til Microsoft 365

Når en bruger interagerer med Microsoft Copilot til Microsoft 365-apps (f.eks. Word, PowerPoint, Excel, OneNote, Loop eller Whiteboard), gemmer vi data om disse interaktioner. De gemte data omfatter brugerens prompt og Copilots svar, herunder citater til alle oplysninger, der bruges til at underbygge Copilots svar. Vi henviser til brugerens prompt og Copilots svar på denne prompt som "indholdet af interaktioner", og registreringen af disse interaktioner er brugerens historik over Copilot-interaktioner. Disse gemte data giver f.eks. brugere en historik for Copilot-interaktion i Microsoft Copilot med Graph-baseret chat og møder i Microsoft Teams. Disse data behandles og gemmes i overensstemmelse med kontraktlige forpligtelser i forhold til din organisations øvrige indhold i Microsoft 365. Dataene krypteres, mens de gemmes, og de bruges ikke til at oplære grundlæggende VM'er, herunder dem, der bruges af Microsoft Copilot til Microsoft 365.

Administratorer kan bruge Indholdssøgning eller Microsoft Purview til at få vist og administrere disse gemte data. Administratorer kan også bruge Microsoft Purview til at angive opbevaringspolitikker for de data, der er relateret til chatinteraktioner med Copilot. Du kan finde flere oplysninger i følgende artikler:

I forbindelse med Microsoft Teams-chats med Copilot kan administratorer også bruge eksport-API'er til Microsoft Teams til at få vist de gemte data.

Sletning af oversigten over brugerinteraktioner med Microsoft Copilot til Microsoft 365

Dine brugere kan slette deres interaktionshistorik for Copilot, hvilket omfatter deres prompter og svar, som Copilot returnerer, ved at gå til portalen Min konto. Du kan få flere oplysninger under Slet din interaktionshistorik for Microsoft Copilot.

Microsoft Copilot til Microsoft 365 og EU's datagrænse

Microsoft Copilot til Microsoft 365-kald til LLM'en dirigeres til de nærmeste datacentre i området, men kan også kalde til andre områder, hvor der er tilgængelig kapacitet i perioder med høj udnyttelse.

For brugere i EU har vi yderligere sikkerhedsforanstaltninger for at overholde EU's datagrænse. EU-trafik forbliver inden for EU's datagrænse, mens verdensomspændende trafik kan sendes til EU og andre lande eller områder med henblik på LLM-behandling.

Microsoft Copilot til Microsoft 365 og dataopbevaring

Copilot til Microsoft 365 overholder forpligtelser til dataopbevaring som beskrevet i Microsofts produktvilkår og tillæg om databeskyttelse. Copilot til Microsoft 365 blev tilføjet som en dækket arbejdsbelastning i forpligtelserne til dataopbevaring i Microsofts produktvilkår den 1. marts 2024.

Microsoft Advanced Data Residency (ADR) og Multi-Geo Capabilities-tilbud omfatter forpligtelser til dataopbevaring for Copilot til Microsoft 365-kunder fra 1. marts 2024. For EU-kunder er Copilot til Microsoft 365 en EU-datagrænsetjeneste. Kunder uden for EU kan få deres forespørgsler behandlet i USA, EU eller andre områder.

Microsoft Copilot til Microsoft 365 og plug-in'en til webindhold

Copilot til Microsoft 365 har mulighed for at forbedre chatsvar med de nyeste oplysninger fra internettet. Når plug-in'en til webindhold er aktiveret, kan Copilot hente oplysninger fra Bing-søgeindekset, når Copilot bestemmer, at oplysninger fra internettet vil hjælpe med at give et bedre og mere jordbaseret svar.

Administratorkontrolelementer og til/fra-knap på brugerniveau er tilgængelige for administrere, om plug-in'en til webindhold er aktiveret i dit miljø.

Sådan fungerer plug-in'en til webindhold

Når plug-in'en til webindhold er aktiveret i chat, fortolker Copilot til Microsoft 365 brugerens prompt og identificerer udtryk, hvor web grounding kan forbedre kvaliteten af svaret. På baggrund af disse vilkår genererer Copilot en søgeforespørgsel, der sendes til Bing Search API'en, hvor der anmodes om flere oplysninger. Denne søgeforespørgsel er forskellig fra brugerens prompt – den består normalt af nogle få ord, der er informeret af brugerens prompt og/eller Microsoft 365-data. Den indeholder ikke automatisk samtlige Microsoft 365-dokumenter, der er knyttet til prompten.

Følgende tabel er et eksempel på en brugers prompt, de sendte søgeforespørgsler og Copilots svar.

Enhed Tekst
Prompt (som skrevet af brugeren) Vi overvejer en mulig overtagelse af Fabrikam. Hjælp mig med at udarbejde en oversigtsrapport på 200 ord over offentligt tilgængelige finansielle oplysninger om virksomheden, herunder deres forretningsstrategi.
Søgeforespørgsler (genereret af Copilot og sendt til Bing Search API'en) Fabrikams strategi
Fabrikams økonomi
Svar (genereret af Copilot) Fabrikam er en CPG-iværksættervirksomhed, der tilbyder sundere madalternativer, men med samme velkendte smag som traditionelle mærker. Virksomheden samlede 4,5 millioner dollars i startkapital i 2019 og rejste 31,5 millioner dollars i en serie B-finansieringsrunde i 2022. Fra januar 2023 rejste Fabrikam i alt 83,4 mio. USD i midler og er på vej mod mere end det dobbelte af sit salg i år.

Da pandemien ramte, stod Fabrikam over for udfordringen med at pivotere fra murstens- og mørtelbutikker til onlinesalg, og det er her, deres marketingstrategi for nøglefaktorer kom i spil. I stedet for at være afhængig af begivenheder og kampagner i butikken henvendte Fabrikam sig til sociale medier og influencerpartnerskaber for at skabe mærkebevidsthed og nå ud til et større publikum. Virksomheden planlagde innovation ud fra en reel vinkel, hvilket balancerede traditionelle forbrugsfaktorer med bedre for dig-tilbud og havde en holistisk, robust distributionsstrategi.

Fabrikam har rejst kapital for over 55 millioner dollars og har en stærk marketingstrategi for influencere, der har hjulpet dem med at pivotere til onlinesalg under pandemien.

I dette eksempel sendes kun de to søgeforespørgsler til Bing Search API'en. Når brugeren angiver sin prompt, viser chatoplevelsen alle forespørgsler, der genereres og sendes til Bing. Brugerens prompter og Copilots svar gemmes i Microsoft 365. Forespørgsler, der sendes til Bing Search API'en af Copilot til Microsoft 365, er frigjort fra bruger-id'et eller lejer-id'et.

Bing Search API'en leveres af Bing.com, som fungerer separat fra Microsoft 365 og har forskellige fremgangsmåder til håndtering af data. Brugen af Bing er omfattet af Microsoft-serviceaftalen mellem hver bruger og Microsoft sammen med Microsofts erklæring om beskyttelse af personlige oplysninger. Tilføjelsesprogrammet Microsoft Products and Services Data Protection (DPA) gælder ikke for brugen af plug-in'en til webindhold eller Bing Search API'en.

Tilgængelige kontrolelementer til styring af brugen af webindhold

Administratorer kan blokere adgang til webindhold i Copilot til Microsoft 365. Du kan få flere oplysninger ved at se Administrer adgang til webindhold i Microsoft Copilot til Microsoft 365-svar. Selv når det er tilladt af administratoren, har brugerne stadig mulighed for at vælge, om de vil bruge web-plug-in'en eller ej. Du kan finde flere oplysninger under Brug flere datakilder med Microsoft 365 Copilot.

Bemærk!

De politikindstillinger, der styrer brugen af valgfri forbundne oplevelser i Microsoft 365 Apps, gælder ikke for Microsoft Copilot til Microsoft 365 og webindhold.

Udvidelsesmuligheder for Microsoft Copilot til Microsoft 365

Selvom Microsoft Copilot til Microsoft 365 allerede kan bruge apps og data i Microsoft 365-økosystemet, er mange organisationer stadig afhængige af forskellige eksterne værktøjer og tjenester til arbejdsadministration og samarbejde. Microsoft Copilot til Microsoft 365-oplevelser kan referere til tredjepartsværktøjer og -tjenester, når de besvarer en brugers anmodning ved hjælp af Microsoft Graph-forbindelseskomponenter eller plugins. Data fra Graph-forbindelseskomponenter kan returneres i Microsoft Copilot til Microsoft 365-svar, hvis brugeren har tilladelse til at få adgang til disse oplysninger.

Når plugins er aktiveret, bestemmer Microsoft Copilot til Microsoft 365, om den skal bruge en bestemt plugin for at hjælpe med at give brugeren et relevant svar. Hvis der er brug for en plugin, genererer Microsoft Copilot til Microsoft 365 en søgeforespørgsel, der skal sendes til plugin'en på brugerens vegne. Denne forespørgsel er baseret på brugerens prompt, historik og data for Copilot-interaktion, som brugeren har adgang til i Microsoft 365.

I afsnittet Integrerede apps i Microsoft 365 Administration kan administratorer få vist de tilladelser og den dataadgang, der kræves af en plug-in, samt plug-in'ens vilkår for anvendelse og erklæring om beskyttelse af personlige oplysninger. Administratorer har fuld kontrol over, hvilke plug-ins der er tilladt i deres organisation. En bruger kan kun få adgang til de plug-ins, som vedkommendes administrator tillader, og som brugeren har installeret eller er tildelt. Microsoft Copilot til Microsoft 365 bruger kun plugins, der er aktiveret af brugeren.

Bemærk!

De politikindstillinger, der styrer brugen af valgfri forbundne oplevelser i Microsoft 365 Apps, gælder ikke for plug-ins.

Du kan finde flere oplysninger i følgende artikler:

Hvordan beskytter Microsoft Copilot til Microsoft 365 organisationsdata?

Modellen til adgangstilladelse i din Microsoft 365-lejer kan hjælpe med at sikre, at data ikke utilsigtet lækker mellem brugere, grupper og lejere. Microsoft Copilot til Microsoft 365 præsenterer kun data, som hver enkelt person kan få adgang til ved hjælp af de samme underliggende kontrolelementer for dataadgang, som dem, der bruges i andre Microsoft 365-tjenester. Semantisk indeks respekterer den brugeridentitetsbaserede adgangsgrænse, så groundingprocessen kun får adgang til indhold, som den aktuelle bruger er autoriseret til at få adgang til. Du kan få flere oplysninger i Microsofts politik om beskyttelse af personlige oplysninger og tjenestedokumentation.

Når du har data, der er krypteret af Microsoft Purview Information Protection, overholder Microsoft Copilot til Microsoft 365 de brugsrettigheder, der er tildelt brugeren. Denne kryptering kan anvendes af følsomhedsmærkater eller af begrænsede tilladelser i Microsoft 365 apps ved hjælp af IRM (Information Rights Management). Du kan få flere oplysninger om brug af Microsoft Purview med Copilot til Microsoft 365 under Datasikkerheds- og overholdelsesbeskyttelser i Microsoft Purview for Microsoft Copilot.

Vi implementerer allerede flere former for beskyttelse for at forhindre kunder i at kompromittere Microsoft 365-tjenester og -programmer eller få uautoriseret adgang til andre lejere eller selve Microsoft 365-systemet. Her er nogle eksempler på disse former for beskyttelse:

  • Logisk isolering af kundeindhold i hver lejer for Microsoft 365-tjenester opnås via Microsoft Entra-godkendelse og rollebaseret adgangskontrol. For at få mere at vide, skal du se Microsoft 365-isolationskontrol.

  • Microsoft bruger streng fysisk sikkerhed, baggrundsscreening og en krypteringsstrategi i flere lag for at beskytte fortroligheden og integriteten af kundeindhold.

  • Microsoft 365 bruger tjenestebaserede teknologier, der krypterer kundeindhold som inaktive og under overførsel, herunder BitLocker, kryptering pr. fil, TLS (Transport Layer Security) og IP-sikkerhed. Du kan finde specifikke oplysninger om kryptering i Microsoft 365 under Kryptering i Microsoft Cloud.

  • Din kontrol over dine data styrkes af Microsofts forpligtelse til at overholde gældende love om beskyttelse af personlige oplysninger, f.eks. GDPR, og standarder for beskyttelse af personlige oplysninger, f.eks. ISO/IEC 27018, verdens første internationale kodeks for praksis for beskyttelse af personlige oplysninger i cloudmiljøet.

  • For indhold, der tilgås via Microsoft Copilot til Microsoft 365-plugins, kan kryptering udelukke programmatisk adgang og dermed begrænse plugin'en i at få adgang til indholdet. Du kan få flere oplysninger under Konfigurer brugsrettigheder til Azure Information Protection.

Overholdelse af lovmæssige krav

Efterhånden som reguleringen inden for kunstig intelligens udvikler sig, vil Microsoft fortsætte med at tilpasse sig og opfylde fremtidige lovmæssige krav.

Microsoft Copilot til Microsoft 365 er bygget oven på Microsofts aktuelle forpligtelser i forhold til datasikkerhed og beskyttelse af personlige oplysninger i virksomheden. Der er ingen ændring af disse forpligtelser. Microsoft Copilot til Microsoft 365 er integreret i Microsoft 365 og overholder alle eksisterende forpligtelser til beskyttelse af personlige oplysninger, sikkerhed og overholdelse af angivne standarder for kommercielle Microsoft 365-kunder. Du kan få flere oplysninger under Microsoft Overholdelse af angivne standarder.

Ud over at overholde regler prioriterer vi en åben dialog med vores kunder, partnere og tilsynsmyndigheder for bedre at forstå og håndtere bekymringer og dermed fremme et miljø med tillid og samarbejde. Vi anerkender, at beskyttelse af personlige oplysninger, sikkerhed og gennemsigtighed ikke kun er funktioner, men forudsætninger i det AI-drevne landskab hos Microsoft.

Flere oplysninger

Microsoft Copilot til Microsoft 365 og politikindstillinger for forbundne oplevelser

Hvis du deaktiverer forbundne oplevelser, der analyserer indhold i Microsoft 365 Apps på Windows- eller Mac-enheder i din organisation, vil Microsoft Copilot til Microsoft 365-funktioner ikke være tilgængelige for dine brugere i følgende apps:

  • Excel
  • PowerPoint
  • OneNote
  • Word

På samme måde vil Microsoft Copilot til Microsoft 365-funktioner i disse apps på Windows- eller Mac-enheder ikke være tilgængelige, hvis du deaktiverer brugen af forbundne oplevelser i Microsoft 365 Apps.

Du kan få flere oplysninger om disse politikindstillinger i følgende artikler:

Om det indhold, som Microsoft Copilot til Microsoft 365 opretter

De svar, som generativ AI giver, er ikke garanteret at være 100 % faktuelle. Mens vi fortsætter med at forbedre svarene, bør brugerne stadig bruge deres dømmekraft, når de gennemgår outputtet, før de sender dem til andre. Vores Microsoft Copilot til Microsoft 365-funktioner leverer nyttige udkast og resuméer, der hjælper dig med at opnå mere, samtidig med at du får mulighed for at gennemgå den genererede kunstige intelligens i stedet for at automatisere disse opgaver fuldstændigt.

Vi fortsætter med at forbedre algoritmerne for proaktivt at løse problemer, f.eks. misinformation og desinformation, blokering af indhold, datasikkerhed og forhindre promovering af skadeligt eller diskriminerende indhold i overensstemmelse med vores principper for ansvarlig kunstig intelligens.

Microsoft kræver ikke ejerskab over outputtet fra tjenesten. Når det er sagt, træffer vi ikke beslutning om, hvorvidt en kundes output er ophavsretligt beskyttet eller håndhæves over for andre brugere. Dette skyldes, at genererende AI-systemer kan give lignende svar på lignende prompter eller forespørgsler fra flere kunder. Derfor kan flere kunder have eller gøre krav på rettigheder til indhold, der er det samme eller stort set det samme.

Hvis en tredjepart sagsøger en kommerciel kunde for krænkelse af ophavsret for at bruge Microsofts Copilots eller det output, de genererer, beskytter vi kunden og betaler mængden af eventuelle uønskede søgsmål eller afregninger, der er resultatet af søgsmålet, så længe kunden har brugt de rækværk og indholdsfiltre, vi har indbygget i vores produkter. Du kan få flere oplysninger under Microsoft annoncerer den nye Copilot Copyright-rettigheder for kunder.

Forpligtet til ansvarlig kunstig intelligens

Efterhånden som kunstig intelligens er klar til at transformere vores liv, skal vi i fællesskab definere nye regler, normer og praksisser for brug og indvirkning af denne teknologi. Microsoft har været på en rejse med ansvarlig kunstig intelligens siden 2017, hvor vi definerede vores principper og tilgang til at sikre, at denne teknologi bruges på en måde, der er drevet af etiske principper, der sætter mennesker først.

Hos Microsoft er vi guidet af vores principper for kunstig intelligens, vores standard for ansvarlig kunstig intelligens og årtiers forskning i kunstig intelligens, grounding og beskyttelse af personlige oplysninger, der bevarer maskinel indlæring. Et tværfagligt team af forskere, teknikere og politikeksperter gennemgår vores systemer for kunstig intelligens for potentielle skader og afhjælpninger. Finjusterer oplæringsdata, filtrerer for at begrænse skadeligt indhold, forespørgsels- og resultatblokerende følsomme emner og anvender Microsoft-teknologier som InterpretML og Fairlearn for at hjælpe med at registrere og rette dataforskelle. Vi gør det klart, hvordan systemet træffer beslutninger ved at bemærke begrænsninger, henvise til kilder og bede brugerne om at gennemse, tjekke fakta og justere indhold baseret på ekspertise inden for emnet. Du kan få flere oplysninger under Styring af kunstig intelligens: En plan for fremtiden.

Vi tilstræber at hjælpe vores kunder med at bruge vores produkter, med kunstig intelligens ansvarligt, dele vores erfaringer og opbygge tillidsbaserede partnerskaber. For disse nye tjenester ønsker vi at give vores kunder oplysninger om de tiltænkte anvendelser, funktioner og begrænsninger i vores platformstjeneste med kunstig intelligens, så de har den viden, der er nødvendig for at foretage ansvarlige udrulningsvalg. Vi deler også ressourcer og skabeloner med udviklere i organisationer og med uafhængige softwareleverandører (ISV'er) for at hjælpe dem med at bygge effektive, sikre og gennemsigtige AI-løsninger.