Data, personvern og sikkerhet for Microsoft 365 Copilot
Microsoft 365 Copilot er en avansert motor for behandling og orkestrering som gir KI-drevne produktivitetsfunksjoner ved å koordinere følgende komponenter:
- Store språkmodeller (LLM-er)
- Innhold i Microsoft Graph, for eksempel e-postmeldinger, chatter og dokumenter som du har tilgang til.
- Microsoft 365-appene du bruker hver dag, for eksempel Word og PowerPoint.
Hvis du vil ha en oversikt over hvordan disse tre komponentene fungerer sammen, kan du se Microsoft 365 Oversikt over Copilot. Hvis du vil ha koblinger til annet innhold relatert til Microsoft 365 Copilot, kan du se Microsoft 365 Copilot-dokumentasjon.
Viktig
- Microsoft 365 Copilot er i samsvar med de eksisterende forpliktelsene våre når det gjelder personvern, sikkerhet og samsvar, overfor kommersielle Microsoft 365-kunder, inkludert personvernforordningen (GDPR) og EUs datagrense.
- Meldinger, svar og data som er tilgjengelige via Microsoft Graph, brukes ikke til å lære opp grunnleggende LLM-er, inkludert de som brukes av Microsoft 365 Copilot.
- Microsoft 365 Copilot opererer med flere beskyttelser, som inkluderer, men er ikke begrenset til, blokkering av skadelig innhold, oppdagelse av beskyttet materiale og blokkering av ledende innsettingsangrep (jailbreak-angrep).
Informasjonen i denne artikkelen er ment for å bidra til å gi svar på følgende spørsmål:
- Hvordan bruker Microsoft 365 Copilot de rettighetsbeskyttede organisasjonsdataene dine?
- Hvordan beskytter Microsoft 365 Copilot organisasjonsinformasjon og -data?
- Hvilke data lagres om brukersamhandlinger med Microsoft 365 Copilot?
- Hvilke forpliktelser for datalagring inngår Microsoft 365 Copilot?
- Hvilke utvidelsesalternativer er tilgjengelige for Microsoft 365 Copilot?
- Hvordan oppfyller Microsoft 365 Copilot kravene til forskriftssamsvar?
- Gjelder personvernkontroller for tilkoblede opplevelser i Microsoft 365 Apps for Microsoft 365 Copilot?
- Kan jeg stole på innholdet som Microsoft 365 Copilot oppretter? Hvem eier innholdet?
- Hva er Microsofts forpliktelser når det gjelder å bruke kunstig intelligens på en ansvarlig måte?
Obs!
Microsoft 365 Copilot vil fortsette å utvikle seg over tid med nye funksjoner. Hvis du vil holde deg oppdatert om Microsoft 365 Copilot eller stille spørsmål, kan du gå til Microsoft 365 Copilot-fellesskapet i Teknisk fellesskap for Microsoft.
Hvordan bruker Microsoft 365 Copilot de rettighetsbeskyttede organisasjonsdataene dine?
Microsoft 365 Copilot gir verdi ved å koble LLM-er til organisasjonsdataene. Microsoft 365 Copilot får tilgang til innhold og kontekst via Microsoft Graph. Den kan generere svar som er forankret i organisasjonsdataene dine, for eksempel brukerdokumenter, e-postmeldinger, kalender, chatter, møter, kontakter og kontakter. Microsoft 365 Copilot kombinerer dette innholdet med brukerens arbeidskontekst, for eksempel møtet en bruker er i nå, e-postutvekslingene brukeren hadde om et emne, eller chat-samtalene brukeren hadde forrige uke. Microsoft 365 Copilot bruker denne kombinasjonen av innhold og kontekst for å bidra til å tilby nøyaktige, relevante, kontekstuelle svar.
Viktig
Meldinger, svar og data som er tilgjengelige via Microsoft Graph, brukes ikke til å lære opp grunnleggende LLM-er, inkludert de som brukes av Microsoft 365 Copilot.
Microsoft 365 Copilot viser bare organisasjonsdata som enkeltbrukere minst har visningstillatelser til. Det er viktig at du bruker tillatelsesmodellene som er tilgjengelige i Microsoft 365-tjenester, for eksempel SharePoint, for å sikre at de riktige brukerne eller gruppene har riktig tilgang til riktig innhold i organisasjonen. Dette omfatter tillatelser du gir til brukere utenfor organisasjonen gjennom samarbeidsløsninger mellom tenanter, for eksempel delte kanaler i Microsoft Teams.
Når du legger inn ledetekster ved hjelp av Microsoft 365 Copilot, forblir informasjonen i meldingene dine, dataene de henter og de genererte svarene, innenfor tjenestegrensen for Microsoft 365, i tråd med gjeldende forpliktelser når det gjelder personvern, sikkerhets og samsvar. Microsoft 365 Copilot bruker Azure OpenAI-tjenester for behandling, ikke OpenAIs offentlig tilgjengelige tjenester. Azure OpenAI bufrer ikke kundeinnhold og Copilot-endrede ledetekster for Copilot for Microsoft 365 Copilot. Hvis du vil ha mer informasjon, kan du se avsnittet Data som lagres om brukersamhandlinger med Microsoft 365 Copilot senere i denne artikkelen.
Obs!
- Når du bruker programtillegg til å hjelpe Microsoft 365 Copilot med å gi mer relevant informasjon, kan du se personvernerklæringen og vilkårene for bruk av programtillegget for å finne ut hvordan det håndterer organisasjonens data. Hvis du vil ha mer informasjon, kan du se Utvidelsesmuligheter for Microsoft 365 Copilot.
- Når du bruker programtillegget for nettinnhold, analyserer Microsoft 365 Copilot brukerens ledetekst og identifiserer termer der nettsøk vil forbedre kvaliteten på svaret. Basert på disse temaene genererer Copilot et søk, som sendes til Bing-søketjenesten. Hvis du vil ha mer informasjon, kan du se Data, personvern og sikkerhet for nettspørringer i Microsoft 365 Copilot og Microsoft Copilot.
Selv om overvåking av misbruk, som inkluderer menneskelig gjennomgang av innhold, er tilgjengelig i Azure OpenAI, har Microsoft 365 Copilot-tjenester valgt bort det. Hvis du vil ha informasjon om innholdsfiltrering, kan du se avsnittet Hvordan blokkerer Copilot skadelig innhold? senere i denne artikkelen.
Obs!
Vi kan bruke tilbakemeldinger fra kunder, som er valgfrie, til å forbedre Microsoft 365 Copilot, på samme måte som vi bruker tilbakemeldinger fra kunder til å forbedre andre Microsoft 365-tjenester og Microsoft 365-produktivitetsapper. Vi bruker ikke denne tilbakemeldingen til å lære opp de grunnleggende LLM-ene som brukes av Microsoft 365 Copilot. Kunder kan administrere tilbakemeldinger via administratorkontroller. Hvis du vil ha mer informasjon, kan du se Administrere Microsoft-tilbakemeldinger for organisasjonen og Gi tilbakemelding om Microsoft Copilot med Microsoft 365-apper.
Data lagret om brukersamhandlinger med Microsoft 365 Copilot
Når en bruker samhandler med Microsoft 365 Copilot (bruker apper som Word, PowerPoint, Excel, OneNote, Loop eller Whiteboard), lagrer vi data om disse samhandlingene. De lagrede dataene inkluderer brukerens ledetekst og Copilots svar, inkludert sitater til all informasjon som brukes til å begrunne Copilots svar. Vi refererer til brukerens ledetekst og Copilots svar på denne ledeteksten som «innholdet i samhandlinger», og registreringen av disse samhandlingene er brukerens Copilot-aktivitetslogg. Disse lagrede dataene gir for eksempel brukerne Aktivitetslogg for Copilot i Business Chat og møter i Microsoft Teams. Disse dataene behandles og lagres i samsvar med kontraktsmessige forpliktelser i forbindelse med organisasjonens øvrige innhold i Microsoft 365. Dataene krypteres mens de lagres og brukes ikke til å lære opp grunnleggende LLM-er, inkludert de som brukes av Microsoft 365 Copilot.
Administratorer kan bruke Innholdssøk eller Microsoft Purview til å vise og behandle disse lagrede dataene. Administratorer kan også bruke Microsoft Purview til å angi oppbevaringspolicyer for data relatert til chat-samhandlinger med Copilot. Hvis du vil ha mer informasjon, kan du se følgende artikler:
- Oversikt over innholdssøk
- Microsoft Purview-datasikkerhet og -samsvarsbeskyttelse for generativ KI-apper
- Finn ut mer om oppbevaring for Copilot
For Microsoft Teams-chatter med Copilot kan administratorer også bruke Microsoft Teams Eksport API-er for å se de lagrede dataene.
Slette loggen over brukersamhandlinger med Microsoft 365 Copilot
Brukerne kan slette aktivitetsloggen for Copilot, som inkluderer instruksjonene og svarene Copilot returnerer, ved å gå til Min konto-portalen. Hvis du vil ha mer informasjon, kan du se Slette Microsoft 365 Copilot aktivitetslogg.
Microsoft 365 Copilot og EUs datagrense
Microsoft 365 Copilot-kall til LLM rutes til de nærmeste datasentrene i området, men kan også ringe til andre områder der kapasitet er tilgjengelig i perioder med høy utnyttelse.
For brukere i EU har vi ytterligere sikkerhetstiltak for å overholde EUs datagrense. EU-trafikk forblir innenfor EUs datagrense, mens verdensomspennende trafikk kan sendes til EU og andre land og områder for LLM-behandling.
Microsoft 365 Copilot og datalagring
Microsoft 365 Copilot opprettholder forpliktelser for datalagring som beskrevet i tillegget Microsofts produktvilkår og databeskyttelse. Microsoft 365 Copilot ble lagt til som en dekket arbeidsbelastning i forpliktelsene for datalagring i Microsofts produktvilkår 1. mars 2024.
Microsoft Advanced Data Residency (ADR) og Multi-Geo Capabilities-tilbud inkluderer datalagringsforpliktelser for Microsoft 365 Copilot-kunder fra og med 1. mars 2024. For EU-kunder er Microsoft 365 Copilot en tjeneste for EU-datagrense. Kunder utenfor EU kan få sine spørringer behandlet i USA, EU eller andre områder.
Utvidelse av Microsoft 365 Copilot
Selv om Microsoft 365 Copilot allerede er i stand til å bruke appene og dataene i Microsoft 365-økosystemet, er mange organisasjoner fortsatt avhengige av ulike eksterne verktøy og tjenester for arbeidsledelse og samarbeid. Microsoft 365 Copilot-opplevelser kan referere til tredjepartsverktøy og -tjenester når du svarer på en brukers forespørsel ved hjelp av Microsoft Graph-koblinger eller plugin-moduler. Data fra Graph-koblinger kan returneres i Microsoft 365 Copilot-svar hvis brukeren har tillatelse til å få tilgang til denne informasjonen.
Når plugin-moduler er aktivert, bestemmer Microsoft 365 Copilot om den må bruke en bestemt plugin-modul for å gi et relevant svar til brukeren. Hvis en plugin-modul er nødvendig, genererer Microsoft 365 Copilot en søkespørring som skal sendes til plugin-modulen på vegne av brukeren. Spørringen er basert på brukerens ledetekst, Copilot-aktivitetslogg og data brukeren har tilgang til i Microsoft 365.
I delen Integrerte apper i Administrasjonssenter for Microsoft 365, kan administratorer vise tillatelsene og datatilgangen som kreves av en plugin-modul, i tillegg til vilkårene for bruk og personvernerklæringen for plugin-modulen. Administratorer har full kontroll for å velge hvilke plugin-moduler som er tillatt i organisasjonen. En bruker kan bare få tilgang til plugin-modulene som administratoren tillater, og som brukeren har installert eller er tilordnet. Microsoft 365 Copilot bruker bare plugin-moduler som er aktivert av brukeren.
Hvis du vil ha mer informasjon, kan du se følgende artikler:
- Administrer plugin-moduler for Copilot i integrerte apper
- Utvid Microsoft 365 Copilot
- Slik kan Microsoft 365 Copilot kan arbeide med dine eksterne data
Hvordan beskytter Microsoft 365 Copilot sensitive organisasjonsdata?
Tillatelsesmodellen i Microsoft 365-leieren kan bidra til å sikre at data ikke utilsiktet lekker mellom brukere, grupper og leiere. Microsoft 365 Copilot presenterer bare data som hver enkelt har tilgang til ved hjelp av de samme underliggende kontrollene for datatilgang som brukes i andre Microsoft 365-tjenester. Semantisk indeks overholder den brukeridentitetsbaserte tilgangsgrensen, slik at jordingsprosessen bare får tilgang til innhold som gjeldende bruker har tillatelse til å få tilgang til. Hvis du vil ha mer informasjon, kan du se Microsofts personvernpolicy og tjenestedokumentasjon.
Når du har data som er kryptert av Microsoft Purview Information Protection, respekterer Microsoft 365 Copilot bruksrettighetene som gis til brukeren. Denne krypteringen kan brukes av følsomhetsetiketter eller av begrensede tillatelser i Microsoft 365-apper ved hjelp av Information Rights Management (IRM). Hvis du vil ha mer informasjon om hvordan du bruker Microsoft Purview med Microsoft 365 Copilot, kan du se Microsoft Purview- datasikkerhet og -samsvarsbeskyttelse for generativ kunstig intelligens-apper.
Vi implementerer allerede flere former for beskyttelse for å forhindre at kunder kompromitterer Microsoft 365-tjenester og -programmer eller får uautorisert tilgang til andre leiere eller selve Microsoft 365-systemet. Her er noen eksempler på disse formene for beskyttelse:
Logisk isolering av kundeinnhold i hver leier for Microsoft 365-tjenester oppnås gjennom Microsoft Entra ID-autorisasjon og rollebasert tilgangskontroll. Hvis du vil ha mer informasjon, kan du se Isolasjonskontroller for Microsoft 365.
Microsoft bruker streng fysisk sikkerhet, bakgrunnsscreening og en krypteringsstrategi med flere lag for å beskytte konfidensialiteten og integriteten til kundeinnhold.
Microsoft 365 bruker teknologier på tjenestesiden som krypterer inaktive og inaktive kundeinnhold, inkludert BitLocker, kryptering per fil, TLS (Transport Layer Security) og Internet Protocol Security (IPsec). Hvis du vil ha spesifikk informasjon om kryptering i Microsoft 365, kan du se Kryptering i Microsoft Cloud.
Din kontroll over dataene dine forsterkes av Microsofts forpliktelse til å overholde bredt gjeldende personvernlover, for eksempel GDPR, og personvernstandarder, for eksempel ISO/IEC 27018, verdens første internasjonale retningslinjer for personvern i skyen.
For innhold som er tilgjengelig via Microsoft 365 Copilot-plugin-moduler, kan kryptering utelukke programmatisk tilgang, og dermed begrense plugin-modulens tilgang til innholdet. Hvis du vil ha mer informasjon, kan du se Konfigurere bruksrettigheter for Azure Information Protection.
Oppfylle forskriftsmessige krav til samsvar
Etter hvert som reguleringen i KI-området utvikler seg, vil Microsoft fortsette å tilpasse seg og svare for å oppfylle fremtidige forskriftsmessige krav.
Microsoft 365 Copilot er bygget på toppen av Microsofts nåværende forpliktelser til datasikkerhet og personvern i bedriften. Det er ingen endring i disse forpliktelsene. Microsoft 365 Copilot er integrert i Microsoft 365 og overholder alle eksisterende forpliktelser når det gjelder personvern, sikkerhet og samsvar overfor kommersielle Microsoft 365-kunder. Hvis du vil ha mer informasjon, kan du se Microsoft overholdelse av regler og standarder.
Utover å overholde forskrifter, prioriterer vi en åpen dialog med våre kunder, partnere og regulerende myndigheter for å bedre forstå og håndtere bekymringer, og dermed fremme et miljø av tillit og samarbeid. Vi erkjenner at personvern, sikkerhet og åpenhet ikke bare er funksjoner, men forutsetninger i det KI-drevne landskapet hos Microsoft.
Mer informasjon
Microsoft 365 Copilot og personvernkontroller for tilkoblede opplevelser
Noen personvernkontroller for tilkoblede opplevelser i Microsoft 365 Apps kan påvirke tilgjengeligheten til Microsoft 365 Copilot-funksjoner. Dette inkluderer personvernkontrollene for tilkoblede opplevelser som analyserer innholdet og personvernkontrollen for valgfrie tilkoblede opplevelser. Hvis du vil ha mer informasjon om disse personvernkontrollene, kan du se Oversikt over personvernkontroller for Microsoft 365 Apps for enterprise.
Personvernkontroller for tilkoblede opplevelser som analyserer innholdet
Hvis du deaktiverer tilkoblede opplevelser som analyserer innholdet på enheter i organisasjonen, vil Microsoft 365 Copilot funksjoner ikke være tilgjengelige for brukerne i følgende apper:
- Excel
- OneNote
- Outlook
- PowerPoint
- Word
Dette gjelder når du kjører den nyeste versjonen av disse appene på Windows-, Mac-, iOS- eller Android-enheter.
Det finnes også en personvernkontroll som slår av alle tilkoblede opplevelser, inkludert tilkoblede opplevelser som analyserer innholdet. Hvis du bruker denne personvernkontrollen, vil Microsoft 365 Copilot funksjoner ikke være tilgjengelige i appene og på enhetene som er beskrevet ovenfor.
Personvernkontroll for valgfrie tilkoblede opplevelser
Hvis du deaktiverer valgfrie tilkoblede opplevelser i organisasjonen, vil Microsoft 365 Copilot-funksjoner som er valgfrie tilkoblede opplevelser, ikke være tilgjengelige for brukerne. For eksempel vil nettsøk ikke være tilgjengelig for brukerne.
Det finnes også en personvernkontroll som slår av alle tilkoblede opplevelser, inkludert valgfrie tilkoblede opplevelser. Hvis du bruker denne personvernkontrollen, vil Microsoft 365 Copilot-funksjoner som er valgfrie tilkoblede opplevelser, ikke være tilgjengelige.
Om innholdet som Microsoft 365 Copilot oppretter
Svarene som generativ KI produserer er ikke garantert å være 100 % riktige. Selv om vi fortsetter å forbedre svarene, bør brukerne fortsatt bruke skjønn når de gjennomgår utdataene før de sendes til andre. Microsoft 365 Copilot-funksjonene gir nyttige utkast og sammendrag for å hjelpe deg med å oppnå mer, samtidig som du får sjansen til å gjennomgå den genererte kunstige intelligensen i stedet for å automatisere disse oppgavene fullstendig.
Vi fortsetter å forbedre algoritmer for proaktivt å løse problemer, for eksempel feilinformasjon og desinformasjon, innholdsblokkering, datasikkerhet og forebygging av promotering av skadelig eller diskriminerende innhold i tråd med våre ansvarlige KI-prinsipper.
Microsoft krever ikke eierskap over utdataene til tjenesten. Når det er sagt, bestemmer vi ikke om kundens utdata er opphavsrettbeskyttet eller håndhevbar mot andre brukere. Dette er fordi generative KI-systemer kan produsere lignende svar på lignende meldinger eller spørringer fra flere kunder. Derfor kan flere kunder ha eller kreve rettigheter i innhold som er likt eller vesentlig likt.
Hvis en tredjepart saksøker en kommersiell kunde for brudd på opphavsretten for bruk av Microsofts Copilots eller utdataene de genererer, vil vi forsvare kunden og betale beløpet for eventuelle negative vurderinger eller forlik som følge av søksmålet, så lenge kunden har brukt gelenderne og innholdsfiltrene vi har bygget inn i produktene våre. Hvis du vil ha mer informasjon, kan du se Microsoft annonserer nye Copilot Copyright Commitment for kunder.
Hvordan blokkerer Copilot skadelig innhold?
Azure OpenAI Service inkluderer et innholdsfiltreringssystem som fungerer sammen med kjernemodeller. Innholdsfiltreringsmodellene for kategoriene Hat og rettferdighet, seksuell, vold og selvskade er spesielt opplært og testet på ulike språk. Dette systemet fungerer ved å kjøre både inndataledeteksten og svaret gjennom klassifiseringsmodeller som er utformet for å identifisere og blokkere utdata fra skadelig innhold.
Hat- og rettferdighetsrelaterte skader refererer til alt innhold som bruker pejorativt eller diskriminerende språk basert på attributter som rase, etnisitet, nasjonalitet, kjønnsidentitet og uttrykk, seksuell legning, religion, adressestatus, evnestatus, personlig utseende og kroppsstørrelse. Rettferdighet er opptatt av å sørge for at systemer med kunstig intelligens behandler alle grupper av mennesker likt uten å bidra til eksisterende samfunnsmessige ulikheter. Seksuelt innhold innebærer diskusjoner om menneskelige reproduktive organer, romantiske forhold, handlinger fremstilt i erotiske eller kjærlige termer, graviditet, fysiske seksuelle handlinger, inkludert de som fremstilles som et overgrep eller en tvungen handling av seksuell vold, prostitusjon, pornografi og misbruk. Vold beskriver språk relatert til fysiske handlinger som er ment å skade eller drepe, inkludert handlinger, våpen og relaterte enheter. Selvskadingsspråk refererer til bevisste handlinger som er ment å skade eller drepe seg selv.
Mer informasjon om Azure OpenAI-innholdsfiltrering.
Gir Copilot beskyttet gjenkjenning av materiale?
Ja, Microsoft 365 Copilot gir gjenkjenning for beskyttet materiale, som inkluderer tekst underlagt opphavsrett og kode underlagt lisensieringsbegrensninger. Ikke alle disse begrensningene er relevante for alle Microsoft 365 Copilot-scenarioer.
Blokkerer Copilot ledende innsettinger (jailbreak-angrep)?
Jailbreak-angrep er brukerledetekster som er utformet for å lure den generative kunstig intelligens-modellen til å oppføre seg på måter den er trent til å unngå, eller til å bryte reglene den har blitt instruert til å følge. Microsoft 365 Copilot er utformet for å beskytte mot ledende innsettingsangrep. Mer informasjon om jailbreak-angrep og hvordan du bruker Azure AI Content Safety til å oppdage dem.
Forpliktet til ansvarlig kunstig intelligens
Ettersom kunstig intelligens er klar til å forandre livene våre, må vi kollektivt definere nye regler, normer og praksis for bruk og innvirkning av denne teknologien. Microsoft har vært på en ansvarlig KI-reise siden 2017, da vi definerte prinsippene og tilnærmingen vår for å sikre at denne teknologien brukes på en måte som drives av etiske prinsipper som setter mennesker først.
Hos Microsoft styres vi av våre KI-prinsipper, vår Standard for ansvarlig kunstig intelligens og tiår med forskning på kunstig intelligens, jording og personvernbevarende maskinlæring. Et tverrfaglig team av forskere, ingeniører og policyeksperter gjennomgår KI-systemene våre for potensielle skader og reduksjoner – raffinering av opplæringsdata, filtrering for å begrense skadelig innhold, spørrings- og resultatblokkering av sensitive emner og bruk av Microsoft-teknologier som InterpretML og Fairlearn for å oppdage og korrigere dataskjevhet. Vi gjør det klart hvordan systemet tar beslutninger ved å merke seg begrensninger, koble til kilder og be brukere om å gjennomgå, faktasjekke og justere innhold basert på fagekspertise. Hvis du vil ha mer informasjon, kan du se Styrende kunstig intelligens: En kursplan for fremtiden.
Vi tar sikte på å hjelpe kundene våre med å bruke KI-produktene våre på en ansvarlig måte, dele det vi har lært og bygge tillitsbaserte partnerskap. For disse nye tjenestene ønsker vi å gi kundene våre informasjon om de tiltenkte bruksområdene, mulighetene og begrensningene til KI-plattformtjenesten vår, slik at de har kunnskapen som er nødvendig for å ta ansvarlige utrullingsvalg. Vi deler også ressurser og maler med utviklere i organisasjoner og med uavhengige programvareleverandører (ISV-er), for å hjelpe dem med å bygge effektive, sikre og transparente KI-løsninger.