Dela via


Data, sekretess och säkerhet för Microsoft Copilot för Microsoft 365

Microsoft Copilot för Microsoft 365 är en sofistikerad bearbetnings- och orkestreringsmotor som tillhandahåller AI-baserade produktivitetsfunktioner genom att samordna följande komponenter:

  • Stora språkmodeller (LLMs)
  • Innehåll i Microsoft Graph, till exempel e-postmeddelanden, chattar och dokument som du har behörighet att komma åt.
  • De produktivitetsappar för Microsoft 365 som du använder varje dag, till exempel Word och PowerPoint.

En översikt över hur dessa tre komponenter fungerar tillsammans finns i Översikt över Microsoft Copilot för Microsoft 365. Länkar till annat innehåll som är relaterat till Microsoft Copilot för Microsoft 365 finns i Microsoft Copilot för Microsoft 365-dokumentationen.

Viktigt

  • Microsoft Copilot för Microsoft 365 följer våra befintliga sekretess-, säkerhets- och efterlevnadsåtaganden för Microsoft 365 kommersiella kunder, inklusive allmän dataskyddsförordning (GDPR) och EU-datagränsen (EU).
  • Frågor, svar och data som nås via Microsoft Graph används inte för att träna grundläggande LLM:er, inklusive de som används av Microsoft Copilot för Microsoft 365.
  • Microsoft Copilot för Microsoft 365 fungerar med flera skydd, som omfattar men är inte begränsade till blockering av skadligt innehåll, identifiering av skyddat material och blockering av snabbinmatningar (jailbreak-attacker).

Informationen i den här artikeln är avsedd att ge svar på följande frågor:

Obs!

Microsoft Copilot för Microsoft 365 fortsätter att utvecklas med tiden med nya funktioner. Om du vill hålla dig uppdaterad om Microsoft Copilot för Microsoft 365 eller ställa frågor kan du besöka Microsoft 365 Copilot-communityn på Microsoft Tech Community.

Hur använder Microsoft Copilot för Microsoft 365 dina egna organisationsdata?

Microsoft Copilot för Microsoft 365 ger mervärde genom att ansluta LLM:er till dina organisationsdata. Microsoft Copilot för Microsoft 365 kommer åt innehåll och kontext via Microsoft Graph. Det kan generera svar som fästs i organisationens data, till exempel användardokument, e-postmeddelanden, kalender, chattar, möten och kontakter. Microsoft Copilot för Microsoft 365 kombinerar det här innehållet med användarens arbetskontext, till exempel mötet en användare befinner sig i nu, e-postmeddelandena som användaren har skickat och mottagit gällande ett visst ämne eller de chattkonversationer som användaren hade förra veckan. Microsoft Copilot för Microsoft 365 använder den här kombinationen av innehåll och kontext för att leverera korrekta, relevanta och sammanhangsbaserade svar.

Viktigt

Frågor, svar och data som nås via Microsoft Graph används inte för att träna grundläggande LLM:er, inklusive de som används av Microsoft Copilot för Microsoft 365.

Microsoft Copilot för Microsoft 365 visar endast organisationsdata som enskilda användare har minst visningsbehörighet för. Det är viktigt att du använder de behörighetsmodeller som är tillgängliga i Microsoft 365-tjänster, till exempel SharePoint, för att säkerställa att rätt användare eller grupper har rätt åtkomst till rätt innehåll i din organisation. Detta omfattar behörigheter som du ger användare utanför organisationen via samarbetslösningar mellan klientorganisationer, till exempel delade kanaler i Microsoft Teams.

När du anger frågor med hjälp av Microsoft Copilot för Microsoft 365 förblir informationen i dina prompter, de data som de hämtar samt de genererade svaren inom Microsoft 365-tjänstgränsen, i enlighet med våra nuvarande åtaganden om sekretess, datasäkerhet och efterlevnad. Microsoft Copilot för Microsoft 365 använda Azure OpenAI-tjänster för bearbetning, inte OpenAI:s offentligt tillgängliga tjänster. Azure OpenAI cachelagrar inte kundinnehåll eller Copilot-ändrade frågor för Copilot för Microsoft 365.

Obs!

  • När du använder plugin-program för att hjälpa Copilot för Microsoft 365 att tillhandahålla mer relevant information kontrollerar du sekretesspolicyn och användningsvillkoren för plugin-programmet för att avgöra hur det ska hantera organisationens data. Mer information finns i Utökningsbarhet för Microsoft Copilot för Microsoft 365.
  • När du använder plugin-programmet för webbinnehåll parsar Copilot för Microsoft 365 användarens prompt och identifierar termer där webbgrundning skulle förbättra svarets kvalitet. Baserat på dessa termer genererar Copilot en sökfråga som skickas till Bing-sökning-tjänsten. Mer information finns i Data, sekretess och säkerhet för webbfrågor i Copilot för Microsoft 365.

Missbruksövervakning för Microsoft Copilot för Microsoft 365 sker i realtid, utan att Microsoft får någon stående åtkomst till kunddata, antingen för mänsklig eller automatiserad granskning. Även om missbruksmoderering, som omfattar mänsklig granskning av innehåll, är tillgängligt i Azure OpenAI, har Microsoft Copilot för Microsoft 365 tjänster valt bort det. Microsoft 365-data samlas inte in eller lagras inte av Azure OpenAI.

Obs!

Vi kan använda kundfeedback, vilket är valfritt, för att förbättra Microsoft Copilot för Microsoft 365 precis som vi använder kundfeedback för att förbättra andra tjänster och produktivitetsappar för Microsoft 365. Vi använder inte den här feedbacken för att träna de grundläggande LLM:er som används av Microsoft Copilot för Microsoft 365. Kunder kan hantera feedback via administratörskontroller. Mer information finns i Hantera Microsofts feedback för din organisation och Ge feedback om Microsoft Copilot för Microsoft 365.

Data som lagras om användarinteraktioner med Microsoft Copilot för Microsoft 365

När en användare interagerar med Microsoft Copilot för Microsoft 365-appar (till exempel använder Word, PowerPoint, Excel, OneNote, Loop eller Whiteboard) lagrar vi data om dessa interaktioner. Lagrade data innehåller användarens uppmaning och Copilots svar, inklusive citat till all information som används som grund för Copilots svar. Vi hänvisar till användarens fråga och Copilots svar på frågan eftersom innehållet i “interaktionerna” och posten för dessa interaktioner är användarens Copilot-interaktionshistorik. Dessa lagrade data förser till exempel användarna med interaktionshistorik för Copilot i Microsoft Copilot med Graph-baserad chatt och möten i Microsoft Teams. Dessa data bearbetas och lagras i enlighet med avtalsåtaganden med organisationens andra innehåll i Microsoft 365. Data krypteras medan de lagras och används inte för att träna grundläggande LLM:er, inklusive de som används av Microsoft Copilot för Microsoft 365.

För att visa och hantera dessa lagrade data kan administratörer använda innehållssökning eller Microsoft Purview. Administratörer kan också använda Microsoft Purview för att ange kvarhållningsprinciper för data som rör chattinteraktioner med Copilot. Mer information finns i följande artiklar:

För Microsoft Teams-chattar med Copilot kan administratörer också använda Export-API:er för Microsoft Teams för att visa lagrade data.

Ta bort historiken för användarinteraktioner med Microsoft Copilot för Microsoft 365

Användarna kan ta bort sin Copilot-interaktionshistorik, som innehåller deras frågor och svaren som Copilot returnerar, genom att gå till portalen Mitt konto. Mer information finns i Ta bort din Interaktionshistorik för Microsoft Copilot.

Microsoft Copilot för Microsoft 365 och EU-datagräns

Microsoft Copilot för Microsoft 365-anrop till LLM dirigeras till närmaste datacenter i regionen, men kan även anropas till andra regioner där kapaciteten är tillgänglig under perioder med hög användning.

För EU-användare har vi ytterligare garantier för att uppfylla EU-datagränsen. EU-trafiken stannar inom EU-datagränsen medan global trafik kan skickas till EU och andra länder eller regioner för LLM-bearbetning.

Microsoft Copilot för Microsoft 365 och datahemvist

Copilot för Microsoft 365 upprätthåller åtaganden för datahemvist enligt beskrivningen i Microsofts produktvillkor och tillägg för dataskydd. Copilot för Microsoft 365 lades till som en täckt arbetsbelastning i åtagandena om datahemvist i Microsofts produktvillkor den 1 mars 2024.

Erbjudandena Microsoft Advanced Data Residency (ADR) och Multi-Geo Capabilities omfattar åtaganden om datahemvist för Copilot för Microsoft 365 kunder från och med den 1 mars 2024. För EU-kunder är Copilot för Microsoft 365 en tjänst inom EU:s datagräns. Kunder utanför EU kan få sina frågor bearbetade i USA, EU eller andra regioner.

Utökningsbarhet för Microsoft Copilot för Microsoft 365

Trots att Microsoft Copilot för Microsoft 365 redan kan använda program och data i Microsoft 365-ekosystemet, är många användare fortfarande beroende av olika externa verktyg och tjänster för arbetshantering och samarbete. Microsoft Copilot för Microsoft 365 funktioner kan referera till verktyg och tjänster från tredje part när du svarar på en användares begäran med hjälp av Microsoft Graph-kopplingar eller plugin-program. Data från Graph-kopplingar kan returneras i Microsoft Copilot för Microsoft 365 svar om användaren har behörighet att komma åt den informationen.

När plugin-program är aktiverade avgör Microsoft Copilot för Microsoft 365 om det behöver använda ett specifikt plugin-program för att ge användaren ett relevant svar. Om ett plugin-program behövs genererar Microsoft Copilot för Microsoft 365 en sökfråga som ska skickas till plugin-programmet för användarens räkning. Frågan baseras på användarens prompt, Copilot-interaktionshistorik och data som användaren har åtkomst till i Microsoft 365.

I avsnittet Integrerade appar i Administrationscenter för Microsoft 365 kan administratörer visa de behörigheter och dataåtkomst som krävs av ett plugin-program samt plugin-programmets användningsvillkor och sekretesspolicy. Administratörer har fullständig kontroll över vilka plugin-program som tillåts i organisationen. En användare kan bara komma åt de plugin-program som administratören tillåter och som användaren har installerat eller tilldelats. Microsoft Copilot för Microsoft 365 använder bara plugin-program som aktiveras av användaren.

Obs!

Principinställningarna som styr användningen av valfria anslutna funktioner i Microsoft 365-applikationer gäller inte för plugin-program.

Mer information finns i följande artiklar:

Hur skyddar Microsoft 365 Copilot känsliga organisationsdata?

Behörighetsmodellen i din Microsoft 365-klientorganisation kan hjälpa dig att säkerställa att data inte oavsiktligt läcker mellan användare, grupper och klientorganisationer. Microsoft Copilot för Microsoft 365 visar endast data som varje individ kan komma åt med samma underliggande kontroller för dataåtkomst som används i andra Microsoft 365-tjänster. Semantic Index respekterar gränsen för användaridentitetsbaserad åtkomst så att grundningsprocessen endast kommer åt innehåll som den aktuella användaren har behörighet att komma åt. Mer information finns i Microsofts sekretesspolicy och tjänstdokumentation.

När du har data som krypteras av Microsoft Purview Information Protection följer Microsoft Copilot för Microsoft 365 de användningsrättigheter som beviljas användaren. Den här krypteringen kan användas med känslighetsetiketter eller med begränsade behörigheter i Microsoft 365-appar med hjälp av IRM (Information Rights Management). Mer information om hur du använder Microsoft Purview med Microsoft Copilot för Microsoft 365 finns i Microsoft Purview-skydd för datasäkerhet och efterlevnad för generativa AI-appar.

Vi implementerar redan flera former av skydd för att förhindra att kunder komprometterar Microsoft 365-tjänster och -program eller får obehörig åtkomst till andra klientorganisationer eller själva Microsoft 365-systemet. Här följer några exempel på dessa skyddsformer:

  • Logisk isolering av kundinnehåll i varje klientorganisation för Microsoft 365-tjänster uppnås via Microsoft Entra-auktorisering och rollbaserad åtkomstkontroll. Mer information finns i Isoleringskontroller för Microsoft 365.

  • Microsoft använder rigorös fysisk säkerhet, bakgrundsgallring och en krypteringsstrategi i flera lager för att skydda konfidentialiteten och integriteten hos kundinnehåll.

  • Microsoft 365 använder tekniker på tjänstsidan som krypterar kundinnehåll i vila och under överföring, inklusive BitLocker, kryptering per fil, TLS (Transport Layer Security) och IPsec (Internet Protocol Security). Specifik information om kryptering i Microsoft 365 finns i Kryptering i Microsoft Cloud.

  • Din kontroll över dina data förstärks av Microsofts åtagande att följa allmänt tillämpliga sekretesslagar, till exempel GDPR, och sekretesstandarder, till exempel ISO/IEC 27018, världens första internationella uppförandekod för molnsekretess.

  • För innehåll som nås via Microsoft Copilot för Microsoft 365-plugin-program kan kryptering utesluta programmatisk åtkomst, vilket begränsar plugin-programmet från att komma åt innehållet. Mer information finns i Konfigurera användningsrättigheter för Azure Information Protection.

Uppfylla krav för regelefterlevnad

I takt med att regleringen inom AI-området utvecklas kommer Microsoft att fortsätta att anpassa sig och svara för att uppfylla framtida regelkrav.

Microsoft Copilot för Microsoft 365 bygger på Microsofts nuvarande åtaganden gällande datasäkerhet och sekretess i företaget. Dessa åtaganden ändras inte. Microsoft Copilot för Microsoft 365 är integrerat i Microsoft 365 och följer alla befintliga sekretess-,säkerhets- och efterlevnadsåtaganden för Microsoft 365 kommersiella kunder. Mer information finns i Microsofts efterlevnad.

Förutom att följa reglerna prioriterar vi en öppen dialog med våra kunder, partner och tillsynsmyndigheter för att bättre förstå och åtgärda problem och därigenom främja en miljö av förtroende och samarbete. Vi är medvetna om att sekretess, säkerhet och transparens inte bara är funktioner, utan krav, i det AI-drivna landskapet hos Microsoft.

Ytterligare information

Microsoft Copilot för Microsoft 365 och principinställningar för anslutna upplevelser

Om du inaktiverar anslutna funktioner som analyserar innehåll för Microsoft 365-applikationer på Windows- eller Mac-enheter i din organisation är Microsoft Copilot för Microsoft 365-funktioner inte tillgängliga för användarna i följande appar:

  • Excel
  • PowerPoint
  • OneNote
  • Word

På samma sätt är Microsoft Copilot för Microsoft 365-funktioner i dessa appar på Windows- eller Mac-enheter inte tillgängliga om du inaktiverar användningen av anslutna funktioner för Microsoft 365-applikationer.

Mer information om de här principinställningarna finns i följande artiklar:

Om innehållet som Microsoft Copilot för Microsoft 365 skapar

Svaren som generativ AI producerar är inte garanterade att vara 100 % faktiska. Även om vi fortsätter att förbättra svaren bör användarna fortfarande använda sitt omdöme när de granskar resultatet innan de skickas till andra. Våra Microsoft Copilot för Microsoft 365-funktioner ger användbara utkast och sammanfattningar som hjälper dig att uppnå mer samtidigt som du får möjlighet att granska den genererade AI:n i stället för att automatisera dessa uppgifter fullständigt.

Vi fortsätter att förbättra algoritmerna för att proaktivt åtgärda problem, till exempel felaktig information och desinformation, blockering av innehåll, datasäkerhet och förhindra att skadligt eller diskriminerande innehåll främjas i enlighet med våra ansvarsfulla AI-principer.

Microsoft gör inte anspråk på ägarskap för utdata från tjänsten. Med det sagt bestämmer vi inte om en kunds utdata är upphovsrättsskyddade eller verkställbara mot andra användare. Det beror på att generativa AI-system kan ge liknande svar på liknande prompter eller frågor från flera kunder. Därför kan flera kunder ha eller göra anspråk på rättigheter i innehåll som är samma eller i stort likartade.

Om en tredje part stämmer en kommersiell kund för upphovsrättsintrång för användning av Microsofts Copilots eller de utdata som de genererar, kommer vi att försvara kunden och betala beloppet för eventuella negativa bedömningar eller betalningar som är resultatet av stämning, så länge kunden har använt skyddsräcken och innehållsfiltren som vi har byggt in i våra produkter. Mer information finns i Microsoft presenterar nya Copilot Copyright Commitment för kunder.

Hur blockerar Copilot skadligt innehåll?

Azure OpenAI-tjänsten innehåller ett system för innehållsfiltrering som fungerar tillsammans med kärnmodeller. Modellerna för innehållsfiltrering för kategorierna hat och rättvisa, sexuellt, våld och självskadebeteende har tränats och testats specifikt på olika språk. Det här systemet fungerar genom att köra både indatafrågan och svaret via klassificeringsmodeller som är utformade för att identifiera och blockera utdata med skadligt innehåll.

Hat- och rättviserelaterade skador avser allt innehåll som använder nedsättande eller diskriminerande språk baserat på attribut som ras, etnicitet, nationalitet, könsidentitet och uttryck, sexuell läggning, religion, invandringsstatus, status för förmåga, personligt utseende och kroppsstorlek. Rättvisa handlar om att se till att AI-system behandlar alla grupper av människor rättvist utan att bidra till befintliga samhälleliga orättvisor. Sexuellt innehåll omfattar diskussioner om mänskliga reproduktionsorgan, romantiska relationer, handlingar som skildras i erotiska eller tillgivna termer, graviditet, fysiska sexuella handlingar, inklusive de som framställs som ett övergrepp eller en påtvingad handling av sexuellt våld, prostitution, pornografi och övergrepp. Våld beskriver språk som rör fysiska handlingar som är avsedda att skada eller döda, inklusive handlingar, vapen och relaterade entiteter. Självskadespråk syftar på avsiktliga handlingar som är avsedda att skada eller döda sig själv.

Mer information om Azure OpenAI-innehållsfiltrering.

Tillhandahåller Copilot identifiering av skyddat material?

Ja, Copilot för Microsoft 365 tillhandahåller identifiering av skyddat material som innehåller text som omfattas av upphovsrätt och kod som omfattas av licensbegränsningar. Alla dessa åtgärder är inte relevanta för alla Copilot för Microsoft 365-scenarier.

Blockerar Copilot frågeinmatningar (jailbreak-attacker)?

Jailbreak-attacker är användarfrågor som är utformade för att provocera den generativa AI-modellen att bete sig på sätt som den har tränats att inte följa eller bryta mot de regler som den har blivit tillsagd att följa. Microsoft Copilot för Microsoft 365 är utformat för att skydda mot snabba frågeinmatningsattacker. Mer information om jailbreak-attacker och hur du använder Azure AI-Innehållsäkerhet för att identifiera dem.

Engagerad i ansvarsfull AI

När AI är redo att förändra våra liv måste vi gemensamt definiera nya regler, normer och metoder för användning och påverkan av den här tekniken. Microsoft har varit på en ansvarsfull AI-resa sedan 2017, då vi definierade våra principer och metoder för att säkerställa att den här tekniken används på ett sätt som drivs av etiska principer som sätter människor först.

På Microsoft vägleds vi av våra AI-principer, vår ansvarsfulla AI-standard och årtionden av forskning om AI, grundning och sekretessbevarande maskininlärning. Ett tvärvetenskapligt team med forskare, ingenjörer och policyexperter granskar våra AI-system för potentiella skador och riskreduceringar – förfina träningsdata, filtrera för att begränsa skadligt innehåll, fråge- och resultatblockerande känsliga ämnen och använda Microsoft-tekniker som InterpretML och Fairlearn för att identifiera och korrigera datafördomar. Vi gör det tydligt hur systemet fattar beslut genom att notera begränsningar, länka till källor och uppmana användare att granska, faktagranska och justera innehåll baserat på ämnesexpertis. Mer information finns i Styra AI: En skiss för framtiden.

Vi strävar efter att hjälpa våra kunder att använda våra AI-produkter på ett ansvarsfullt sätt, dela vår utbildning och skapa förtroendebaserade partnerskap. För dessa nya tjänster vill vi ge våra kunder information om avsedda användningsområden, funktioner och begränsningar för vår AI-plattformstjänst, så att de har den kunskap som krävs för att göra ansvarsfulla distributionsval. Vi delar även resurser och mallar med utvecklare inom organisationer och med oberoende programvaruleverantörer (ISV:er) för att hjälpa dem att skapa effektiva, säkra och transparenta AI-lösningar.