Share via


Vanliga frågor och svar för Copilot datasäkerhet och sekretess för Dynamics 365 och Power Platform

Funktionerna Copilot for Dynamics 365 och Power Platform-funktioner följer en uppsättning grundläggande säkerhetsmetoder och Microsoft Ansvarsfull AI-standard. Dynamics 365 och Power Platform skyddas av omfattande, branschledande efterlevnads-, säkerhets- och integritetskontroller.

Copilot är byggd på Microsoft Azure OpenAI Service och körs helt inom Azure-molnet. Azure OpenAI erbjuder regional tillgänglighet och innehållsfiltrering för ansvarsfull AI. Copilot använder OpenAI-modeller med alla säkerhetsfunktioner för Microsoft Azure. OpenAI är en oberoende organisation. Vi delar inte dina data med OpenAI.

Copilot-funktioner är inte tillgängliga i alla Azure-geografier och språk. Beroende på var din miljö är värd kan du behöva aktivera dataflytt mellan geografier för att kunna använda dem. Mer information finns i artiklarna som listas under Dataflytt över geografiska områden.

Vad händer med mina data när jag använder Copilot?

Du har kontroll över dina data. Microsoft delar inte dina data med en tredje part om du inte har gett tillåtelse att göra det. Vidare använder vi inte dina kunddata för att träna Copilot eller dess AI-funktioner, såvida du inte ger vårt samtycke till att göra det. Copilot följer befintliga databehörigheter och policyer, och dess svar till dig baseras endast på data som du personligen har tillgång till. Mer information om hur du kan kontrollera dina data och hur dina data hanteras finns i artiklarna som anges under Copilot i Dynamics 365-appar och Power Platform.

Copilot övervakar att tjänsten används på ett felaktigt sätt och att tjänsten används vid bearbetning. Vi lagrar inte eller genomför ingen granskning av indata och utdata från Copilot för missbruksövervakning.

Hur använder Copilot mina data? 

Varje tjänst eller funktion använder Copilot baserat på de data som du tillhandahåller eller ställer in för Copilot att bearbeta.

Dina frågor (indata) och Copilot-svaren (utdata eller resultat):

  • Är INTE tillgängliga för andra kunder.

  • Används INTE för att träna eller förbättra några produkter eller tjänster från tredje part (som OpenAI-modeller).

  • Används INTE för att träna eller förbättra Microsoft AI-modeller om inte din klientorganisations administratör har valt att dela data med oss.

Lär dig mer om Azure OpenAI Service data, sekretess och säkerhet. Mer information om hur Microsoft skyddar och använder dina data mer allmänt finns i vår sekretesspolicy.

Vart tar mina data vägen?

Microsoft körs på förtroende. Vi värnar om säkerhet, sekretess och efterlevnad i allt vi gör och vår inställning till AI är inte annorlunda. Kunddata, inklusive indata och utdata från Copilot, lagras inom gränsen för Microsoft Cloud-förtroende.

I vissa scenarier, t.ex. funktioner som plugin-program från Bing och tredjeparts copilot plugin-program, kan kunddata överföras utanför gränsen för Microsoft Cloud-förtroende.

Kan Copilot komma åt krypterat innehåll?

Data tillhandahålls Copilot baserat på åtkomstnivån för den aktuella användaren. Om en användare har tillgång till krypterade data i Dynamics 365 och Power Platform, och den användaren tillhandahåller det till Copilot, kan Copilot komma åt den.

Hur skyddar Copilot kunddata?

Microsoft är i en unik position att leverera företagsanpassat AI. Copilot drivs av Azure OpenAI Service och följer våra befintliga integritets-, säkerhets- och regleringsåtaganden gentemot våra kunder.

  • Bygger på Microsofts omfattande metod för säkerhet, sekretess och efterlevnad. Copilot är integrerat i Microsoft-tjänster som Dynamics 365 och Power Platform och ärver deras säkerhets-, sekretess- och efterlevnadspolicyer och processer, t.ex. multifaktorautentisering och efterlevnadsgränser.

  • Flera sätt att skydda organisationens data. Tekniker på serversidan krypterar organisationens innehåll i vila och under överföring för robust säkerhet. Anslutningar skyddas med Transport Layer Security (TLS), och dataöverföringar mellan Dynamics 365, Power Platform och Azure OpenAI ske över Microsofts stamnätverk, vilket säkerställer både tillförlitlighet och säkerhet. Läs mer om kryptering i Microsoft Cloud.

  • Skapad för att skydda dina data både i klientorganisationen och på miljönivå. Vi vet att dataläckage är ett problem för kunder. Microsoft AI-modeller är inte utbildade på och lär sig inte av dina klientorganisationsdata eller dina meddelanden, om inte din administratör för klientorganisation har valt att dela data med oss. Du kan styra åtkomsten i dina miljöer med hjälp av behörigheter som du ställer in. Autentiserings- och auktoriseringsmekanismer för att skapa förfrågningar till den delade modellen mellan innehavare. Copilot använder data som bara du kan komma åt, med hjälp av samma teknik som vi har använt i flera år för att skydda kunddata.

Är svar från Copilot alltid sakliga?

Som med alla generativa AI, är Copilot-svar inte garanterat att vara 100 % sakliga. Vi förbättrar kontinuerligt svaren på faktabaserade frågor men du bör fortfarande använda ditt omdöme och granska resultatet innan du skickar det till andra. Copilot innehåller användbara utkast och sammanfattningar som hjälper dig att göra mer, men det är helt automatiskt. Du har alltid en chans att granska det AI-genererade innehållet.

Våra team arbetar för att förbättra algoritmerna för att proaktivt åtgärda problem som felaktig eller vilseledande information, innehållsblockering, datasäkerhet och förhindra skadligt eller diskriminerande innehåll i enlighet med MicrosoftResponsible AI-principer.

Vi erbjuder även vägledning i användarupplevelsen för att förstärka ansvarsfull användning av AI-genererat innehåll och åtgärder.

  • Instruktioner och frågor. När du använder Copilot påminner uppmaningar och andra instruktionselement dig om att granska och redigera svar vid behov samt att manuellt kontrollera fakta, data och text för noggrannhet innan du använder det AI-genererade innehållet.

  • Citerade källor. I tillämpliga fall hänvisar Copilot till informationskällorna, oavsett om de är offentliga eller interna, så att du själv kan granska dem och bekräfta svaren.

För mer information, se Vanliga frågor och svar om ansvarsfull AI för din produkt på Microsoft Learn.

Blockerar Copilot promptinjektioner (jailbreak-attacker)?

Jailbreak-attacker är användarprompter som är utformade för att provocera den generativa AI-modellen till att bete sig på ett sätt på sätt som den tränats för att undvika eller bryta mot reglerna den har uppmanats att följa. Tjänster i Dynamics 365 och Power Platform är tvungna att skydda mot promptinjektioner. Läs mer om jailbreak-angrepp och hur du använder innehållssäkerhet för Azure AI för att identifiera dem.

Hur testar och verifierar Microsoft kvaliteten på Copilot, t.ex. skydd mot promptinjektioner och välgrundade svar?

Alla nya Copilot-produkter och språkmodell iteration måste skicka en intern ansvarig AI-granskning innan den kan lanseras. Innan lanseringen använder vi en process som kallas "Red Teaming" (där ett team simulerar ett fiendeangrepp, hittar och utnyttjar svagheter för att hjälpa organisationen att förbättra sina försvar) för att bedöma potentiella risker i skadligt innehåll, jailbreak-scenarier och välgrundade svar. Efter lanseringen använder vi automatiserade tester och manuella och automatiserade utvärderingsverktyg för att utvärdera kvaliteten på Copilot-svaren.

Hur förbättrar Microsoft grundmodellen och mäter förbättringar i välgrundade svar?

I sammanhanget av AI, särskilt AI som hanterar språkmodeller som den som Copilot bygger på hjälper välgrundat AI att generera svar som är mer relevanta och meningsfulla i den verkliga världen. Grunda hjälper till att säkerställa att AI:s svar baseras på tillförlitlig information och är så korrekta och relevanta som möjligt. Mått på välgrundade svar bedömer hur exakt de fakta som anges i det grundläggande innehållet som tillhandahålls till modellen representeras i det slutliga svaret

Grundmodeller som GPT-4 förbättras av tekniker för hämtningsförstärkt generering (RAG). Med de här teknikerna kan modeller använda mer information än de var utbildade för att förstå en användares scenario. RAG fungerar genom att först identifiera data som är relevant för scenariot, liknande hur en sökmotor identifierar webbsidor som är relevanta för användarens söktermer. Den använder flera metoder för att identifiera vilket innehåll som är relevant för användarens fråga och bör användas för att fastställa svaret. Tillvägagångssätten inkluderar sökning mot olika typer av index, såsom inverterade index som använder informationssökningsmetoder som termmatchning, eller vektorindex som använder jämförelser av vektordistans för semantisk likhet. När MAN har identifierar relevanta dokument skickar MAN vidare data till modellen tillsammans med det aktuella samtalet, vilket ger modellen ett sammanhang som ger en bättre förståelse av den information den redan har och genererar ett svar som kan skapas i den verkliga världen. Slutligen kontrollerar RAG svaret för att säkerställa att det stöds av det källinnehåll som tillhandahölls modellen. Copilot generativa AI-funktioner integrerar RAG på flera sätt. Ett exempel är att chatta med data med hjälp av en chattrobot som är försedd med kundens egna datakällor.

En annan metod för att förbättra grundmodeller är känd som finjustering. En stor datauppsättning av frågesvarspar visas för en grundmodell för att utöka sin ursprungliga utbildning med nya prover som är inriktade på ett specifikt scenario. Modellen kan sedan distribueras som en separat modell som är finjusterad för det scenariot. Medan jordning handlar om att göra AI:s kunskap relevant för den verkliga världen, handlar finjustering om att göra AI:s kunskap mer specifik för en viss uppgift eller domän. Microsoft använder finjustering på flera sätt. Vi använder till exempel Power Automate flödesgenerering utifrån användarens beskrivningar av naturligt språk.

Hur blockerar Copilot skadligt innehåll?

Azure OpenAI Service innehåller ett innehållsfiltreringssystem som fungerar tillsammans med kärnmodeller. Innehållsfiltreringsmodellerna för kategorierna Hat och rättvisa, sexuellt, våld och självskada har utbildats och testats specifikt på olika språk. Detta system fungerar genom att både indataprompten och svaret körs genom klassificeringsmodeller som är utformade för att identifiera och blockera produktionen av skadligt innehåll.

Hat och rättviserelaterade skador avser allt innehåll som använder nedsättande eller diskriminerande språk baserat på attribut t.ex. ras, etnicitet, nationalitet, könsidentitet och uttryck, sexuell läggning, religion, invandringsstatus, funktionsförmåga, personligt utseende och kroppsstorlek. Rättvisa handlar om att se till att AI-system behandlar alla grupper av människor rättvist utan att bidra till befintliga orättvisor i samhället. Sexuellt innehåll omfattar diskussioner om mänskliga fortplantningsorgan, romantiska relationer, handlingar sp, skildras i erotiska eller kärleksfulla termer, graviditet, fysiska sexuella handlingar, inklusive de som framställs som övergrepp eller en tvingade sexuella våldshandlingar, prostitution, pornografi och missbruk. Våld beskriver språk relaterat till fysiska handlingar som är avsedda att skada eller döda, inklusive handlingar, vapen och relaterade enheter. Språk relaterat till självskada avser medvetna handlingar som är avsedda att skada eller döda sig själv.

Läs mer om Azure OpenAI innehållsfiltrering.

Uppfyller Copilot kraven på regelefterlevnad?

Microsoft Copilot ingår i Dynamics 365 och Power Platform ekosystemet och uppfyller samma krav för regelefterlevnad. Mer information om regelcertifieringar för Microsoft-tjänster finns på Service Trust Portal. Dessutom följer Copilot vårt åtagande för ansvarsfull AI, vilket omsätts i handling genom vår Ansvarsfull AI-standard. I takt med att regler och förordningar inom AI utvecklas fortsätter Microsoft att anpassa sig och nya krav.

Läs mer om Dynamics 365, Power Platform och tillgängligheten för Copilot, kunddataplatser och efterlevnad av globala, regionala och branschspecifika krav för hantering av data.

Mer information

Copilot i Dynamics 365-appar och Power Platform

Produkt Egenskap Krävs hanterade miljöer? Så inaktiverar du funktionen
AI Builder Scenarion i förhandsversion No Scenarion i förhandsversion
Dynamics 365 Customer Insights - Data Skapa segment med Copilot för Customer Insights - Data (förhandsversion) No Customer Insights - Data har en egen flagga för alla Copilot-funktioner av Azure OpenAI.

Läs mer: Ge ditt samtycke till att använda Copilot i Customer Insights - Data
Dynamics 365 Customer Insights - Data Översikt över dataförberedelserapport (förhandsversion) No Customer Insights - Data har en egen flagga för alla Copilot-funktioner av Azure OpenAI.

Läs mer: Ge ditt samtycke till att använda Copilot i Customer Insights - Data
Dynamics 365 Customer Insights - Data Få svar på frågor om funktioner från Copilot (förhandsversion) No Customer Insights - Data har en egen flagga för alla Copilot-funktioner av Azure OpenAI.

Läs mer: Ge ditt samtycke till att använda Copilot i Customer Insights - Data
Dynamics 365 Customer Insights (Data) Ha en dialog med data med hjälp av Copilot i Customer Insights No Customer Insights - Data har en egen flagga för alla Copilot-funktioner av Azure OpenAI.

Läs mer: Ge ditt samtycke till att använda Copilot i Customer Insights - Data
Dynamics 365 Customer Insights - Data Visa systemkonfiguration No Customer Insights - Data har en egen flagga för alla Copilot-funktioner av Azure OpenAI.

Läs mer: Ge ditt samtycke till att använda Copilot i Customer Insights - Data
Dynamics 365 Customer Insights - Journeys Copilot hjälper dig att lära dig och göra mer (förhandsversion) No Om denna copilot är tillgänglig i din miljö avgörs av administratörsinställningarna för Power Platform. Lär dig lägga till visuellt Copilot i modellbaserade appar.


Funktionen är "app-copilot i Customer Insights - Journeys" och det är därför den är aktiverad i Power Platform administratörscenter. Läs mer: Vanliga frågor och svar om ansvarsfull AI
Dynamics 365 Customer Insights - Journeys Skapa resor med AI-assistans No Customer Insights - Journeys har sina egna flaggor för Copilot-funktioner.

Läs mer: Ge ditt samtycke till att använda Copilot i Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Uppdatera och finslipa meddelandet No Customer Insights - Journeys har sina egna flaggor för Copilot-funktioner.

Läs mer: Ge ditt samtycke till att använda Copilot i Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Utforma dina e-postmeddelanden med AI-assisterade teman No Customer Insights - Journeys har sina egna flaggor för Copilot-funktioner.

Läs mer: Ge ditt samtycke till att använda Copilot i Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Nå rätt kunder med frågehjälp

No Customer Insights - Journeys har sina egna flaggor för Copilot-funktioner.

Läs mer: Ge ditt samtycke till att använda Copilot i Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Använda AI för att komma i gång snabbt och skapa e-post No Customer Insights - Journeys har sina egna flaggor för Copilot-funktioner.

Läs mer: Ge ditt samtycke till att använda Copilot i Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Använda bilder i innehållet No Customer Insights - Journeys har sina egna flaggor för Copilot-funktioner.

Läs mer: Ge ditt samtycke till att använda Copilot i Customer Insights - Journeys
Power Apps Skapa program via konversationer No Hantera funktionsinställningar
Power Apps Copilot-hjälp för formulärfyllning i modellbaserade appar No Hantera funktionsinställningar
Power Apps Skapa utkast av välskriven inmatningstext med Copilot Nej, premiumanvändarlicens Skapa utkast av välskriven inmatningstext med Copilot
Power Apps Excel till tabell No Hantera funktionsinställningar
Power Apps Använda naturligt språk för att redigera en app med hjälp av Copilot-panelen No Hantera funktionsinställningar
Power Pages Alla (se Copilot-översikt i Power Pages för mer information) No Inaktivera Copilot i Power Pages

Regional- och språktillgänglighet

Internationell tillgänglighet för Copilot

Dataflytt över geografiska områden

Säkerhet på Microsoft

Sekretess på Microsoft

Microsofts sekretesspolicy

Ansvarsfull AI