Dela via


Transparensanteckning för Microsoft 365 Copilot

Vad är en transparensanteckning?

Ett AI-system omfattar inte bara tekniken, utan även de personer som ska använda den, de personer som påverkas av den och miljön där den distribueras. Att skapa ett system som är lämpligt för avsett syfte kräver en förståelse för hur tekniken fungerar, vad dess funktioner och begränsningar är och hur du uppnår bästa möjliga prestanda. Microsofts transparensanteckningar är avsedda att hjälpa dig att förstå hur vår AI-teknik fungerar, vilka val systemägare kan göra som påverkar systemets prestanda och beteende samt vikten av att tänka på hela systemet, inklusive teknik, människor och miljö. Vi fortsätter att uppdatera det här dokumentet i takt med att tjänsten utvecklas.

Microsofts transparensanteckningar är en del av ett bredare arbete hos Microsoft för att omsätta våra AI-principer i praktiken. Mer information finns i Microsoft AI-principerna.

Grunderna i Microsoft 365 Copilot

Inledning

Microsoft 365 Copilot är ett AI-baserat produktivitetsverktyg som använder stora språkmodeller och integrerar data med Microsoft Graph och Microsoft 365-appar och -tjänster. Den fungerar tillsammans med populära Microsoft 365-appar som Word, Excel, PowerPoint, Outlook, Teams med mera.

Microsoft 365 Copilot använder en kombination av modeller som tillhandahålls av Azure OpenAI Service. Detta gör att vi kan matcha de specifika behoven för varje funktion , till exempel snabbhet, kreativitet – till rätt modell, så att Microsoft 365 Copilot kan ge intelligent hjälp i realtid som gör det möjligt för användare att förbättra sin kreativitet, produktivitet och färdigheter.

Mer detaljerad information om de LLM:er som tillhandahålls till Microsoft av OpenAI finns i deras offentliga dokumentation, tillgänglig på Models - OpenAI API.

Nyckeltermer

Term Beskrivning
Användarprompt En användarprompt är den text som skickas till Microsoft 365 Copilot för att köra en viss uppgift eller ange information. En användare kan till exempel ange följande uppmaning: Skriv ett e-postmeddelande som gratulerar mitt team i slutet av räkenskapsåret.
Bearbetning Bearbetning av en användarprompt i Microsoft 365 Copilot omfattar flera steg, inklusive ansvarsfulla AI-kontroller, för att säkerställa att Microsoft 365 Copilot ger relevanta och användbara svar.
Jordning Grundstötning syftar på processen att tillhandahålla indatakällor till LLM som är relaterade till användarprompten. Genom att göra det möjligt för Microsoft 365 Copilot att komma åt data som ska användas som indatakällor – till exempel data från Microsoft Graph eller Bing – kan Microsoft 365 Copilot leverera mer exakta, sammanhangsberoende relevanta svar till användare.
Microsoft Graph Microsoft Graph är gatewayen till data och intelligens i Microsoft 365. Den innehåller information om relationerna mellan användare, aktiviteter och en organisations data.
Microsoft Graph-anslutningsappar Microsoft Graph Connectors erbjuder ett sätt att överföra innehåll från externa tjänster till Microsoft Graph, vilket gör det möjligt för externa data att driva Microsoft 365 intelligenta upplevelser som Microsoft Search och Microsoft 365 Copilot.
Indexering Microsoft använder både lexikal och semantisk indexering av Microsoft Graph-data till grundsvar för Microsoft 365 Copilot i företagsdata. Indexering tolkar användarens uppmaningar om att skapa sammanhangsmässigt relevanta svar. Mer information om indexering finns i Systembeteende.
Utökad fråga En fråga utökas när ytterligare instruktioner läggs till i en användares inmatade uppmaning för att vägleda Microsoft 365 Copilot att generera ett mer specifikt och relevant svar.
Innehåll i interaktioner Termen som används för att beskriva användarens uppmaning och Microsoft 365 Copilot svar på den uppmaningen.
Stor språkmodell (LLM) Stora språkmodeller (LLMs) i den här kontexten är AI-modeller som tränas på stora mängder textdata för att förutsäga ord i sekvenser. LLM:er kan utföra en mängd olika uppgifter, till exempel textgenerering, sammanfattning, översättning, klassificering med mera.
LLM-svar Innehållet som genereras av LLM som ett svar på användarprompten som returneras till Microsoft 365 Copilot.
Efterbearbetning Bearbetningen Microsoft 365 Copilot gör när den har fått ett svar från LLM. Den här efterbearbetningen innehåller ytterligare jordningsanrop till Microsoft Graph, ansvarsfull AI, säkerhet, efterlevnad och sekretesskontroller.
Ansvarsfull AI Microsofts policy-, forsknings- och teknikpraxis som bygger på våra AI-principer och operationaliseras genom vår ansvarsfulla AI-standard.
Copilot-agenter Copilot-agenter är program som utvecklats av Microsoft och andra leverantörer som användare och organisationer kan installera för att lägga till nya färdigheter och kunskaper i Microsoft 365 Copilot. Mer information om användningen av AI i Copilot-agenter finns i dessa erbjudanden direkt.
Red Team-testning Tekniker som används av experter för att utvärdera begränsningar och sårbarheter i ett system och för att testa effektiviteten av planerade åtgärder. Red Team-testning används för att identifiera potentiella risker och skiljer sig från systematisk mätning av risker.

Kapaciteter

Funktioner

Funktion Beskrivning
Microsoft 365 Copilot i Word Microsoft 365 Copilot i Word omvandlar skrivande med effektivitet och kreativitet – så att användarna kan skapa, sammanfatta, förstå, förfina och höja dokument. Användare kan också använda förbättrade funktioner som att visualisera och omvandla text till en tabell. Vissa andra funktioner omfattar även att lägga till i befintliga prompter, skriva ett dokument genom att referera till andra dokument och identifiera information om dokument.

Mer information finns i Vanliga frågor och svar om Copilot i Word.
Microsoft 365 Copilot i PowerPoint Microsoft 365 Copilot i PowerPoint låter användarna skapa en ny presentation från en fråga eller Word fil med företagsmallar. Chattfunktionen aktiverar sammanfattnings- och Q-&A- och ljuskommandon så att användarna kan lägga till bilder, bilder eller göra formateringsändringar i hela kortleken. PowerPoint-filer kan också användas för jordning av data.

Mer information finns i Vanliga frågor och svar om Copilot i PowerPoint.
Microsoft 365 Copilot i Excel Microsoft 365 Copilot i Excel hjälper användare med förslag på formler, diagramtyper och insikter om data i kalkylblad.

Mer information finns i Vanliga frågor och svar om Copilot i Excel.
Microsoft 365 Copilot i Outlook Microsoft 365 Copilot i Outlook hjälper dig att hantera e-post inkorgen och skapa effektivare kommunikation. Microsoft 365 Copilot i Outlook kan sammanfatta en e-posttråd, föreslå åtgärdsobjekt, svar och uppföljningsmöten. Den kan också justera längd och ton när du skapar ett e-postmeddelande.

Mer information finns i Vanliga frågor och svar om Copilot i Outlook.
Microsoft 365 Copilot i Teams Microsoft 365 Copilot i Teams kan sammanfatta konversationer, organisera viktiga diskussionspunkter och sammanfatta viktiga åtgärder. Användare kan få svar på specifika frågor och komma ikapp saker som de har missat i möten eller chattar

Mer information finns i Vanliga frågor och svar om Copilot i Microsoft Teams.
Microsoft 365 Copilot i Loop Microsoft 365 Copilot i Loop gör det möjligt för användare att skapa innehåll som kan förbättras tillsammans genom direktredigering eller förfining av Copilot.

Mer information finns i Vanliga frågor och svar om Copilot i Loop.
Microsoft 365 Copilot i Microsoft Stream Microsoft 365 Copilot i Microsoft Stream hjälper dig att få information från alla videor med en avskrift. Microsoft 365 Copilot i Stream kan ge en sammanfattning av videon, besvara specifika frågor, snabbt hoppa till specifika ämnen eller diskussionspunkter och identifiera anrop till åtgärder.

Mer information finns i Vanliga frågor och svar om Copilot i Stream.
Microsoft 365 Copilot i Whiteboard Microsoft 365 Copilot i Whiteboard hjälper till att kickstarta idéprocessen för att generera, kategorisera och sammanfatta idéer.

Mer information finns i Vanliga frågor och svar om Copilot i Whiteboard.
Microsoft 365 Copilot i OneNote Microsoft 365 Copilot i OneNote gör det möjligt för användare att utarbeta planer, skapa idéer, skapa listor och organisera information som hjälper dem att hitta det de behöver i OneNote-appen.

Mer information finns i Vanliga frågor och svar om Copilot i OneNote.
Microsoft 365 Copilot Chat Microsoft 365 Copilot Chat (tidigare kallat Business Chat) kombinerar kraften i stora språkmodeller med Internet, arbetsinnehåll och kontext och andra appar, för att hjälpa användare att utarbeta innehåll, komma ikapp vad som missas och få svar på frågor via prompter.
Microsoft 365 Copilot i SharePoint RTF-redigeraren Microsoft 365 Copilot i Microsoft SharePoint RTF-redigeraren förenklar skapandet av innehåll på SharePoint-sidor och -inlägg. Med Copilot kan du skriva om text, justera tonen, kondensera information och utarbeta idéer. Mer information finns i Vanliga frågor och svar om Copilot i SharePoint.
Microsoft 365 Copilot i OneDrive Microsoft 365 Copilot i OneDrive är en innovativ AI-baserad assistent som hjälper dig att interagera med dina dokument genom att extrahera information, jämföra de viktigaste skillnaderna, sammanfatta filer och generera insikter. Mer information finns i Vanliga frågor och svar om Copilot i OneDrive.
Microsoft 365 Copilot kort Snabbkort erbjuder en snabb förhandsgranskning av arbetsentiteter, till exempel dokument, för att utvärdera relevans eller återkallande. De nås genom att hovra över filer på fliken Sök i Microsoft 365 Copilot-appen.
Intelligent sökning Intelligent sökning möjliggör sökning i Dataverse-program som Dynamics 365 Sales, Service och Finance & Operations med naturligt språk.
Anslutningsappar för Power Platform Med Power Platform Connectors kan kunderna komma åt realtidsdata från en samling affärsprogram och personliga produktivitetsprogram i Microsoft 365 Copilot upplevelse.
Microsoft Graph-anslutningsappar Microsoft Graph Connectors aktiverar anslutningar till externa datakällor, inklusive upp till 500 objekt per Microsoft 365 Copilot licens.
Microsoft Purview Microsoft Purview är en lösning som hjälper organisationer att hantera och skydda sina data. Det ger en enhetlig plattform för datastyrning, informationsskydd, riskhantering och efterlevnad. Kunder kan utöka Microsoft Purview-funktioner som tillhandahålls av kundernas Microsoft-prenumerationer (till exempel Microsoft 365 E3 eller E5-prenumerationer) för att Microsoft 365 Copilot data och interaktioner.
Microsoft 365 Copilot justering Microsoft 365 Copilot Tuning gör det möjligt för organisationer att finjustera stora språkmodeller (LLMs) med hjälp av sina egna klientdata. Dessa modeller kan användas för att utföra domänspecifika uppgifter baserat på organisationens unika kunskaper.

Mer information finns i Vanliga frågor och svar om ansvarsfull AI för Microsoft 365 Copilot tuning

Systembeteende

Microsoft 365 Copilot använder en kombination av LLM:er för att sammanfatta, förutsäga och generera innehåll. Dessa LLM:er inkluderar förtränade modeller, till exempel Generative Pre-Trained Transformers (GPT) som GPT-4 från OpenAI, som är utformade för att utmärka sig i dessa uppgifter.

De funktioner som användarna ser i Microsoft 365-program visas som ytterligare funktioner, funktioner och frågefunktioner. LLM:er och egenutvecklade Microsoft-tekniker fungerar tillsammans i ett underliggande system som hjälper människor att på ett säkert sätt komma åt, använda och hantera sina organisationsdata.

  • Microsoft 365-appar (till exempel Word, Excel, PowerPoint, Outlook, OneNote, Teams och Loop) fungerar med Microsoft 365 Copilot för att stödja användare i flödet av deras arbete. Till exempel är Microsoft 365 Copilot i Word utformat för att hjälpa användare att skapa, förstå och redigera dokument. På ett liknande sätt hjälper Microsoft 365 Copilot i de andra apparna användarna i samband med deras arbete i dessa appar.

  • Microsoft Graph har länge varit grundläggande för Microsoft 365. Den innehåller information om relationerna mellan användare, aktiviteter och en organisations data. Microsoft Graph API ger mer kontext från kundsignaler i prompten, till exempel information från e-postmeddelanden, chattar, dokument och möten. Mer information finns i Översikt över Microsoft Graphoch funktioner och de främsta tjänsterna i Microsoft Graph.

  • Microsoft 365 Copilot Chat gör det möjligt för kunder att ta med arbetsinnehåll och kontext till Microsoft 365 Copilot chattfunktioner. Med Microsoft 365 Copilot Chat kan användare skapa innehåll, komma ikapp med vad de missade och få svar på frågor via öppna frågor – allt säkert grundat i arbetsdata. Använd Microsoft 365 Copilot Chat på många ytor, bland annat i Microsoft Teams, på Microsoft365.com och på copilot.microsoft.com.

  • Semantikindex är ett index som genereras från innehåll i Microsoft Graph. Den används för att underlätta bearbetningen av användarfrågor för att skapa sammanhangsmässigt relevanta svar. Det gör att organisationer kan söka igenom miljarder vektorer (matematiska representationer av funktioner eller attribut) och returnera relaterade resultat. Det semantiska indexet är utformat för att respektera enskilda användares säkerhetskontext, och endast innehåll som en användare kan komma åt visas. Semantikindex bygger på Microsofts omfattande metod för säkerhet, efterlevnad, sekretess och respekterar alla organisationsgränser inom kundens klientorganisation. Mer information finns i Semantikindex för Copilot.

Här är en förklaring av hur Microsoft 365 Copilot fungerar:

  • Microsoft 365 Copilot tar emot en indataprompt från en användare i en app, till exempel Word eller PowerPoint.

  • Microsoft 365 Copilot bearbetar sedan användarprompten, vilket förbättrar frågans specificitet, för att hjälpa användaren att få svar som är relevanta och användbara för deras specifika uppgift. Uppmaningen kan innehålla text från indatafiler eller annat innehåll som identifieras av Microsoft 365 Copilot med hjälp av Microsoft Graph, och Microsoft 365 Copilot skickar denna uppmaning till LLM för bearbetning. Microsoft 365 Copilot endast får åtkomst till data som en enskild användare har befintlig åtkomst till, baserat på till exempel befintliga rollbaserade åtkomstkontroller i Microsoft 365.

  • Microsoft 365 Copilot tar svaret från LLM och efterprocesser. Den här efterbearbetningen innehåller andra grundanrop till Microsoft Graph, ansvarsfulla AI-kontroller som innehållsklassificerare, säkerhet, efterlevnads- och sekretesskontroller samt kommandogenerering.

  • Microsoft 365 Copilot returnerar svaret till appen, där användaren kan granska och utvärdera svaret.

Data krypteras när de lagras och används inte för att träna Azure OpenAI Service Foundation LLMs, inklusive de som används av Microsoft 365 Copilot. Mer information om detta finns i Data, Sekretess och Säkerhet för Microsoft 365 Copilot.

Så här genererar Microsoft 365 Copilot svar utan webbinnehåll eller organisationsdata

Microsoft 365 Copilot kräver inte webbinnehåll eller organisationsdata för att ge ett svar, men den informationen kan bidra till att förbättra kvaliteten, noggrannheten och relevansen för svaret. När du svarar utan webb- eller organisationsdata förlitar sig Microsoft 365 Copilot bara på sina LLM:er för att förstå uppmaningar och generera svar. Processen innebär att parsa indata, utnyttja modellens interna kunskapsbas och förfina svaret för att säkerställa att det är kontextuellt lämpligt.

Utökningsbarhet & anpassning

Microsoft 365 Copilot erbjuder funktioner som hjälper användarna att frigöra produktivitet och kreativitet. Dess anpassningsbarhet innebär att den kan anpassas för att uppfylla olika organisationers unika behov. Möjligheten att utöka dess funktioner genom tillägg gör den till en ständigt växande tillgång som kan anpassas till det ständigt föränderliga landskapet av affärsbehov. Läs mer om att anpassa Microsoft 365 Copilot på Copilot | Microsoft Developer. Mer information om användningen av AI i tillägg finns i dessa erbjudanden direkt.

Användningsfall

Microsoft 365 Copilot är en allmän tjänst som utformats för att hjälpa till med en mängd olika vardagliga uppgifter i alla organisationer genom att ansluta till arbetsdata och integrera med de appar som kunderna använder varje dag. Till exempel:

  • Chatt- och konversationsinteraktion & skapande: Användare kan interagera med Microsoft 365 Copilot Chat och generera svar från betrodda dokument, till exempel intern företagsdokumentation eller teknisk supportdokumentation.

  • Sök: Användare kan söka i betrodda källdokument, till exempel intern företagsdokumentation.

  • Sammanfattning: Användare kan skicka innehåll som ska sammanfattas för fördefinierade ämnen som är inbyggda i programmet. Exempel är sammanfattning av Teams chattar, e-postmeddelanden, webbsidor och Word dokument.

  • Skriva hjälp om specifika ämnen: Användare kan skapa nytt innehåll eller skriva om innehåll som skickats av användaren som ett skrivstöd för affärsinnehåll eller fördefinierade ämnen. Du kan till exempel skriva e-postmeddelanden i Microsoft Outlook eller skriva innehåll i Microsoft Word.

  • Textning eller transkription: Användare kan transkribera ljudfiler till text för förståelse av naturligt språk eller analytiska uppgifter som sammanfattning. Exempel är Teams mötesavskrifter och videor på Microsoft Stream.

Microsoft tillhandahåller detaljerad vägledning som fokuserar på vanliga användningsfall och scenarier för att hjälpa kunderna att påskynda integreringen av Microsoft 365 Copilot funktioner i sina organisationer. Läs mer på Scenariobibliotek i Microsoft Copilot – Microsoft Adoption.

Att tänka på när du väljer ett användningsfall

Vi rekommenderar att användarna granskar allt innehåll som genereras av Microsoft 365 Copilot innan de använder det. Dessutom finns det vissa scenarier som vi rekommenderar att du undviker. I vissa fall kan meningsfull mänsklig tillsyn och granskning ytterligare minska risken för skadliga resultat.

  • Undvik användning eller missbruk av systemet kan leda till betydande fysiska eller psykiska skador på en individ. Till exempel har scenarier som diagnostiserar patienter eller förskriver mediciner potential att orsaka betydande skada.

  • Undvik användning eller missbruk av systemet kan ha en följdeffekt på livsmöjligheter eller juridisk status. Exempel är scenarier där AI-systemet kan påverka en individs juridiska status, juridiska rättigheter eller deras tillgång till kredit, utbildning, sysselsättning, sjukvård, bostäder, försäkring, sociala förmåner, tjänster, möjligheter eller de villkor som de tillhandahålls på.

  • Överväg noggrant användningsfall i domäner eller branscher med höga insatser. Exempel är men är inte begränsade till medicinsk eller ekonomisk.

Begränsningar

Specifika begränsningar för Microsoft 365 Copilot

  1. Integrering och kompatibilitet: Även om Microsoft 365 Copilot är utformat för att integreras sömlöst med Microsoft 365-program kan det finnas begränsningar eller problem med kompatibilitet i vissa miljöer, särskilt med appar från tredje part (icke-Microsoft) och anpassade eller icke-standardkonfigurationer.

  2. Anpassning och flexibilitet: Även om Microsoft 365 Copilot kan skräddarsys finns det begränsningar för hur mycket den kan anpassas för att passa specifika organisationsbehov eller arbetsflöden. Organisationer kan tycka att vissa funktioner eller svar är stelbenta eller inte helt anpassade till organisationens krav.

  3. Beroende av Internetanslutning: Microsoft 365 Copilot förlitar sig på att Internetanslutningen ska fungera. Eventuella avbrott i anslutningen kan påverka tjänstens tillgänglighet och prestanda.

  4. Användarutbildning och införande: Effektiv användning av Microsoft 365 Copilot kräver att användarna förstår dess funktioner och begränsningar. Det kan finnas en inlärningskurva och användarna måste tränas för att effektivt interagera med och dra nytta av tjänsten.

  5. Resursintensitet: Körning av avancerade AI-modeller kräver betydande beräkningsresurser, vilket kan påverka prestanda, särskilt i resursbegränsade miljöer. Användare kan uppleva problem med svarstider eller prestanda under tider med hög användning.

  6. Juridiska överväganden och efterlevnadsöverväganden: Organisationer måste överväga sina särskilda juridiska och efterlevnadsskyldigheter när de använder Microsoft 365 Copilot, särskilt i reglerade branscher. Microsoft undersöker regelkrav som gäller för Microsoft som leverantör av tekniken och hanterar dem inom produkten genom en process för kontinuerlig förbättring.

  7. Bias, stereotyping och ojordat innehåll: Trots intensiv träning av OpenAI och implementeringen av ansvarsfulla AI-kontroller från Microsoft i både användaruppmaningar och LLM-utdata är AI-tjänster fallbara och probabilistiska. Detta gör det svårt att på ett omfattande sätt blockera allt olämpligt innehåll, vilket leder till potentiella fördomar, stereotyper eller ojordingar i AI-genererat innehåll. Mer information om kända begränsningar för AI-genererat innehåll finns i Transparensanteckning för Azure OpenAI-tjänsten, som innehåller referenser till llm:erna bakom Microsoft 365 Copilot.

Microsoft 365 Copilot prestanda

I många AI-system definieras prestanda ofta i förhållande till noggrannhet – det vill sägs hur ofta AI-systemet erbjuder en korrekt förutsägelse eller utdata. Med Microsoft 365 Copilot kan två olika användare titta på samma utdata och ha olika åsikter om hur användbart eller relevant det är, vilket innebär att prestanda för dessa system måste definieras mer flexibelt. Vi anser i stort sett att prestanda innebär att programmet presterar som användarna förväntar sig.

Metodtips för att förbättra Microsoft 365 Copilot upplevelse

För att förbättra prestandan i förhållande till noggrannheten i Microsoft 365 Copilot utdata rekommenderar vi att organisationer överväger följande:

  • Skriv bra frågor. Att skriva bra frågor är nyckeln till att få bättre resultat med Microsoft 365 Copilot. Precis som det finns tekniker för att hjälpa människor att kommunicera effektivt med en människa finns det riktlinjer som kan hjälpa användarna att få bättre resultat med Microsoft 365 Copilot när de skriver prompter. Till exempel: inkludera information, strukturera frågor, ge positiva instruktioner, iterera och återskapa och alltid granska och verifiera AI-genererade svar. Mer information finns i Få bättre resultat med Copilot-frågor.

  • Tillåt hänvisning av webbinnehåll. Att tillåta Microsoft 365 Copilot att referera till webbinnehåll kan förbättra kvaliteten, noggrannheten och relevansen hos Microsoft 365 Copilot svar där ett svar skulle dra nytta av aktuell offentlig information från webben. Observera dock att när Microsoft 365 Copilot refererar till webbinnehåll gör det det via Bing-sökning-tjänsten och datahanteringsmetoder för Bing-sökning frågor skiljer sig från hur data hanteras av Microsoft 365 Copilot. Användningen av Bing omfattas av Villkor för Microsoft-tjänster mellan varje användare och Microsoft, tillsammans med Microsofts sekretesspolicy.

  • Utöka grunderna i Microsoft Graph. Microsoft 365 Copilot använder data från Microsoft Graph för att grunda svar i organisationsspecifika data som e-postmeddelanden, chattar, filer och kalendrar. Genom att utöka Microsoft Graph med organisationsdata från källor som CRM-system eller externa fillagringsplatser kan organisationer inkludera ytterligare sammanhangsspecifik, relevant information som ytterligare förbättrar rikedomen och noggrannheten hos Microsoft 365 Copilot svar.

Mappning, mätning och hantering av risker

Precis som andra omvandlingstekniker är det inte riskfritt att utnyttja fördelarna med AI, och en viktig del av Microsofts ansvarsfulla AI-program är utformat för att identifiera potentiella risker, mäta deras benägenhet att inträffa och skapa åtgärder för att hantera dem. Vi vägleds av våra AI-principer och vår ansvarsfulla AI-standard och bygger vidare på lärdomar från andra generativa AI-produkter och vår centraliserade infrastruktur för minskning (till exempel Azure AI Innehållsäkerhet) och försöker kartlägga, mäta och hantera potentiella risker och missbruk av Microsoft 365 Copilot samtidigt som du skyddar de transformativa och gynnsamma användningsområden som den nya upplevelsen ger. I avsnitten nedan beskriver vi vår iterativa metod för att mappa, mäta och hantera potentiella risker.

Karta

På modellnivå började vårt arbete med undersökande analyser av GPT-4 under sensommaren 2022. Detta inkluderade omfattande red team-testning i samarbete med OpenAI. Den här testningen utformades för att utvärdera hur den senaste tekniken skulle fungera utan ytterligare skydd. Vår specifika avsikt just nu var att identifiera risker, upptäcka potentiella möjligheter till missbruk och identifiera funktioner och begränsningar. Vår kombinerade utbildning i OpenAI och Microsoft bidrog till framsteg inom modellutveckling och informerade oss på Microsoft om risker och bidrog till tidiga riskreduceringsstrategier för alla våra generativa AI-tekniker, inklusive Microsoft 365 Copilot.

Förutom testning av röda team på modellnivå genomförde ett tvärvetenskapligt expertteam red teamtestning på programnivå på Microsoft 365 Copilot upplevelser innan de gjordes offentligt tillgängliga. Den här processen hjälpte oss att bättre förstå hur systemet kan utnyttjas och förbättra våra åtgärder. Efter lanseringen är de nya AI-funktionerna i Microsoft 365 Copilot integrerade i den tekniska organisationens befintliga infrastruktur för produktionsmätning och testning.

Mått

Red Team-testning kan visa instanser av specifika risker, men i produktion kommer användare att ha miljontals olika typer av interaktioner med Microsoft 365 Copilot. Dessutom är interaktioner sammanhangsbaserade och ofta flera svängar, och att identifiera skadligt innehåll i en interaktion är en komplex uppgift. För att bättre förstå och hantera riskerna för våra generativa AI-tjänster, inklusive Microsoft 365 Copilot upplevelser, utvecklade vi ansvarsfulla AI-utvärderingar som är specifika för de nya AI-upplevelserna för att mäta potentiella risker som jailbreak, skadligt innehåll och ojordat innehåll.

Som ett illustrativt exempel innehåller den uppdaterade delvis automatiserade mätpipelinen för skadligt innehåll två viktiga innovationer: konversationssimulering och automatiserad, mänskligt verifierad konversationsanteckning. Först skapade ansvarsfulla AI-experter mallar för att samla in strukturen och innehållet i konversationer som kan resultera i olika typer av skadligt innehåll. Dessa mallar gavs sedan till en konversationsagent som interagerade som en hypotetisk användare med Microsoft 365 Copilot och genererade simulerade konversationer. För att identifiera om dessa simulerade konversationer innehöll skadligt innehåll tog vi riktlinjer som vanligtvis används av expertlingvister för att märka data och ändra dem för användning av LLMs för att märka konversationer i stor skala och förfina riktlinjerna tills det fanns en betydande överenskommelse mellan modellmärkta konversationer och mänskligt märkta konversationer. Slutligen använde vi modellmärkta konversationer för att förstå effektiviteten hos Microsoft 365 Copilot för att minimera skadligt innehåll.

Med våra mätpipelines kan vi snabbt utföra mätningar för potentiella risker i stor skala. När vi identifierar nya problem under förhandsversionen och pågående red team-testning fortsätter vi att expandera och förbättra måttuppsättningarna för att utvärdera ytterligare risker.

Hantera

När vi identifierade potentiella risker och missbruk genom processer som red team-testning och mätte dem utvecklade vi åtgärder för att minska risken för skada. Nedan beskriver vi några av dessa åtgärder. Vi fortsätter att övervaka Microsoft 365 Copilot upplevelser för att förbättra produktprestanda och åtgärder.

  • Stegvis version, kontinuerlig utvärdering. Vi strävar efter att lära oss och förbättra vår ansvarsfulla AI-strategi kontinuerligt i takt med att våra tekniker och användarbeteende utvecklas. Vi gör ändringar i Microsoft 365 Copilot regelbundet för att förbättra produktprestanda, förbättra befintliga åtgärder och implementera nya åtgärder som svar på våra lärdomar.

  • Grundstötning i affärsdata. En känd risk med stora språkmodeller är deras möjlighet att generera ojordat innehåll – innehåll som verkar korrekt men som inte finns i källmaterial. En viktig åtgärd i Microsoft 365 Copilot är att jorda AI-genererat innehåll i relevanta affärsdata som användaren har åtkomst till baserat på deras behörigheter. Baserat på användarens uppmaning får Microsoft 365 Copilot till exempel relevanta affärsdokument för att grunda sitt svar i dessa dokument. När innehåll sammanfattas från olika källor kan Microsoft 365 Copilot dock innehålla information i svaret som inte finns i indatakällorna. Med andra ord kan det ge ojordade resultat. Användarna bör alltid vara försiktiga och använda sitt bästa omdöme när de använder utdata från Microsoft 365 Copilot. Vi har vidtagit flera åtgärder för att minska risken för att användarna förlitar sig för mycket på ojordat AI-genererat innehåll. När det är möjligt innehåller svar i Microsoft 365 Copilot som baseras på affärsdokument referenser till källorna så att användarna kan verifiera svaret och lära sig mer. Användarna får också ett uttryckligt meddelande om att de interagerar med ett AI-system och uppmanas att kontrollera källmaterialet för att hjälpa dem att använda sitt bästa omdöme.

  • AI-baserade klassificerare och metapromptering för att minimera potentiella risker eller missbruk. Användningen av LLM:er kan ge upphov till problematiskt innehåll som kan leda till skada. Exempel kan vara utdata som rör självskadebeteende, våld, grafiskt innehåll, skyddat material, felaktig information, hatiskt tal eller text som kan relatera till olaglig verksamhet. Klassificerare som de som är tillgängliga i Azure AI Innehållsäkerhet och metaprompting är två exempel på åtgärder som har implementerats i Microsoft 365 Copilot för att minska risken för dessa typer av innehåll. Klassificerare klassificerar text för att flagga olika typer av potentiellt skadligt innehåll i användarens frågor eller genererade svar. Microsoft 365 Copilot använder AI-baserade klassificerare och innehållsfilter. Flaggor leder till potentiella åtgärder, till exempel att inte returnera genererat innehåll till användaren eller omdirigera användaren till ett annat ämne. Metaprompting innebär att ge instruktioner till modellen för att vägleda dess beteende, inklusive så att systemet beter sig i enlighet med Microsofts AI-principer och användarnas förväntningar. Metaprompten kan till exempel innehålla en rad som "kommunicera på användarens valspråk".

  • Fråga berikning. I vissa fall kan en användares uppmaning vara tvetydig. När detta inträffar kan Microsoft 365 Copilot använda LLM för att skapa mer information i prompten för att se till att användarna får det svar de söker. Sådan snabb berikande förlitar sig inte på någon kunskap om användaren eller deras tidigare sökningar, utan i stället på LLM.

  • Åtgärder för användarcentrerad design och användarupplevelse. Användarcentrerad design och användarupplevelser är en viktig aspekt av Microsofts strategi för ansvarsfull AI. Målet är att rota produktdesignen i användarnas behov och förväntningar. När användarna interagerar med Microsoft 365 Copilot för första gången erbjuder vi olika beröringspunkter som hjälper dem att förstå systemets funktioner, avslöja för dem att Microsoft 365 Copilot drivs av AI och kommunicera begränsningar.

  • AI-avslöjande. Microsoft 365 Copilot tillhandahåller flera beröringspunkter för meningsfull AI-avslöjande där användare meddelas att de interagerar med ett AI-system samt möjligheter att lära sig mer om Microsoft 365 Copilot. När du till exempel använder Microsoft 365 Copilot i Word-appen ges AI-genererat innehåll tillsammans med meddelande om att AI-genererat innehåll kan innehålla fel. Genom att ge användarna den här kunskapen kan de undvika att förlita sig på AI-genererade utdata och lära sig mer om systemets styrkor och begränsningar.

  • Media proveniens. För alla bilder som skapats med Designer redigeringsfunktioner inifrån Microsoft 365 Copilot har vi implementerat autentiseringsuppgifter för innehåll, härkomst baserat på C2PA-standarden, för att hjälpa människor att identifiera om bilder har redigerats eller genererats med AI. Härkomstmetadata kan visas på webbplatsen för autentiseringsuppgifter för innehåll.

  • Feedback och löpande utvärdering. Den Microsoft 365 Copilot upplevelsen bygger på befintliga verktyg som gör att användarna kan skicka feedback om våra produkter. Användare kan skicka feedback om innehåll som genereras av Microsoft 365 Copilot med hjälp av fönstret som visas när du har valt knappar för tummen upp eller tummen ned för svar. Feedback som skickas av användare används för att förbättra våra erbjudanden som en del av vårt åtagande att förbättra produktprestanda. Kundadministratörer kan granska feedback som skickats i Administrationscenter för Microsoft 365. Vi förbättrar och testar även kontinuerligt prestanda för Microsoft 365 Copilot och specifika åtgärder som en del av vår pågående utvärdering och förbättring av tjänsten. Läs mer i Ge feedback om Microsoft Copilot med Microsoft 365-appar.

Vår strategi för att mappa, mäta och hantera risker fortsätter att utvecklas allt eftersom vi lär oss mer, och vi gör redan förbättringar baserat på feedback som vi har fått från kunderna.

Utvärdera och integrera Microsoft 365 Copilot för din organisation

Distribution & implementeringsoptimering

Microsoft tillhandahåller verktyg som Microsoft Copilot Instrumentpanel för Microsoft 365-kunder och rapporter i Administrationscenter för Microsoft 365. Dessa verktyg är utformade för att hjälpa organisationer att mäta användning, implementering och effekten av Microsoft 365 Copilot. Till exempel:

  • Microsoft 365 Copilot användningsrapport kan administratörer visa en sammanfattning av hur användarnas implementering, kvarhållning och engagemang är med Microsoft 365 Copilot. Mer information finns i Microsoft 365 Copilot användning.

  • Implementeringspoäng ger administratörer insikter om hur deras organisation fungerar med Microsoft 365 Copilot. Den ger en poäng på en 100-punktsskala, en instrumentpanelsvy över implementeringsdata & trender och ett verktyg för att skapa användarundersökningar för att samla in feedback.

  • Instrumentpanelen Experience Insights (förhandsversion) visar data över användningen för att ge en bättre överblick över en organisations upplevelse med Microsoft 365, inklusive insikter om utbildning, appar och tjänstdata och användarfeedback.

Läs mer om Microsoft 365 Copilot

Läs mer om ansvarsfull AI