Del via


Programkort: Microsoft 365 Copilot

Bemærk!

Fra den 17. februar 2026 er oplysningerne i gennemsigtighedsnoten for Microsoft 365 Copilot blevet flyttet over til denne artikel, og Gennemsigtighedsnote er blevet trukket tilbage.

Hvad er et program- eller platformkort?

Microsofts program- og platformkort er beregnet til at hjælpe dig med at forstå, hvordan vores AI-teknologi fungerer, de valg, programejere kan foretage, der påvirker programmets ydeevne og funktionsmåde, og vigtigheden af at overveje hele programmet, herunder teknologien, personerne og miljøet. Programkort oprettes til AI-programmer, og platformkort oprettes til AI-platformtjenester. Disse ressourcer kan understøtte udvikling eller udrulning af dine egne programmer og kan deles med brugere eller interessenter, der påvirkes af dem.

Som en del af sin forpligtelse til ansvarlig ai overholder Microsoft seks kerneprincipper: retfærdighed, pålidelighed og sikkerhed, beskyttelse af personlige oplysninger og sikkerhed, inkluderelse, gennemsigtighed og ansvarlighed. Disse principper er integreret i ansvarlig AI-Standard, som hjælper teams med at designe, bygge og teste AI-programmer. Program- og platformkort spiller en central rolle i driften af disse principper ved at tilbyde gennemsigtighed omkring funktioner, tilsigtede anvendelser og begrænsninger. For at få yderligere indsigt opfordres læserne til at udforske Microsofts rapport over ansvarlig AI-gennemsigtighed og enten Microsoft Enterprise AI Services Code of Conduct (for organisationer) eller afsnittet Ordensregler i Microsoft-serviceaftalen (for enkeltpersoner), som begge beskriver, hvordan de skal forholde sig ansvarligt til kunstig intelligens.

Oversigt

Microsoft 365 Copilot er et AI-drevet produktivitetsværktøj, der hjælper med at forbedre din kreativitet, produktivitet og færdigheder ved hjælp af store sprogmodeller og indhold, som du har adgang til. Det giver intelligent hjælp i realtid ved at arbejde sammen med populære Microsoft 365-apps og -tjenester, f.eks. Word, Excel, PowerPoint, Outlook, Teams og meget mere.

På arbejdet kan du f.eks. få Microsoft 365 Copilot opsummere et Teams-møde, du gik glip af. Derhjemme kan du bruge Microsoft 365 Copilot til at generere et slideshow ved hjælp af fotos fra din familieferie.

Du kan få flere oplysninger til organisationer i Microsoft 365 Copilot oversigt og Microsoft 365 Copilot hub. For enkeltpersoner skal du se Microsoft 365 Copilot hjælp og læring.

Nøgleord

Følgende tabel indeholder en ordliste over nøgleord, der er relateret til Microsoft 365 Copilot.

Vilkår Beskrivelse
Agents Agenter er designet til at automatisere og udføre forretningsprocesser ved hjælp af KUNSTIG INTELLIGENS baseret på foruddefinerede instruktioner og adgang til organisationsdata. De kan hjælpe eller handle uafhængigt på vegne af enkeltpersoner eller teams – lige fra enkle prompt-and-response-interaktioner til helt selvstændig opgaveudførelse. Du kan finde flere oplysninger om brugen af kunstig intelligens i copilotagenter direkte i disse tilbud.
Indhold af interaktioner Det ord, der bruges til at beskrive brugerens prompt og Microsoft 365 Copilot svar på denne prompt.
Prompt om beriget En prompt beriges, når der føjes yderligere instruktioner til prompten for at vejlede Microsoft 365 Copilot i at generere et mere specifikt og relevant svar.
Grundstødning Jordforbindelse refererer til processen med at levere inputkilder til LLM relateret til prompten. Ved at gøre det muligt for Microsoft 365 Copilot at få adgang til data, så de kan bruges som inputkilder, f.eks. data fra Microsoft Graph eller Bing, kan Microsoft 365 Copilot levere mere nøjagtige, kontekstafhængige relevante svar til brugerne.
Indeksering Microsoft bruger både leksikalsk og semantisk indeksering af Microsoft Graph-data til at jordreaktioner for Microsoft 365 Copilot i virksomhedsdata. Indeksering fortolker prompts for at oprette kontekstafhængige relevante svar.
Stor sprogmodel (LLM) Store sprogmodeller (LLMs) i denne kontekst er AI-modeller, der er oplært i store mængder tekstdata til at forudsige ord i sekvenser. LLMs er i stand til at udføre en række forskellige opgaver, f.eks. oprettelse af tekst, opsummering, oversættelse, klassificering og meget mere.
Microsoft Graph Microsoft Graph er gatewayen til data og intelligens i Microsoft 365. Den indeholder oplysninger om relationerne mellem brugere, aktiviteter og en organisations data.
Efterbehandling Behandlingen Microsoft 365 Copilot gør, når den har modtaget et svar fra LLM. Denne efterbehandling omfatter yderligere jordforbindelseskald til Microsoft Graph, ansvarlig AI, sikkerhed, overholdelse af angivne standarder og kontrol af beskyttelse af personlige oplysninger.
Behandling Behandling af en brugerprompt i Microsoft 365 Copilot omfatter flere trin, herunder ansvarlige AI-kontroller, for at hjælpe Microsoft 365 Copilot med at give relevante og handlingsvenlige svar.
Prompten En prompt er den tekst, der sendes til Microsoft 365 Copilot til at udføre en bestemt opgave eller angive oplysninger. En bruger kan f.eks. angive følgende prompt: Skriv en mail, der lykønsker mit team i slutningen af regnskabsåret.
Rød teamtest Teknikker, der bruges af eksperter til at vurdere begrænsninger og sårbarheder i et system og til at teste effektiviteten af planlagte afhjælpninger. Rød teamtest bruges til at identificere potentielle risici og adskiller sig fra systematisk måling af risici.
Svar Det indhold, der genereres af LLM og returneres til Microsoft 365 Copilot som svar på en prompt.
Ansvarlig AI Microsofts politik-, forsknings- og engineeringspraksisser, der er baseret på vores principper for kunstig intelligens og er driftsklar via vores ansvarlige AI-standard.

Vigtige funktioner eller egenskaber

De vigtigste funktioner og funktioner i følgende tabel beskriver, hvad Microsoft 365 Copilot er designet til at gøre, og hvordan det fungerer på tværs af understøttede opgaver.

Funktion Beskrivelse
Microsoft 365 Copilot i Word Microsoft 365 Copilot i Word transformerer skrivning med effektivitet og kreativitet , så brugerne kan oprette, opsummere, forstå, forfine og hæve dokumenter. Brugerne kan også bruge forbedrede funktioner, f.eks. visualisering og transformering af tekst til en tabel. Nogle andre funktioner omfatter også tilføjelse til eksisterende prompts, udarbejdelse af et dokument ved at referere til andre dokumenter og finde oplysninger om dokumenter.

Du kan få flere oplysninger under Ofte stillede spørgsmål om Copilot i Word.
Microsoft 365 Copilot i PowerPoint Microsoft 365 Copilot i PowerPoint giver brugerne mulighed for at oprette en ny præsentation ud fra en prompt eller Word fil ved hjælp af virksomhedsskabeloner. Chatfunktionen aktiverer kommandoen Oversigt og Q&A og lys giver brugerne mulighed for at tilføje slides, billeder eller foretage formateringsændringer i hele området. PowerPoint-filer kan også bruges til jordingsdata.

Du kan finde flere oplysninger under Ofte stillede spørgsmål om Copilot i PowerPoint.
Microsoft 365 Copilot i Excel Microsoft 365 Copilot i Excel hjælper brugerne med forslag til formler, diagramtyper og indsigt om data i regneark.

Du kan få flere oplysninger under Ofte stillede spørgsmål om Copilot i Excel.
Microsoft 365 Copilot i Outlook Microsoft 365 Copilot i Outlook hjælper med at administrere indbakken og skabe effektfuld kommunikation mere effektivt. Microsoft 365 Copilot i Outlook kan opsummere en mailtråd, foreslå handlingselementer, svar og opfølgningsmøder. Det kan også justere længden og tonen, når du udarbejder en mail.

Du kan få flere oplysninger under Ofte stillede spørgsmål om Copilot i Outlook.
Microsoft 365 Copilot i Teams Microsoft 365 Copilot i Teams kan opsummere samtaler, organisere vigtige diskussionspunkter og opsummere vigtige handlinger. Brugerne kan få svar på specifikke spørgsmål og få mere at vide om ting, de er gået glip af under møder eller chat

Du kan få flere oplysninger under Ofte stillede spørgsmål om Copilot i Microsoft Teams.
Microsoft 365 Copilot i Loop Microsoft 365 Copilot i Loop giver brugerne mulighed for at oprette indhold, der kan forbedres i et samarbejde via direkte redigering eller afgrænsning af Copilot.

Du kan få flere oplysninger under Ofte stillede spørgsmål om Copilot i Loop.
Microsoft 365 Copilot i videoafspilleren til Microsoft Clipchamp Microsoft 365 Copilot i Microsoft Clipchamp videoafspiller hjælper med at hente oplysninger fra en hvilken som helst video med en transskription. Microsoft 365 Copilot i Clipchamp videoafspiller kan give en oversigt over videoen, besvare specifikke spørgsmål, hurtigt gå til bestemte emner eller diskussionspunkter og identificere opfordringer til handling.

Du kan få flere oplysninger under Ofte stillede spørgsmål om Copilot i Clipchamp videoafspiller.
Microsoft 365 Copilot i Whiteboard Microsoft 365 Copilot i Whiteboard hjælper med at kickstarte ideationsprocessen for at generere, kategorisere og opsummere ideer.

Du kan få flere oplysninger under Ofte stillede spørgsmål om copilot i Whiteboard.
Microsoft 365 Copilot i OneNote Microsoft 365 Copilot i OneNote giver brugerne mulighed for at udarbejde planer, generere ideer, oprette lister og organisere oplysninger, der kan hjælpe dem med at finde det, de har brug for, i OneNote-appen.

Du kan få flere oplysninger under Ofte stillede spørgsmål om Copilot i OneNote.
Microsoft 365 Copilot i Microsoft Forms Microsoft 365 Copilot i Microsoft Forms giver AI-drevet hjælp til undersøgelser, quizzer og afstemninger. Copilot kan hjælpe brugerne med at udarbejde, gennemse, sende og analysere resultater.

Du kan få flere oplysninger under Ofte stillede spørgsmål om copilot i formularer.
Microsoft 365 Copilot Chat Microsoft 365 Copilot Chat (tidligere kaldet Business Chat) kombinerer styrken ved modeller med store sprog med internettet, arbejdsindhold og -kontekst og andre apps for at hjælpe brugerne med at udarbejde indhold, indhente det, der er gået tabt, og få svar på spørgsmål via prompts.

Du kan få flere oplysninger under Ofte stillede spørgsmål om Microsoft 365 Copilot Chat.
Microsoft 365 Copilot i RTF-editor i SharePoint Microsoft 365 Copilot i RTF-editor i Microsoft SharePoint forenkler oprettelse af indhold på SharePoint-sider og -indlæg. Med Copilot kan du omskrive tekst, justere tonen, komprimere oplysninger og uddybe ideer.

Du kan finde flere oplysninger under Ofte stillede spørgsmål om Copilot i SharePoint.
Microsoft 365 Copilot i OneDrive Microsoft 365 Copilot i OneDrive er en innovativ AI-drevet assistent, der er designet til at hjælpe dig med at interagere med dine dokumenter ved at udtrække oplysninger, sammenligne de vigtigste forskelle, opsummere filer og generere indsigt.

Du kan få flere oplysninger under Ofte stillede spørgsmål om Copilot i OneDrive.
kort med Microsoft 365 Copilot øjekast Oversigtskort giver et hurtigt eksempel på arbejdsenheder, f.eks. dokumenter, for at vurdere relevans eller genkaldelse. Du kan få adgang til dem ved at holde markøren over filer under fanen Søg i Microsoft 365 Copilot app.
Power Platform Connectors Med Power Platform Connectors kan kunder få adgang til data fra en samling af virksomheds- og personlige produktivitetsprogrammer i Microsoft 365 Copilot oplevelse.
Microsoft 365 Copilot connectors Microsoft 365 Copilot Connectors giver dig mulighed for at indføde dine ustrukturerede line of business-data i Microsoft Graph, så Microsoft 365 Copilot kan have grund til hele virksomhedsindholdet.

Du kan få flere oplysninger under oversigt over Microsoft 365 Copilot connectors.
Microsoft Purview Microsoft Purview er en løsning, der hjælper organisationer med at administrere og beskytte deres data. Den leverer en samlet platform til datastyring, beskyttelse af oplysninger, risikostyring og overholdelse af angivne standarder. Kunder kan udvide Microsoft Purview-funktioner, der leveres af kundernes Microsoft-abonnementer (f.eks. Microsoft 365 E3- eller E5-abonnementer), til at Microsoft 365 Copilot data og interaktioner.
Microsoft 365 Copilot-optimering Microsoft 365 Copilot-optimering gør det muligt for organisationer at finjustere store sprogmodeller ved hjælp af deres egne lejerdata. Disse modeller kan bruges til at udføre domænespecifikke opgaver baseret på organisationens unikke viden.

Du kan få flere oplysninger under Ofte stillede spørgsmål om Copilot-optimering.
Microsoft Copilot Studio Microsoft Copilot Studio er en effektiv platform til oprettelse af sikre, skalerbare og intelligente agenter, der fungerer på tværs af Microsoft 365- og line of business-systemer.

Du kan få flere oplysninger i Copilot Studio oversigt.
Funktionen Agent Builder i Microsoft 365 Copilot Agent Builder-funktionen i Microsoft 365 Copilot indeholder en enkel grænseflade, som du kan bruge til hurtigt og nemt at bygge deklarative agenter enten ved hjælp af et naturligt sprog eller manuelt.

Du kan få flere oplysninger under Agent Builder i Microsoft 365 Copilot.
Microsoft 365 Copilot med computerbrugere Microsoft 365 Copilot med en computerbrugsagent kan du automatisere browser- eller skrivebordsopgaver, så dine prompter kan gøre brug af mere af dit indhold og din kontekst. Da agenten kan udføre opgaver på dine vegne, kan der være en øget risiko for systemsikkerhed eller beskyttelse af personlige oplysninger. For at afhjælpe denne risiko har agenten flere sikkerhedsforanstaltninger, herunder modeldrevne sikkerhedskontroller af indhold og handlinger samt lejeradministratorkontroller, der aktiverer eller deaktiverer den bruger, der bruger computeren, og begrænser, hvilke websteder og domæner agenten kan få adgang til. Vi anbefaler, at du anvender disse kontrolelementer, og at du vurderer brugen af agenten.

Udvidelse og tilpasning

Agent Builder-funktionen i Microsoft 365 Copilot og Copilot Studio er værktøjer til oprettelse af sikre, skalerbare og intelligente agenter, der fungerer på tværs af Microsoft 365- og line of business-systemer. Begge værktøjer giver dig mulighed for at oprette agenter, men de tjener forskellige behov. Brug funktionen Agent Builder, hvis du hurtigt vil oprette en agent for dig selv eller et lille team ved hjælp af naturligt sprog og eksisterende indhold. Vælg Copilot Studio, hvis du har brug for en agent til en bredere målgruppe, eller hvis agenten kræver avancerede funktioner, f.eks. arbejdsprocesser med flere trin eller brugerdefinerede integrationer. Du kan få flere oplysninger under Vælg mellem Microsoft 365 Copilot og Copilot Studio til at bygge agenten og deklarative agenter til Microsoft 365 Copilot.

For udviklere indeholder SDK til Microsoft 365-agenter værktøjer til at bygge agenter, der arbejder tæt sammen med Microsoft 365-apps og -tjenester.

Tiltænkt anvendelse

Microsoft 365 Copilot kan bruges i flere scenarier på tværs af forskellige brancher. Eksempler på use cases omfatter:

  • Chat og samtaleinteraktion og oprettelse: Brugerne kan interagere med Microsoft 365 Copilot Chat og generere svar fra dokumenter, der er tillid til, f.eks. intern virksomhedsdokumentation eller teknisk supportdokumentation.
  • Søg: Brugerne kan søge i kildedokumenter, der er tillid til, f.eks. intern firmadokumentation.
  • Sammendrag: Brugerne kan indsende indhold, der skal opsummeres for foruddefinerede emner, der er indbygget i programmet. Eksempler omfatter opsummering af Teams-chats, mails, websider og Word dokumenter.
  • Skriver hjælp til bestemte emner: Brugerne kan oprette nyt indhold eller omskrive indhold, der er sendt af brugeren, som et skrivehjælpemiddel til virksomhedsindhold eller foruddefinerede emner. Det kan f.eks. være udarbejdelse af mails i Microsoft Outlook eller skrivning af indhold i Microsoft Word.
  • Billedtekster eller transskription: Brugerne kan transskribere lydfiler til tekst for at få en forståelse af et naturligt sprog eller analyseopgaver, f.eks. opsummering. Eksempler omfatter Teams-mødeafskrifter og -videoer i Microsoft Clipchamp videoafspiller.

Microsoft leverer detaljeret vejledning med fokus på almindelige use cases og scenarier for at hjælpe kunderne med at fremskynde indførelsen af Microsoft 365 Copilot funktioner i deres organisationer. Få mere at vide på Microsoft Scenario Library – Microsoft Adoption.

Modeller og oplæringsdata

Microsoft 365 Copilot udnytter en række AI-modeller til at styrke den oplevelse, som brugerne ser. Nogle eksempler omfatter OpenAI's Generative Pre-Trained Transformers (GPT) leveret af Azure OpenAI Service, såsom GPT-4 og GPT-5-serien modeller, og Anthropic's Claude Opus 4.5 og Claude Sonnet 4.5. Hvis du vil vide mere om de data, der bruges til at oplære modellerne bag Microsoft 365 Copilot, skal du se de tilknyttede modelkort for at finde de relevante dataoversigtskort.

Microsoft 365 Copilot bruger en kombination af VM'er fra Azure OpenAI Service og Antropisk til at opsummere, forudsige og generere indhold. Dette giver os mulighed for at matche de specifikke behov for hver funktion – f.eks. hastighed, kreativitet – til den rigtige model, så Microsoft 365 Copilot kan yde intelligent hjælp i realtid, der gør det muligt for brugerne at forbedre deres kreativitet, produktivitet og færdigheder. Du kan finde flere oplysninger om de LLM'er, der leveres til Microsoft af OpenAI, i deres offentlige dokumentation på Models – OpenAI API.

Ydeevne

I mange AI-systemer defineres ydeevnen ofte i forhold til nøjagtighed – dvs. hvor ofte AI-systemet tilbyder en korrekt forudsigelse eller et korrekt output. Med Microsoft 365 Copilot kan to forskellige brugere se på det samme output og have forskellige meninger om, hvor nyttigt eller relevant det er, hvilket betyder, at ydeevnen for disse systemer skal defineres mere fleksibelt. Vi anser generelt ydeevnen for at betyde, at programmet fungerer som forventet af brugerne.

Sådan fungerer Microsoft 365 Copilot

  • Microsoft 365 Copilot modtager en inputprompt fra en bruger i en app, f.eks. Word eller PowerPoint. Du kan se en liste over understøttede sprog under Understøttede sprog for Microsoft 365 Copilot.
  • Microsoft 365 Copilot behandler derefter prompten, hvilket forbedrer promptens specificitet, for at hjælpe brugeren med at få svar, der er relevante og kan handles på for deres specifikke opgave. Prompten kan indeholde tekst fra inputfiler eller andet indhold, der registreres af Microsoft 365 Copilot ved hjælp af Microsoft Graph, og Microsoft 365 Copilot sender denne prompt til LLM til behandling. Microsoft 365 Copilot kun få adgang til data, som en enkelt bruger har eksisterende adgang til, f.eks. på baggrund af eksisterende rollebaserede adgangskontrolelementer i Microsoft 365.
  • Microsoft 365 Copilot tager svaret fra LLM og behandler det efter processen. Denne efterbehandling omfatter andre jordforbindelseskald til Microsoft Graph, ansvarlige AI-kontroller, f.eks. klassificeringer af indhold, sikkerhed, kontrol af overholdelse af angivne standarder og beskyttelse af personlige oplysninger og oprettelse af kommandoer.
  • Microsoft 365 Copilot returnerer svaret på appen, hvor brugeren kan gennemse og vurdere svaret.

Dataene krypteres, mens de gemmes, og de bruges ikke til at oplære antropiske eller Azure OpenAI Service-foundation-CHAT'er, herunder dem, der bruges af Microsoft 365 Copilot. Du kan få flere oplysninger om dette under Data, Beskyttelse af personlige oplysninger og Sikkerhed for Microsoft 365 Copilot.

Sådan genererer Microsoft 365 Copilot svar uden webindhold eller organisationsdata

Microsoft 365 Copilot kræver ikke, at webindhold eller organisationsdata giver et svar, men disse oplysninger kan hjælpe med at forbedre kvaliteten, nøjagtigheden og relevansen af svaret. Når Microsoft 365 Copilot svarer uden webdata eller organisationsdata, er de kun afhængige af deres CHAT'er for at forstå prompter og generere svar. Processen omfatter fortolkning af inputtet, udnyttelse af modellens interne videnbase og finjustering af svaret for at gøre den kontekstafhængig passende.

Begrænsninger

Det er afgørende at forstå Microsoft 365 Copilot begrænsninger for at finde ud af, om de bruges inden for sikre og effektive grænser. Selvom vi opfordrer kunderne til at udnytte Microsoft 365 Copilot i deres innovative løsninger eller programmer, er det vigtigt at bemærke, at Microsoft 365 Copilot ikke var designet til alle mulige scenarier. Vi opfordrer brugerne til enten at henvise til Microsoft Enterprise AI Services Code of Conduct (for organisationer) eller afsnittet Ordensregler i Microsoft-serviceaftalen (til enkeltpersoner) samt følgende overvejelser, når de vælger en use case:

  • Kompatibilitet: Selvom Microsoft 365 Copilot er designet til at fungere problemfrit med Microsoft 365-programmer, kan der være begrænsninger eller problemer med kompatibilitet i visse miljøer, især med tredjepartsapps (ikke-Microsoft) og tilpassede eller ikke-standardkonfigurationer.

  • Tilpasning og fleksibilitet: Selvom Microsoft 365 Copilot kan tilpasses, er der begrænsninger for, hvor meget det kan tilpasses, så det passer til specifikke organisatoriske behov eller arbejdsprocesser. Organisationer kan opleve, at visse funktioner eller svar er stive eller ikke helt i overensstemmelse med organisationens krav.

  • Afhængighed af internetforbindelse: Microsoft 365 Copilot er afhængig af, at internetforbindelsen fungerer. Enhver afbrydelse i forbindelsen kan påvirke tjenestens tilgængelighed og ydeevne.

  • Oplæring og indføring af brugere: Effektiv brug af Microsoft 365 Copilot kræver, at brugerne forstår funktionerne og begrænsningerne. Der kan være en læringskurve, og brugerne skal oplæres til effektivt at interagere med og drage fordel af tjenesten.

  • Ressourceintensitet: Kørsel af avancerede AI-modeller kræver betydelige databehandlingsressourcer, hvilket kan påvirke ydeevnen, især i ressourcebegrænsede miljøer. Brugerne kan opleve ventetider eller problemer med ydeevnen i spidsbelastningstider.

  • Bias, stereotyping og ikke-jordet indhold: På trods af intensiv træning af OpenAI og Anthropic og Microsofts implementering af ansvarlige AI-kontrolelementer i både brugerprompter og LLM-output, er AI-tjenester fejlbare og probabilistiske. Det gør det udfordrende at blokere alt upassende indhold på en omfattende måde, hvilket fører til potentielle forskelle, stereotyper eller ugrundet indhold i AI-genereret indhold. Du kan få mere at vide om de kendte begrænsninger for AI-genereret indhold i Gennemsigtighedsnote for Azure OpenAI, som indeholder referencer til de virtuelle maskiner bag Microsoft 365 Copilot. Du kan finde flere oplysninger om de kendte begrænsninger for AI-genereret indhold fra antropiske modeller i Systemkort: Claude Sonnet 4.5.

  • Understøttede sprog: I øjeblikket understøtter Microsoft 365 Copilot færre sprog end Microsoft 365. Hvis det sprog, du bruger eller anmoder om i din prompt, ikke understøttes i øjeblikket, får du vist en fejlmeddelelse. Du kan få flere oplysninger under Understøttede sprog til Microsoft 365 Copilot.

  • Potentiel betydelig fysisk eller psykologisk skade på en person. Undgå brug eller misbrug af systemet, der kan medføre betydelig fysisk eller psykologisk skade på en person. For eksempel har scenarier, der diagnosticerer patienter eller ordinerer medicin, potentiale til at forårsage betydelig skade.

  • Følgevirkning på livsmuligheder eller juridiske status. Undgå brug eller misbrug af systemet, der kan have følger for livsmuligheder eller juridisk status. Eksempler omfatter scenarier, hvor AI-systemet kan påvirke en persons juridiske status, juridiske rettigheder eller deres adgang til kredit, uddannelse, beskæftigelse, sundhedspleje, bolig, forsikring, sociale ydelser, tjenester, muligheder eller de vilkår, hvorpå de leveres.

  • Domæner eller brancher med høj interesse. Overvej nøje use cases i domæner eller brancher med høj interesse. Eksempler omfatter, men er ikke begrænset til medicinsk eller økonomisk.

Evalueringer

Evalueringer af ydeevne og sikkerhed vurderer, om AI-programmer fungerer pålideligt og sikkert, ved at undersøge faktorer som jordforbindelse, relevans og sammenhæng, samtidig med at man identificerer risikoen for at generere skadeligt indhold. Følgende evalueringer blev udført med sikkerhedskomponenter, der allerede er på plads, som også er beskrevet i Sikkerhedskomponenter og afhjælpninger.

Evalueringer af ydeevne og kvalitet

Evaluering af ydeevnen for AI-programmer er afgørende for at forbedre deres pålidelighed i virkelige programmer. Målepunkter, f.eks. svarrelevans, nøjagtighed og jordforbindelse, hjælper med at vurdere nøjagtigheden og konsekvensen af AI-genererede output, så de faktisk understøttes i scenarier med jordbaseret indhold, kontekstuelt passende og logisk struktureret. For Microsoft 365 Copilot udfører vi jævnligt strenge kvalitetsevalueringer på tværs af flere målepunkter, f.eks. relevans, nøjagtighed og jordforbindelse.

Metoder til evaluering af ydeevne og kvalitet

Microsoft 365 Copilot blev evalueret ved hjælp af tekst- og billedbaserede scenarier, der afspejler, hvordan brugerne arbejder på tværs af Microsoft 365-apps. Evalueringer af målepunkter, f.eks. jordforbindelse, svarkvalitet og citatrelevans, der bruges etablerede LLM-as-judge-metoder. Offlinetestsæt omfattede faktuelle forespørgsler, forståelse af flere dokumenter, opsummering og repræsentative virksomhedsscenarier. Evaluatorer vurderede, om svarene var faktuelt understøttet, kontekstuelt hensigtsmæssige og logisk strukturerede. Ideelle resultater afspejler præcis grundforbindelse, tydelig begrundelse og ensartet ydeevne på tværs af variationer af den samme opgave. Ikke-optimale resultater omfatter ikke-understøttede krav, manglende eller irrelevante citater eller inkonsistente output under lignende prompts.

Risiko- og sikkerhedsevalueringer

Evaluering af potentielle risici, der er forbundet med AI-genereret indhold, er afgørende for at sikre mod indholdsrisici med varierende grader af alvorsgrad. Dette omfatter evaluering af et AI-systems forholdsord til generering af skadeligt indhold eller test af sårbarheder i forbindelse med jailbreak-angreb. For Microsoft 365 Copilot er følgende nogle af de risiko- og sikkerhedsevalueringer, vi gennemførte:

  • Had og uretfærdighed
  • Seksuel
  • Vold
  • Selvbelastende
  • Beskyttet materiale
  • Indirekte fængselsbrud
  • Direkte jailbreak
  • Kodesårbarhed
  • Ikke-jordiske attributter

Metoder til evaluering af risici og sikkerhed

Risiko- og sikkerhedsevalueringer brugte tekstbaserede adversarial prompts og automatiserede klassificeringer til at vurdere potentielle skader, herunder had, seksuelt indhold, vold, selvbelastende handling, beskyttet materialelækage, forsøg på jailbreak og ugrundede attributter. Test kombinerede LLM-dommer-evalueringer med klassificeringsbaseret registrering og manuel test, hvor det er nødvendigt. Ideelle resultater omdirigerer eller afviser usikre anmodninger og bevarer ensartet grænseopbevaring på tværs af promptvariationer. De ikke-optimale resultater omfatter at producere skadeligt indhold, reagere inkonsekvent på adversarial input eller udvise følsomhed over for jailbreak-teknikker.

Sikkerhedskomponenter og -afhjælpninger

Da vi identificerede potentielle risici og misbrug gennem processer som rød teamtest og målte dem, udviklede vi afhjælpninger for at reducere risikoen for skade. På følgende liste beskriver vi nogle af disse afhjælpninger. Vi fortsætter med at evaluere de Microsoft 365 Copilot oplevelser for at forbedre produktets ydeevne og afhjælpninger.

  • Faseinddelt udgivelse, løbende evaluering. Vi er forpligtet til løbende at lære og forbedre vores ansvarlige tilgang til kunstig intelligens, efterhånden som vores teknologier og brugeradfærd udvikler sig. Vi foretager jævnligt ændringer af Microsoft 365 Copilot for at forbedre produktets ydeevne, forbedre eksisterende afhjælpninger og implementere nye afhjælpninger som svar på vores erfaringer.

  • Grundforbindelse i forretningsdata. En kendt risiko ved store sprogmodeller er deres mulighed for at generere ikke-jordet indhold – indhold, der ser korrekt ud, men som ikke findes i kildematerialer. En vigtig afhjælpning i Microsoft 365 Copilot er at basere AI-genereret indhold i relevante forretningsdata, som brugeren har adgang til, baseret på deres tilladelser. Baseret på prompten leveres Microsoft 365 Copilot f.eks. med relevante forretningsdokumenter for at basere sit svar i disse dokumenter. Men når du opsummerer indhold fra forskellige kilder, kan Microsoft 365 Copilot inkludere oplysninger i svaret, der ikke findes i inputkilderne. Det kan med andre ord give resultater uden grund. Brugerne skal altid være forsigtige og bruge deres bedste dømmekraft, når de bruger output fra Microsoft 365 Copilot. Vi har truffet flere foranstaltninger for at mindske risikoen for, at brugerne kan stole for meget på ikke-jordbaseret AI-genereret indhold. Hvor det er muligt, indeholder svar i Microsoft 365 Copilot, der er baseret på forretningsdokumenter, referencer til kilderne, så brugerne kan bekræfte svaret og få mere at vide. Brugerne får også eksplicit besked om, at de interagerer med et AI-system, og de rådes til at kontrollere kildematerialet for at hjælpe dem med at bruge deres bedste dømmekraft.

  • AI-baserede klassificeringer og metapromptering for at afhjælpe potentielle risici eller misbrug. Brugen af LLMs kan medføre problematisk indhold, der kan medføre skade. Eksempler kan omfatte output relateret til selvbesigtigelse, vold, grafisk indhold, biosikkerhedsproblemer, beskyttet materiale, unøjagtige oplysninger, hadefuld tale eller tekst, der kan relatere til ulovlige aktiviteter. Klassificeringer som dem, der er tilgængelige i Azure ai-indholdssikkerhed og metapromptering, er to eksempler på afhjælpninger, der er implementeret i Microsoft 365 Copilot for at hjælpe med at reducere risikoen for disse typer indhold. Klassificeringer klassificerer tekst for at markere forskellige typer potentielt skadeligt indhold i prompter eller genererede svar. Microsoft 365 Copilot bruger AI-baserede klassificeringer og indholdsfiltre. Flag fører til potentielle afhjælpninger, f.eks. hvis der ikke returneres genereret indhold til brugeren, eller brugeren omdirigeres til et andet emne. Microsoft tilbyder visse kontrolelementer til indholdsfiltrering for administratorer og brugere, hvor filtrering af potentielt skadeligt eller følsomt indhold i Microsoft 365 Copilot Chat ikke opfylder deres behov. Metapromptering omfatter at give instruktioner til modellen for at vejlede dens funktionsmåde, herunder så systemet fungerer i overensstemmelse med Microsofts AI-principper og brugerforventninger. Metaprompten kan f.eks. indeholde en linje, f.eks. "kommunikere på brugerens valgte sprog".

  • Hurtig berigelse. I nogle tilfælde kan en brugers prompt være tvetydig. Når dette sker, kan Microsoft 365 Copilot bruge LLM til at hjælpe med at udarbejde flere oplysninger i prompten for at sikre, at brugerne får det svar, de søger efter. En sådan hurtig berigelse er ikke afhængig af nogen viden om brugeren eller deres tidligere søgninger, men i stedet på LLM.

  • Brugercentreret design og brugeroplevelser. Brugercentreret design og brugeroplevelser er et vigtigt aspekt af Microsofts tilgang til ansvarlig AI. Målet er at rodfæste produktdesign i brugernes behov og forventninger. I takt med at brugerne interagerer med Microsoft 365 Copilot for første gang, tilbyder vi forskellige berøringspunkter, der er designet til at hjælpe dem med at forstå systemets funktioner, oplyse dem om, at Microsoft 365 Copilot er drevet af kunstig intelligens, og kommunikere begrænsninger.

  • AI-afsløring. Microsoft 365 Copilot indeholder flere berøringspunkter til meningsfuld afsløring af kunstig intelligens, hvor brugerne får besked om, at de interagerer med et AI-system, samt muligheder for at få mere at vide om Microsoft 365 Copilot. Når du f.eks. bruger Microsoft 365 Copilot i Word-appen, får ai-genereret indhold ved siden af meddelelsen om, at AI-genereret indhold kan indeholde fejl. Hvis du giver brugerne denne viden, kan det hjælpe dem med at undgå at stole for meget på AI-genererede output og få mere at vide om systemets styrker og begrænsninger.

  • Media proveniens. For alle billeder, der er oprettet med Designer redigeringsfunktioner inde fra Microsoft 365 Copilot, har vi implementeret legitimationsoplysninger for indhold, oprindelse baseret på C2PA-standarden, for at hjælpe folk med at identificere, om billeder blev redigeret eller genereret med kunstig intelligens. Oprindelsesmetadata kan ses på webstedet med legitimationsoplysninger til indhold.

  • Feedback og løbende evaluering. Den Microsoft 365 Copilot oplevelse bygger på eksisterende værktøjer, der giver brugerne mulighed for at indsende feedback om vores produkter. Brugerne kan sende feedback om indhold, der genereres af Microsoft 365 Copilot, ved hjælp af den rude, der vises, når de har valgt tommelfinger op- eller tommelfinger nedad-knapper i svar. Feedback indsendt af brugere bruges til at forbedre vores tilbud som en del af vores forpligtelse til at forbedre produktydeevnen. Kundeadministratorer kan gennemse feedback, der er sendt i Microsoft 365 Administration. Vi forbedrer og tester også løbende ydeevnen af Microsoft 365 Copilot og specifikke afhjælpninger som en del af vores løbende evaluering og forbedring af tjenesten. Få mere at vide under Feedback om Microsoft Copilot med Microsoft 365-apps.

Vores tilgang til kortlægning, måling og administration af risici vil fortsat udvikle sig, efterhånden som vi lærer mere, og vi foretager allerede forbedringer baseret på feedback, vi har modtaget fra kunder.

Bedste praksis for installation og implementering af Microsoft 365 Copilot

Ansvarlig kunstig intelligens er en delt forpligtelse mellem Microsoft og microsofts kunder. Selvom Microsoft bygger AI-systemer med sikkerhed, retfærdighed og gennemsigtighed centralt, spiller kunderne en vigtig rolle i forbindelse med udrulning og anvendelse af disse teknologier ansvarligt i deres egne kontekster. For at understøtte dette partnerskab tilbyder vi følgende bedste praksis for udrulningsmaskiner og slutbrugere for at hjælpe kunderne med at implementere ansvarlig ai effektivt.

Installatorer og slutbrugere skal:

  • Vær forsigtig, og evaluer resultater, når du bruger Microsoft 365 Copilot til følgebeslutninger eller på følsomme områder: Følgebeslutninger er dem, der kan have en juridisk eller betydelig indvirkning på en persons adgang til uddannelse, beskæftigelse, finansielle ydelser, offentlige ydelser, sundhedspleje, boliger, forsikringer, juridiske tjenester eller som kan medføre fysisk, psykologisk eller økonomisk skade. Følsomme områder – f.eks. finansielle tjenesteydelser, sundhedspleje og boliger – kræver særlig pleje på grund af risikoen for uforholdsmæssige konsekvenser for forskellige grupper af mennesker. Når du bruger kunstig intelligens til beslutninger på disse områder, skal du sørge for, at berørte interessenter kan forstå, hvordan beslutninger træffes, appellerer og opdaterer relevante inputdata.

  • Evaluer juridiske og lovmæssige overvejelser: Kunder skal evaluere potentielle specifikke juridiske og lovmæssige forpligtelser, når de bruger AI-tjenester og -løsninger, hvilket muligvis ikke er hensigtsmæssigt til brug i alle brancher eller scenarier. Derudover er AI-tjenester eller -løsninger ikke designet til og må ikke bruges på måder, der er forbudt i henhold til gældende servicebetingelser og relevante ordensregler.

  • Tillad henvisninger til webindhold. Hvis Microsoft 365 Copilot kan referere til webindhold, kan det forbedre kvaliteten, nøjagtigheden og relevansen af Microsoft 365 Copilot svar, hvor et svar kan drage fordel af aktuelle, offentlige oplysninger fra internettet. Bemærk dog, at når Microsoft 365 Copilot refererer til webindhold, gør det det via Bing Search-tjenesten, og praksis for datahåndtering for Bing Search forespørgsler adskiller sig fra den måde, data håndteres af Microsoft 365 Copilot på. Brugen af Bing er omfattet af Microsoft-serviceaftalen mellem hver bruger og Microsoft sammen med Microsofts erklæring om beskyttelse af personlige oplysninger.

  • Udvid jordforbindelse i Microsoft Graph. Microsoft 365 Copilot bruger data fra Microsoft Graph til at ground response i organisationsspecifikke data, f.eks. mails, chats, filer og kalendere. Ved at udvide Microsoft Graph med organisationsdata fra kilder som CRM-systemer eller eksterne fillagre kan organisationer inkludere yderligere kontekstspecifikke, relevante oplysninger, der yderligere forbedrer richness og nøjagtigheden af Microsoft 365 Copilot svar.

Slutbrugere skal:

Hvis du vil forbedre ydeevnen i forhold til nøjagtigheden af Microsoft 365 Copilot output, anbefaler vi, at organisationer overvejer følgende:

  • Skriv gode prompts. Det er vigtigt at skrive gode prompter for at få bedre resultater med Microsoft 365 Copilot. Ligesom der er teknikker til at hjælpe folk med at kommunikere effektivt med et menneske, er der retningslinjer, der kan hjælpe brugerne med at få bedre resultater med Microsoft 365 Copilot, når de skriver prompter. Du kan f.eks. inkludere detaljer, strukturprompter, angive positive instruktioner, gentage og generere igen og altid gennemse og bekræfte AI-genererede svar. Du kan få flere oplysninger under Få bedre resultater med Copilot-prompt.

  • Udfør menneskeligt tilsyn, når det er relevant: Menneskelig overvågning er en vigtig sikkerhedsforanstaltning, når der interageres med AI-systemer. Selvom vi løbende forbedrer vores AI-systemer, kan kunstig intelligens stadig lave fejl. De genererede output kan være unøjagtige, ufuldstændige, forudindtaget, forkert justeret eller irrelevante i forhold til dine tilsigtede mål. Dette kan ske på grund af forskellige årsager, f.eks. tvetydighed i input eller begrænsninger i de underliggende modeller. Brugerne bør derfor gennemse de svar, der genereres af Microsoft 365 Copilot, og bekræfte, at de opfylder deres forventninger og krav.

  • Vær opmærksom på risikoen for overreeliance: Der forekommer overreeliance på kunstig intelligens, når brugerne accepterer forkerte eller ufuldstændige AI-output, primært fordi fejl i AI-output kan være svære at registrere. For slutbrugeren kan overreaktion resultere i nedsat produktivitet, tab af tillid, produktafgivelse, økonomisk tab, psykologisk skade, fysisk skade blandt andre. (en læge accepterer f.eks. en forkert AI-output). For Microsoft 365 Copilot hjælper vi med at afhjælpe denne risiko ved at føje ansvarsfraskrivelser til vores produkter, men brugerne bør stadig sørge for at gennemse nøjagtigheden af svarene.

  • Vær forsigtig, når du designer agentisk kunstig intelligens i følsomme domæner: Brugerne skal være forsigtige, når de designer og/eller udruller agentiske AI-systemer på følsomme domæner, hvor agenthandlinger ikke kan fortrydes eller i høj grad følger heraf. Der skal også træffes yderligere forholdsregler, når du opretter selvbetjent kunstig intelligens som beskrevet yderligere i enten Microsoft Enterprise AI Services Code of Conduct (for organisationer) eller afsnittet Code Conduct i Microsoft-serviceaftalen (for enkeltpersoner).

Deployere skal:

Microsoft indeholder værktøjer som Microsoft Copilot Dashboard til Microsoft 365-kunder og rapporter i Microsoft 365 Administration. Disse værktøjer er udviklet til at hjælpe organisationer med at måle brug, implementering og virkningen af Microsoft 365 Copilot. Det kan f.eks. være:

  • Microsoft 365 Copilot forbrugsrapport giver administratorer mulighed for at få vist en oversigt over, hvordan brugernes indføring, opbevaring og engagement er med Microsoft 365 Copilot til at administrere og optimere licenser. Du kan få flere oplysninger under Microsoft 365 Copilot brug.
  • Microsoft Copilot Dashboard giver ledere, analytikere og stedfortrædere adgang til færdigbyggede rapporter om bred brug af Microsoft 365 Copilot og Copilot Chat til at måle implementering og indvirkning. Du kan få flere oplysninger under Opret forbindelse til Microsoft Copilot Dashboard til Microsoft 365-kunder.
  • Copilot Business Impact er tilgængelig i Viva Insights gør det muligt for analytikere at sammenligne brugen af Microsoft 365 Copilot med forretningsmetrik for at forstå forretningsværdien. Du kan få flere oplysninger i Copilot-rapport over indvirkning på virksomheder.

Få mere at vide om Microsoft 365 Copilot

Vi anbefaler, at du gennemser følgende dokumentation for at få yderligere vejledning i ansvarlig brug af Microsoft 365 Copilot:

Få mere at vide om ansvarlig ai