Bemærk
Adgang til denne side kræver godkendelse. Du kan prøve at logge på eller ændre mapper.
Adgang til denne side kræver godkendelse. Du kan prøve at ændre mapper.
Disse ofte stillede spørgsmål forklarer funktionerne, brugen og sikkerhedsforanstaltningerne for AI-drevne godkendelsesfaser (AI-godkendelser) i Microsoft Copilot Studio. AI-godkendelser gør det muligt for et agentflow automatisk at godkende eller afvise anmodninger baseret på foruddefinerede kriterier, samtidig med at det sikres, at mennesker fortsat har kontrol over vigtige beslutninger. Her er nogle almindelige spørgsmål og svar om denne funktion.
Hvad er AI-godkendelser?
AI-godkendelser er intelligente, automatiserede beslutningstrin i arbejdsprocesser til godkendelse. AI-godkendelser bruger AI (Azure OpenAI-modeller eller -modeller, som du kan hente fra Azure AI Foundry) til at evaluere godkendelsesanmodninger i forhold til dine forretningsregler og returnere en "Godkendt" eller "Afvist" beslutning med en begrundelse.
Hvad er funktioner til AI-godkendelser?
I modsætning til grundlæggende regelbaseret automatisering kan AI-godkendelser fortolke ustrukturerede data og komplekse dokumenter (f.eks. PDF-filer eller billeder, der er knyttet til en anmodning) og anvende nuanceret logik til at træffe en beslutning. En AI-godkendelse kan f.eks. læse en skriftlig begrundelse, kontrollere, om der er politiknøgleord, og derefter beslutte.
Ai-godkendelsesfaser kan også kombineres med menneskelige faser, så mens AI håndterer rutinemæssige beslutninger, så holder folk stadig tilsyn med og afslutter kritiske eller ekstraordinære tilfælde. Ai-godkendelser automatiserer kort sagt gentagne ja/nej-beslutninger i en proces, så arbejdsprocesser fremskyndes uden at fjerne menneskeligt tilsyn, hvor det er vigtigt.
Hvad er den tilsigtede brug af AI-godkendelser?
AI-godkendelser er designet til almindelige forretningsscenarier med veldefinerede kriterier, der strømliner de daglige arbejdsprocesser ved at automatisere rutinebeslutninger. Typiske use cases omfatter:
Godkendelser af refusion af udgifter: Godkend automatisk krav under visse beløb med gyldige kvitteringer, så ledere kun kan fokusere på undtagelser.
Godkendelser af indkøbsordrer: Evaluer anmodninger i forhold til budgetgrænser og leverandørlister, der automatisk godkender standard-PC'er i politikken.
Godkendelser af rejseanmodninger: Autogodkend rejseanmodninger, der overholder politikken, mens anmodninger afvises med politikovertrædelser.
Onboarding af leverandør: Acceptér eller afvis programmer ved at kontrollere kvalifikationer og overholdelseskrav i forhold til foruddefinerede kriterier.
Godkendelser af fakturabehandling: Valider fakturaer ved at matche beløb til indkøbsordrer, og bekræft den påkrævede dokumentation er til stede.
Godkendelser af dokumentgennemsyn: Bekræft kontrakter eller politikker omfatter påkrævede elementer og opfylder formateringsstandarderne, før du går videre til næste trin.
Godkendelser af anmodninger om fridag: Godkend anmodninger om orlov, når medarbejderne har tilstrækkelig balance, og der ikke er nogen planlægningskonflikter.
AI-godkendelser er designet til rutinemæssige, veldefinerede beslutninger. Der er dog scenarier, hvor systemet muligvis ikke fungerer pålideligt eller ansvarligt. Vi opfordrer kunderne til at bruge AI-godkendelser i deres innovative løsninger eller programmer, men overveje følgende principper, når de vælger en use case:
Vigtige beslutninger eller beslutninger om ændring af liv: Systemet var ikke designet til at håndtere beslutninger, der påvirker sundhed, sikkerhed, økonomi eller juridisk status. Eksempler omfatter forsikringskrav, medicinske autorisationer, lånegodkendelser eller immigrationskendelser, som kræver menneskelig dom og ansvarlighed.
Juridiske eller disciplinære spørgsmål: Brugssager, der involverer juridisk ansvar, fortolkning af overholdelse af angivne standarder eller medarbejderdisciplin, kan overskride systemets tilsigtede omfang. Ai kan opsummere input, men de endelige beslutninger på disse områder bør forblive hos mennesker.
Subjektive eller tvetydige kriterier: Systemet kan kæmpe med beslutninger, der er afhængige af smag, diskretion eller komplekse afvejninger – f.eks. evaluering af kreativt arbejde eller vurdering af kvalitet – hvor standarder ikke let kan kodes.
Følsomme eller etisk komplekse scenarier: AI-godkendelser var ikke designet til beslutninger, der involverer personlige attributter, potentiel diskrimination eller generering af begrænset indhold. Disse anvendelser giver anledning til ansvarlige AI-bekymringer og kan kræve yderligere sikkerhedsforanstaltninger.
Regulerede brancher og arbejdsprocesser, der er følsomme for overholdelse af angivne standarder: På områder som f.eks. sundhedspleje, finans eller luftfart kan lovmæssige krav kræve menneskeligt tilsyn, selv for rutinemæssige beslutninger. Systemet blev ikke evalueret for overholdelse i disse kontekster.
Forudsigelige, men utilsigtede anvendelser: Efterhånden som indførelsen vokser, kan brugerne forsøge at anvende AI-godkendelser på områder som bedømmelse af ydeevne, ansættelsesbeslutninger eller vurderinger af kunders berettigelse. Disse anvendelser var ikke en del af systemets design- eller konsekvensanalyse og kan medføre risici, hvis de ikke administreres omhyggeligt.
Vigtig
Juridiske og lovgivningsmæssige overvejelser. Organisationer skal evaluere potentielle specifikke juridiske og lovmæssige forpligtelser, når de bruger ai-tjenester og -løsninger. Tjenester og løsninger er muligvis ikke egnede til brug i alle brancher eller scenarier. Begrænsninger kan variere afhængigt af regionale eller lokale lovmæssige krav. Derudover er AI-tjenester eller -løsninger ikke designet til og må ikke bruges på måder, der er forbudt i henhold til gældende servicebetingelser og relevante ordensregler.
Hvad er de tekniske begrænsninger for AI-godkendelser, og hvordan kan brugerne minimere virkningen af begrænsninger?
Selvom AI-godkendelser er en effektiv funktion, opfordrer vi brugerne til at være opmærksomme på deres begrænsninger:
AI-godkendelser er afhængige af angivne regler: AI følger nøje dine instruktioner og data. Hvis din prompt er uklar eller ufuldstændig, kan AI-godkendelsen træffe forkerte beslutninger eller mislykkes. Definer kriterier eksplicit. at sige "godkend, hvis rimelig" uden at definere "rimelig" fører til fejlfortolkning.
Mulighed for fejl: AI-godkendelser kan lave fejl på grund af tvetydige input, komplekse kantsager eller forkert læsning af dårligt scannede dokumenter. Output er ikke altid 100% nøjagtige, så tilsyn er afgørende for grænsetilfælde.
Mangel på menneskelig intuition: AI-godkendelser forstår ikke kontekst ud over det, de får at vide, og kan ikke stille afklarende spørgsmål eller bruge mavefornemmelser. AI-godkendelsen kan gå glip af nuancer, som et menneske ville fange, f.eks. at spotte mistænkelige udgifter, der "ser for højt ud for den rejse."
Ingen erfaring med læring: AI-godkendelser tilpasses ikke fra hver godkendelse – de ændrer ikke funktionsmåden, medmindre du opdaterer prompten. Nye scenarier, der ikke er omfattet af eksisterende regler, kræver løbende vedligeholdelse, efterhånden som politikkerne udvikler sig.
Afhængighed af datakvalitet: Beslutninger om ai-godkendelse er kun lige så gode som inputdataene. Filer i dårlig kvalitet, ufuldstændige dokumenter eller ulæselige scanninger kan medføre forkerte beslutninger eller systemfejl.
Integrations- og ydeevnebegrænsninger: Komplekse godkendelseskriterier eller beslutninger, der kræver data i realtid fra flere systemer, kan reducere nøjagtigheden og øge behandlingstiden.
Kræver ansvarlig konfiguration: Brugerne skal konfigurere AI-godkendelser etisk med ordentlige regler for fejl og fordomme. Sørg altid for, at vejledningen er i overensstemmelse med virksomhedens politik og etiske retningslinjer.
Ingen adgang til oplysninger i realtid: AI-godkendelser kan kun arbejde med data, der udtrykkeligt er angivet som input. De kan ikke kontrollere aktuelle anliggender, nyheder eller begivenheder, medmindre disse oplysninger føres ind i godkendelsesprocessen.
Sådan reducerer du risici og forbedrer pålideligheden, når du bruger AI-godkendelser:
Medtag menneskeligt tilsyn: Dirigere kritiske eller tvetydige sager til manuelle gennemgangsfaser for at sikre ansvarlighed og dømmekraft.
Test med forskellige eksempler: Brug historiske data- og edge-sager til at validere systemfunktionsmåden før udrulningen.
Afgræns prompts regelmæssigt: Opdater instruktioner i takt med, at politikker udvikler sig, eller nye scenarier opstår for at bevare relevans og nøjagtighed.
Undgå vage kriterier: Sørg for, at prompts er eksplicitte og veldefinerede – undgå ord som "rimelig" uden klar kontekst.
Overvåg beslutninger: Brug værktøjer som prompt builder Activity til at spore godkendelsesrater og identificere mønstre eller fejl.
Oplær brugere: Oplær medarbejderne i at fortolke AI-begrundelser og tilsidesætte procedurer for at skabe tillid og gennemsigtighed.
Huske: AI kan med sikkerhed udføre forkerte instruktioner, så klar og korrekt vejledning er afgørende.
Hvilke driftsmæssige faktorer og indstillinger muliggør effektiv og ansvarlig brug af agentgodkendelsesoplevelsen?
Hvis du vil bruge AI-godkendelser effektivt og sikkert, skal du overveje disse bedste fremgangsmåder for drift:
Angiv lav temperatur for konsistens: Brug indstillinger for lav temperatur (næsten 0) for at sikre, at AI træffer deterministiske og forudsigelige beslutninger i stedet for at variere svar på identiske input. Standardindstillingerne for Copilot Studio er allerede optimeret til pålidelighed.
Vælg den rigtige model: GPT-4.1 er typisk ideelt til de fleste godkendelsesscenarier. Avancerede ræsonneringsmodeller (f.eks. O3) kan håndtere kompleks logik bedre, men de er langsommere. Microsofts leverede modeller er forudintegrerede og testet, selvom du kan medbringe dine egne finjusterede modeller fra Azure AI Foundry, hvis du har specifikke krav eller brugerdefinerede behov.
Implementer menneskeligt tilsyn: Konfigurer menneskelige eller manuelle faser, der kan dirigeres til i forbindelse med vigtige beslutninger. Menneskelige og manuelle faser sikrer, at mennesker altid er i kontrol.
Test grundigt i sandkasse: Kør omfattende test med historiske data og eksempelanmodninger, før du går live. Test med vilje edge cases – manglende felter, modstridende regler, usædvanlige scenarier. Kontrollér de komplette arbejdsprocesudløsere korrekt.
Overvåg beslutninger: Alle beslutninger logføres i sektionen Aktivitet i promptgeneratoren i Power Automate. Brug disse data til at spore målepunkter som godkendelseshastigheder og vurdere korrektheden af afgørelserne om ai-godkendelse.
Opdater jævnligt kriterier: Behandl AI-prompts som levende dokumenter. Opdater instruktioner, efterhånden som politikker ændres, eller nye scenarier opstår. Indarbejd feedback fra ledere om, at AI er for streng eller mild på bestemte områder.
Angiv gennemsigtighed og oplæring: Oplær relevante medarbejdere i at fortolke AI-begrundelser og tilsidesætte procedurer. Informer slutbrugerne om, at anmodninger indledningsvist evalueres af AI. Klare forventninger forhindrer forvirring og skaber tillid.
Ved at justere AI-indstillingerne for ensartethed, integrere menneskeligt tilsyn og aktivt administrere processen sikrer du, at AI-godkendelser forbliver effektive og på sporet. Tænk på det som partnerskab: AI håndterer volumen og hastighed, mennesker håndterer vejledning og undtagelser.
Hvilke beskyttelsesforanstaltninger har Copilot Studio for ansvarlig AI?
Hvilken type indholdsindstilling implementeres?
GPT-modellen er trænet på internetdata, som er egnet til at opbygge en generel model i hele verden. Samtidig kan den nedarve skadeligt og forudindtaget indhold fra de samme kilder. Modellerne er oplært til at opføre sig sikkert og ikke producere skadeligt indhold, men nogle gange kan det generere giftigt output. AI-godkendelser bruger Azure AI Content Safety-tjenesten til at placere de nyeste funktioner til indstilling af indhold i AI-prompterne. Denne indstilling omfatter tjenester til analyse af det genererede output med tekstscannere med flere alvorsgrad og sikkerhed mod angreb med promptinjektion. Outputtet scannes også for afvisning af beskyttet materiale.
Hvilken sprogmodel understøttes, hvor hostes de, og hvordan kan jeg få adgang til dem?
AI-godkendelser understøtter GPT 4.1 mini-, GPT 4.o-, GPT 4.1- og o3-modeller, som hostes på Azure OpenAI-tjenesten. Du kan få adgang til disse modeller via prompterne på tværs af Power Platform i dine programmer, flow og agenter.
Du kan få mere at vide under Nyheder i Azure OpenAI-tjenesten?
Bruges mine data til at oplære eller forbedre de store sprogmodeller?
AI-godkendelser kører på Azure OpenAI-tjenesten, der hostes af Microsoft. Kundedata bruges ikke til at træne eller forbedre nogen af Azure OpenAI Service Foundation-modellerne. Microsoft deler ikke dine kundedata med en tredjepart, medmindre du har givet tilladelse til at gøre det. Hverken kundeprompter (input) med jordforbindelsesdata eller modelsvarene (output) bruges til at træne eller forbedre grundlæggende Azure OpenAI Service-modeller.
Hvordan behandles billeder af personer?
AI-godkendelser er ikke beregnet til at identificere enkeltpersoner baseret på ansigtstræk eller biometriske data. Når du indsender billeder, der indeholder personer i AI-godkendelser, anvender systemet automatisk en ansigtsudvisende funktion, før du analyserer billederne for at beskytte personlige oplysninger. Denne sløringsproces hjælper med at løse problemer med beskyttelse af personlige oplysninger ved at forhindre identifikation baseret på ansigtstræk. Med sløring er ingen ansigtsgenkendelse eller ansigtsskabelonmatchning involveret. I stedet er enhver identifikation af kendte personer afhængig af kontekstuelle tegn, f.eks. uniformer eller særlige omgivelser, ikke af deres ansigter. Denne foranstaltning til beskyttelse af personlige oplysninger bør ikke påvirke kvaliteten af de resultater, du modtager. Der kan lejlighedsvis refereres til ansigtssløring i systemets svar.
Få mere at vide i Ansigtssløring.
Hvad er nogle potentielle skader, når du bruger billeder eller dokumenter i prompts?
AI-godkendelser afhjælper de fleste af de risici, der er forbundet med brug af billeder eller dokumenter i prompts, men nogle risici kræver stadig ekstra omhu fra forfatteren af prompten:
Billeder eller dokumenter kan indeholde skadelig tekst eller visuelle elementer, der kan påvirke dine downstreamprocesser.
Billeder eller dokumenter kan indeholde særlige og muligvis skjulte instruktioner, der kan kompromittere eller tilsidesætte den første prompt.
Billeder eller dokumenter kan indeholde instruktioner, der kan føre til generering af indhold, der er underlagt intellektuelle ejendomsrettigheder (IP).
Prompts kan producere partiske kommentarer til billeder eller dokumenter.
Udtrækning af oplysninger fra billeder eller dokumenter i lav kvalitet kan føre til hallucinationer.
Hvilke typer problemer kan opstå, når jeg bruger AI-godkendelser, og hvordan kan jeg håndtere dem?
Når du bruger AI-godkendelser, kan du støde på problemer som analysefejl (når AI ikke med sikkerhed kan anvende regler), forkerte godkendelsesbeslutninger (falske positiver/negativer), inkonsekvente resultater på lignende anmodninger eller behandling af forsinkelser med komplekse sager. Hvis du vil håndtere disse udfordringer effektivt, skal du sikre, at dine arbejdsprocesanmodninger dirigeres til menneskelige faser.
Implementer konsekvente og strenge test under hele udvikling og udrulning for at identificere potentielle fejlpunkter tidligt. Brug indstillinger for lav temperatur til forudsigelige resultater, og finjuster løbende dine prompter baseret på observerede fejl. Regelmæssig overvågning og iterative forbedringer vil hjælpe med at opretholde systemets pålidelighed og nøjagtighed over tid.