Teilen über


Häufig gestellte Fragen zu KI-Genehmigungen

Diese häufig gestellten Fragen erläutern die Funktionen, Nutzung und Schutzmaßnahmen der KI-unterstützten Genehmigungsphasen (KI-Genehmigungen) in Microsoft Copilot Studio. KI-Genehmigungen ermöglichen es einem Agentenfluss, Anforderungen basierend auf vordefinierten Kriterien automatisch zu genehmigen oder abzulehnen, während der Mensch bei wichtigen Entscheidungen in der Kontrolle bleibt. Hier finden Sie einige häufig gestellte Fragen und Antworten zu diesem Feature.

Was sind KI-Genehmigungen?

KI-Genehmigungen sind intelligente, automatisierte Entscheidungsschritte in Genehmigungsworkflows. KI-Genehmigungen verwenden KI (Azure OpenAI-Modelle oder -Modelle, die Sie aus Azure AI Foundry herausbringen können), um Genehmigungsanforderungen gegen Ihre Geschäftsregeln auszuwerten und eine "Genehmigte" oder "Abgelehnte" Entscheidung mit einer Begründung zurückzugeben.

Was sind KI-Genehmigungsfunktionen?

Im Gegensatz zur einfachen regelbasierten Automatisierung können KI-Genehmigungen unstrukturierte Daten und komplexe Dokumente (z. B. PDFs oder Bilder, die an eine Anforderung angefügt sind) interpretieren und eine differenzierte Logik anwenden, um eine Entscheidung zu treffen. Beispielsweise könnte eine KI-Genehmigung eine schriftliche Begründung lesen, auf Richtlinienstichwörter überprüfen und dann entscheiden.

KI-Genehmigungsphasen können auch mit menschlichen Phasen kombiniert werden, sodass KI routinerelevante Entscheidungen verarbeitet, die Mitarbeiter weiterhin überwachen und alle kritischen oder Ausnahmefälle abschließen können. Zusammenfassend automatisieren KI-Genehmigungen die sich wiederholenden Ja/Nein-Entscheidungen in einem Prozess und beschleunigen Workflows, ohne die menschliche Aufsicht zu entfernen, wo es wichtig ist.

Was ist die beabsichtigte Verwendung von KI-Genehmigungen?

KI-Genehmigungen sind für gängige Geschäftsszenarien mit klar definierten Kriterien konzipiert und optimieren alltägliche Workflows durch Automatisierung von Routineentscheidungen. Typische Anwendungsfälle sind:

Genehmigungen zur Spesenerstattung: Automatische Genehmigung von Ansprüchen unter bestimmten Beträgen mit gültigen Quittungen, sodass Manager sich nur auf Ausnahmen konzentrieren können.

Bestellgenehmigungen (PO): Evaluieren von Anforderungen für Budgetbeschränkungen und Lieferantenlisten, automatische Genehmigung von Standard-POs innerhalb der Richtlinie.

Genehmigungen für Reiseanfragen: Automatische Genehmigung konformer Reiseanforderungen beim Ablehnen von Anforderungen mit Richtlinienverstößen.

Onboarding des Anbieters: Akzeptieren oder ablehnen Sie Anträge, indem Sie Qualifikations- und Complianceanforderungen anhand vordefinierter Kriterien überprüfen.

Genehmigungen für die Rechnungsverarbeitung: Überprüfen Sie Rechnungen, indem Sie Beträge an Bestellungen abgleichen und bestätigen, dass die erforderliche Dokumentation vorhanden ist.

Genehmigungen für Dokumentüberprüfungen: Bestätigen Sie, dass Verträge oder Richtlinien erforderliche Elemente enthalten und Formatierungsstandards erfüllen, bevor Sie zu den nächsten Schritten wechseln.

Genehmigungen für Abwesenheitsanfragen: Genehmigen Von Urlaubsanforderungen, wenn Mitarbeiter über ausreichende Balance verfügen und keine Terminplanungskonflikte vorhanden sind.

KI-Genehmigungen wurden für routinebasierte, gut definierte Entscheidungen entwickelt. Es gibt jedoch Szenarien, in denen das System möglicherweise nicht zuverlässig oder verantwortungsbewusst ausgeführt wird. Wir ermutigen Kunden, KI-Genehmigungen in ihren innovativen Lösungen oder Anwendungen zu verwenden, berücksichtigen aber bei der Auswahl eines Anwendungsfalls die folgenden Prinzipien:

  • Hohe Einsätze oder lebensverändernde Entscheidungen: Das System wurde nicht für Entscheidungen entwickelt, die sich auf Gesundheit, Sicherheit, Finanzen oder rechtlichen Status auswirken. Beispiele hierfür sind Versicherungsansprüche, medizinische Genehmigungen, Kreditgenehmigungen oder Einwanderungsermittlungen, die menschliches Urteil und Rechenschaftspflicht erfordern.

  • Rechts- oder Disziplinarsachen: Anwendungsfälle, die rechtliche Haftung, Complianceinterpretation oder Mitarbeiterdisziplin betreffen, können den beabsichtigten Umfang des Systems überschreiten. Während KI Eingaben zusammenfassen kann, sollten endgültige Entscheidungen in diesen Bereichen bei Menschen bleiben.

  • Subjektive oder mehrdeutige Kriterien: Das System kann mit Entscheidungen kämpfen, die auf Geschmack, Diskretion oder komplexe Kompromissen beruhen , wie z. B. die Bewertung kreativer Arbeit oder die Bewertung der Qualität, bei denen Standards nicht einfach kodifiziert werden.

  • Sensible oder ethisch komplexe Szenarien: KI-Genehmigungen wurden nicht für Entscheidungen mit persönlichen Attributen, potenzieller Diskriminierung oder Generierung von eingeschränkten Inhalten entwickelt. Diese Verwendungen heben verantwortungsvolle KI-Bedenken auf und erfordern möglicherweise zusätzliche Schutzmaßnahmen.

  • Regulierte Branchen und Compliance-sensible Workflows: In Bereichen wie Gesundheitswesen, Finanzen oder Luftfahrt können regulatorische Anforderungen auch bei Routineentscheidungen die menschliche Aufsicht erfordern. Das System wurde in diesen Kontexten nicht für die Compliance ausgewertet.

  • Vorhersehbare, aber unbeabsichtigte Verwendung: Wenn die Akzeptanz wächst, können Benutzer versuchen, KI-Genehmigungen auf Bereiche wie Leistungsüberprüfungen, Einstellungsentscheidungen oder Kundenberechtigungsbewertungen anzuwenden. Diese Verwendungen waren nicht Teil des Entwurfs oder der Folgenabschätzung des Systems und könnten Risiken darstellen, wenn sie nicht sorgfältig verwaltet werden.

Von Bedeutung

Rechtliche und regulatorische Überlegungen. Organisationen müssen potenzielle rechtliche und behördliche Verpflichtungen bewerten, wenn Sie KI-Dienste und -Lösungen verwenden. Dienste und Lösungen eignen sich möglicherweise nicht für die Verwendung in jeder Branche oder in jedem Szenario. Einschränkungen können je nach regionalen oder lokalen behördlichen Anforderungen variieren. Darüber hinaus sind KI-Dienste oder -Lösungen nicht für sie ausgelegt und dürfen nicht auf eine Weise verwendet werden, die in anwendbaren Nutzungsbedingungen und relevanten Verhaltensregeln verboten ist.

Was sind die technischen Einschränkungen von KI-Genehmigungen und wie können Benutzer die Auswirkungen von Einschränkungen minimieren?

Während KI-Genehmigungen eine leistungsstarke Funktion sind, fordern wir die Benutzer nachdrücklich auf, ihre Einschränkungen zu berücksichtigen:

KI-Genehmigungen basieren auf bereitgestellten Regeln: AI folgt strikt Ihren Anweisungen und Daten. Wenn Ihre Aufforderung unklar oder unvollständig ist, kann die KI-Genehmigung falsche Entscheidungen treffen oder fehlschlagen. Kriterien explizit definieren; "Genehmigen, wenn vernünftig" ohne Definition von "vernünftig" führt zu Fehlinterpretation.

Möglichkeit von Fehlern: KI-Genehmigungen können Fehler aufgrund von mehrdeutigen Eingaben, komplexen Edgefällen oder falsch gescannten Dokumenten machen. Ausgaben sind nicht immer 100% genau, daher ist die Aufsicht für Grenzfälle unerlässlich.

Mangel an menschlicher Intuition: KI-Genehmigungen verstehen den Kontext nicht über das, was sie erzählt haben, und können keine Klarstellungsfragen stellen oder Bauchgefühle verwenden. Die KI-Genehmigung könnte Nuancen verpassen, die ein Mensch fangen würde, z. B. verdächtige Ausgaben zu erkennen, die "zu hoch für diese Reise aussehen".

Keine Erfahrung lernen: KI-Genehmigungen passen sich nicht von jeder Genehmigung an – sie ändern das Verhalten nur, wenn Sie die Eingabeaufforderung aktualisieren. Neue Szenarien, die nicht von vorhandenen Regeln abgedeckt werden, erfordern eine fortlaufende Wartung, da sich Richtlinien entwickeln.

Abhängigkeit von Datenqualität: Ki-Genehmigungsentscheidungen sind nur so gut wie die Eingabedaten. Fehlerhafte Entscheidungen oder Systemfehler können zu fehlerhaften Entscheidungen oder Systemfehlern führen.

Integrations- und Leistungsbeschränkungen: Komplexe Genehmigungskriterien oder Entscheidungen, die Echtzeitdaten aus mehreren Systemen erfordern, können die Genauigkeit verringern und die Verarbeitungszeit erhöhen.

Erfordert eine verantwortungsvolle Konfiguration: Benutzer müssen KI-Genehmigungen ethisch konfigurieren, mit ordnungsgemäßen menschlichen Fail-Safes und bias-free-Regeln. Stellen Sie stets sicher, dass Die Anweisungen den Richtlinien und ethischen Richtlinien des Unternehmens entsprechen.

Kein Zugriff auf Echtzeitinformationen: KI-Genehmigungen können nur mit Daten verwendet werden, die explizit als Eingabe bereitgestellt werden. Sie können aktuelle Angelegenheiten, Nachrichten oder Ereignisse nicht überprüfen, es sei denn, diese Informationen werden in den Genehmigungsprozess eingespeist.

Um Risiken zu reduzieren und die Zuverlässigkeit bei der Verwendung von KI-Genehmigungen zu verbessern:

  • Einschließen der menschlichen Aufsicht: Leiten Sie kritische oder mehrdeutige Fälle an manuelle Überprüfungsphasen weiter, um rechenschaftspflichtig und urteilen zu können.

  • Testen Sie verschiedene Beispiele: Verwenden Sie historische Daten und Edgefälle, um das Systemverhalten vor der Bereitstellung zu überprüfen.

  • Eingabeaufforderungen regelmäßig verfeinern: Aktualisieren Sie Anweisungen, wenn Richtlinien sich entwickeln oder neue Szenarien entstehen, um Relevanz und Genauigkeit aufrechtzuerhalten.

  • Vermeiden Sie vage Kriterien: Stellen Sie sicher, dass Aufforderungen explizit und klar definiert sind – vermeiden Sie Begriffe wie "vernünftig" ohne klaren Kontext.

  • Überwachen von Entscheidungen: Verwenden Sie Tools wie Prompt Builder Activity, um Genehmigungsraten zu verfolgen und Muster oder Fehler zu identifizieren.

  • Schulen Sie Die Benutzer: Schulen Sie Mitarbeiter über die Interpretation von KI-Rationalen und Überschreibungsverfahren, um Vertrauen und Transparenz zu schaffen.

Merken: KI kann fehlerfreie Anweisungen ausführen, daher ist klare, richtige Anleitung unerlässlich.

Welche betrieblichen Faktoren und Einstellungen ermöglichen eine effektive und verantwortungsvolle Verwendung der Agentgenehmigungen?

Um KI-Genehmigungen effektiv und sicher zu verwenden, sollten Sie die folgenden bewährten Methoden in Betracht ziehen:

  • Legen Sie niedrige Temperatur für Konsistenz fest: Verwenden Sie niedrige Temperatureinstellungen (nahe 0), um sicherzustellen, dass die KI deterministische, vorhersagbare Entscheidungen trifft, anstatt auf identische Eingaben zu reagieren. Die Standardeinstellungen von Copilot Studio sind bereits für die Zuverlässigkeit optimiert.

  • Wählen Sie das richtige Modell aus: GPT-4.1 ist in der Regel ideal für die meisten Genehmigungsszenarien. Erweiterte Begründungsmodelle (z. B. O3) behandeln möglicherweise komplexere Logik besser, sind aber langsamer. Die von Microsoft bereitgestellten Modelle sind bereits integriert und getestet, sie können jedoch ihre eigenen fein abgestimmten Modelle aus Azure AI Foundry mitbringen, wenn Sie bestimmte Anforderungen oder benutzerdefinierte Anforderungen haben.

  • Implementieren sie die menschliche Aufsicht: Konfigurieren Sie menschliche oder manuelle Stufen, die für kritische Entscheidungen weitergeleitet werden können. Menschliche und manuelle Stadien sorgen dafür, dass Menschen immer in der Kontrolle sind.

  • Testen Sie gründlich im Sandkasten: Führen Sie umfangreiche Tests mit historischen Daten und Beispielanforderungen aus, bevor Sie live gehen. Testen Sie absichtlich Edgefälle – fehlende Felder, widersprüchliche Regeln, ungewöhnliche Szenarien. Überprüfen Sie, ob der End-to-End-Workflow ordnungsgemäß ausgelöst wird.

  • Entscheidungen überwachen: Alle Entscheidungen werden im Aktivitätsabschnitt des Eingabeaufforderungsgenerators in Power Automate protokolliert. Verwenden Sie diese Daten, um Metriken wie Genehmigungsraten nachzuverfolgen und die Richtigkeit der KI-Genehmigungsentscheidungen zu bewerten.

  • Kriterien werden regelmäßig aktualisiert: Behandeln Sie KI-Eingabeaufforderungen als lebende Dokumente. Aktualisieren Sie Anweisungen, wenn Richtlinien sich ändern oder neue Szenarien entstehen. Integrieren Sie Feedback von Managern darüber, dass KI in bestimmten Bereichen zu streng oder lenient ist.

  • Transparenz und Schulung bieten: Schulen Sie relevante Mitarbeiter bei der Interpretation von KI-Rationalen und Außerkraftsetzungsverfahren. Informieren Sie Endbenutzer darüber, dass Anforderungen möglicherweise anfänglich von KI ausgewertet werden. Klare Erwartungen verhindern Verwirrung und schaffen Vertrauen.

Indem Sie KI-Einstellungen für Konsistenz optimieren, die menschliche Aufsicht einbetten und den Prozess aktiv verwalten, stellen Sie sicher, dass KI-Genehmigungen effektiv und auf dem Neuesten Stand bleiben. Denken Sie daran als Partnerschaft: KI behandelt Volumen und Geschwindigkeit, Menschen behandeln Anleitungen und Ausnahmen.

Welche Schutzmaßnahmen gibt es in Copilot Studio für verantwortungsvolle KI?

Welche Art von Inhaltsmoderation wird implementiert?

Die GPT-Modelle werden auf Internetdaten trainiert, was sich hervorragend zum Aufbau eines allgemeinen Weltmodells eignet. Gleichzeitig kann es toxische, schädliche und voreingenommene Inhalte aus denselben Quellen übernehmen. Die Modelle werden trainiert, sich sicher zu verhalten und keine schädlichen Inhalte zu erzeugen, aber manchmal kann es toxische Ausgabe erzeugen. KI-Genehmigungen verwenden den Azure AI Content Safety-Dienst , um die neuesten Funktionen für die Inhaltsmoderation innerhalb der KI-Eingabeaufforderungen zu platzieren. Diese Moderation umfasst Dienste zum Analysieren der generierten Ausgabe mit Textscannern mit mehreren Schweregraden und Sicherheit vor Einfügungsangriffen. Die Ausgabe wird auch auf die Nutzung von geschütztem Material überprüft.

Welches Sprachmodell wird unterstützt, wo werden sie gehostet, und wie kann ich darauf zugreifen?

KI-Genehmigungen unterstützen GPT 4.1 Mini-, GPT 4.o-, GPT 4.1- und o3-Modelle, die in Azure OpenAI Service gehostet werden. Sie können über die Eingabeaufforderungen in Power Platform, in Ihren Anwendungen, Flüssen und Agents auf diese Modelle zugreifen.

Weitere Informationen finden Sie unter "Neuerungen" im Azure OpenAI-Dienst?

Werden meine Daten verwendet, um die großen Sprachmodelle zu trainieren oder zu verbessern?

AI-Genehmigungen werden auf dem von Microsoft gehosteten Azure OpenAI-Dienst ausgeführt. Kundendaten werden nicht zum Trainieren oder Verbessern der Azure OpenAI Service-Grundlagenmodelle verwendet. Microsoft gibt Ihre Kundendaten nicht an einen Dritten weiter, es sei denn, Sie haben die Entsprechende Berechtigung erteilt. Weder Kundenprompts (Eingaben) mit ihren Grounding-Daten noch die Modellantworten (Ausgaben) werden zum Trainieren oder Verbessern der Grundmodelle des Azure OpenAI-Dienstes verwendet.

Wie werden Bilder von Personen verarbeitet?

KI-Genehmigungen sind nicht für die Verwendung der Identifizierung von Personen auf der Grundlage von Gesichtsmerkmalen oder biometrischen Daten vorgesehen. Wenn Sie Bilder mit Personen in KI-Genehmigungen übermitteln, wendet das System automatisch ein Unscharfendes Feature an, bevor die Bilder analysiert werden, um individuelle Privatsphäre zu schützen. Dieser Schritt zur Unschärfe trägt dazu bei, Datenschutzbedenken auszuräumen, indem die Identifizierung anhand von Gesichtsmerkmalen verhindert wird. Beim Unscharfmachen werden keine Gesichtserkennung und kein Abgleich von Gesichtsvorlagen eingesetzt. Stattdessen beruht jede Identifizierung bekannter Personen auf kontextuellen Hinweisen wie Uniformen oder einzigartigen Umgebungen, nicht auf ihren Gesichtern. Diese Datenschutzmaßnahme sollte sich nicht auf die Qualität der Ergebnisse auswirken, die Sie erhalten. Gelegentlich kann in den Antworten des Systems auf das Unscharfmachen des Gesichts verwiesen werden.

Weitere Informationen finden Sie unter Gesichter unscharf machen.

Was sind potenzielle Schäden bei der Verwendung von Bildern oder Dokumenten in Aufforderungen?

KI-Genehmigungen mindern die meisten Risiken, die bei der Verwendung von Bildern oder Dokumenten in Aufforderungen beteiligt sind, aber einige Risiken erfordern weiterhin zusätzliche Sorgfalt vom Ersteller der Aufforderung:

  • Bilder oder Dokumente können schädlichen Text oder Inhalte enthalten, die sich auf Ihre nachgelagerten Prozesse auswirken könnten.

  • Bilder oder Dokumente können spezielle und möglicherweise versteckte Anweisungen enthalten, die den ursprünglichen Prompt kompromittieren oder überschreiben könnten.

  • Bilder oder Dokumente können Anweisungen enthalten, die zur Erstellung von Inhalten führen könnten, die dem geistigen Eigentum (IP) unterliegen.

  • Prompts können zu voreingenommenen Kommentaren zu Bildern oder Dokumenten führen.

  • Das Extrahieren von Informationen aus qualitativ hochwertigen Bildern oder Dokumenten kann zu Halluzination führen.

Welche Arten von Problemen können auftreten, wenn KI-Genehmigungen verwendet werden, und wie kann ich sie behandeln?

Bei der Verwendung von KI-Genehmigungen treten möglicherweise Probleme wie Analysefehler auf (wenn KI regeln nicht sicher anwenden kann), falsche Genehmigungsentscheidungen (falsch positive/negative Ergebnisse), inkonsistente Ergebnisse bei ähnlichen Anforderungen oder Verarbeitungsverzögerungen mit komplexen Fällen. Um diese Herausforderungen effektiv zu bewältigen, stellen Sie sicher, dass Ihr Workflow Anforderungen an menschliche Stufen weiter leitet.

Implementieren Sie konsistente und strenge Tests während der gesamten Entwicklung und Bereitstellung, um potenzielle Fehlerpunkte frühzeitig zu identifizieren. Verwenden Sie niedrige Temperatureinstellungen für vorhersagbare Ergebnisse, und verfeinern Sie Ihre Eingabeaufforderungen kontinuierlich basierend auf beobachteten Fehlern. Regelmäßige Überwachung und iterative Verbesserungen tragen dazu bei, die Zuverlässigkeit und Genauigkeit des Systems im Laufe der Zeit aufrechtzuerhalten.