Häufig gestellte Fragen zu Eingabeaufforderungen und Textgenerierungsfunktionen
Diese häufig gestellten Fragen (FAQ) beschreiben die KI-Auswirkungen der Eingabeaufforderungsfunktion in AI Builder.
Die Eingabeaufforderungsfunktion in AI Builder bietet Benutzenden eine vielseitige Möglichkeit zur Entwicklung KI-gestützter Workflows, Anwendungen, Datentransformation und Anpassung von Copilot. Es ermöglicht die Erstellung von Workflows und Anwendungen, die Dokumente zusammenfassen, Antwortentwürfe erstellen, Texte klassifizieren und Sprachen übersetzen. Diese Funktion wird vom Azure OpenAI-Dienst unterstützt, der auf der „Generative Pre-trained Transformer“-(GPT-)Technologie basiert. Diese Modelle wurden auf riesigen Mengen von Textdaten trainiert, um Text zu generieren, der von Menschen geschriebenen Inhalten ähnelt.
Mehr erfahren Sie unter Transparenzhinweis für Azure OpenAI-Dienst.
Eingabeaufforderungen in AI Builder ermöglichen es Ihnen, intelligente Anwendungen und Workflows zu erstellen und Copilot zu erweitern. Sie nutzen die Fähigkeiten vorab trainierter GPT-Modelle und machen ein benutzerdefiniertes Modelltraining überflüssig. Die Absicht könnte beispielsweise darin bestehen, einen Workflow zu erstellen, der eingehende Kundenbeschwerden zusammenfasst. Anschließend wird in einem Vorfallsmanagement-Tool basierend auf der Kategorie der eingehenden Beschwerde ein Ticket erstellt. In diesem Beispiel können Ersteller das Modell anweisen, die eingehende Beschwerde zu kategorisieren und zusammenzufassen, um einen neuen Vorfall zu erstellen.
Die folgende Liste enthält die beliebtesten Anwendungsfälle für diesen Dienst:
- Zusammenfassung von E-Mails, Gesprächen, Transkripten, Dokumenten und mehr.
- Vorschläge für Antwortentwürfe auf Kundenanfragen, Beschwerden, E-Mails und mehr.
- Extraktion von Informationen aus Verträgen, E-Mails, Rechnungen, Bestellungen und mehr.
- Klassifizierung von Inhalten in gewünschte Kategorien (zum Beispiel, ob es sich bei einer E-Mail um eine Bestellung, eine Reklamation oder eine Retoure) handelt.
- Stimmungsanalyse eines bestimmten Textes (z. B. Ermittlung der Stimmung einer Produktrezension)
- Extrahieren von Inhalten aus Dokumenten oder Bildern (z. B. Informationen aus Rechnungen extrahieren oder Beschreibung von Objekten in einem Bild).
In all diesen Fällen sind die Benutzenden für das Endergebnis des Systems verantwortlich. Sie sind verpflichtet, die generierten Inhalte vor der Verwendung auf mögliche Ungenauigkeiten oder Unvollständigkeiten zu überprüfen.
Wie wurde die Bereitschaft der Eingabeaufforderungsfunktion bewertet? Welche Metriken werden verwendet, um die Leistung zu messen?
Die Auswertung dieser Funktion erfordert umfassende Tests einer Reihe von Sicherheitsparametern. Diese Tests stellen sicher, dass die Funktion mit den Standards und Grundsätzen für verantwortungsvolle KI unserer Organisation übereinstimmt. Der Dienst wird außerdem kontinuierlich auf mögliche Schwachstellen überprüft. Die von uns verwendeten Leistungsmetriken umfassen in erster Linie die Effizienz der Inhaltsfilterung und den Grad der Übereinstimmung zwischen Mensch und Maschine bei gefilterten und ungefilterten Inhalten.
Die GPT-Modelle werden auf Internetdaten trainiert, was sich hervorragend zum Aufbau eines allgemeinen Weltmodells eignet. Gleichzeitig kann es toxische, schädliche und voreingenommene Inhalte aus denselben Quellen übernehmen. Die Modelle sind darauf trainiert, sich sicher zu verhalten und keine schädlichen Inhalte zu produzieren, aber manchmal kann es zu toxischen Ausgaben kommen. AI Builder-Eingabeaufforderungen nutzen den Dienst Azure AI Content Satefy, um modernste Inhaltsmoderationsfunktionen in die KI-Eingabeaufforderungen zu integrieren. Dazu gehören Dienste zur Analyse der generierten Ausgabe mit Textscannern für mehrere Schweregrade und Schutz vor Eingabeaufforderungs-Einschleuseangriffen. Die Ausgabe wird auch auf die Nutzung von geschütztem Material überprüft.
Welche Einschränkungen bestehen bei der Eingabeaufforderungsfunktion? Wie können Benutzende die Auswirkungen der Eingabeaufforderungseinschränkungen bei der Verwendung des Systems minimieren?
Die Nutzung dieser Technologie muss im Einklang mit den Anforderungen des Verhaltenskodex für den Azure OpenAI-Service erfolgen. Diese Technologie darf nicht zur Generierung von Inhalten verwendet werden, die mit politischer Propaganda, Hassreden, Fehlinformationen, Selbstverletzung, Diskriminierung, explizitem sexuellem Material oder anderen durch den Verhaltenskodex verbotenen Inhalten in Zusammenhang stehen. Zu den nicht unterstützten Anwendungen dieser Technologie gehören die Bereitstellung von Ratschlägen, die Verwendung für rechtliche, finanzielle, gesundheitsbezogene Beratung oder Zukunftsprognosen sowie finanzielle, wissenschaftliche oder mathematische Berechnungen und jede andere nicht unterstützte Verwendung, die in Transparenzhinweis für Azure OpenAI Service erwähnt wird.
KI-generierte Inhalte können Fehler enthalten. Daher sollten Erstellende die Endbenutzenden ihrer Lösung darüber informieren, dass die Inhaltsgenerierung durch dieses Modell auf transparente Weise von KI erstellt wird. Eine klare Kommunikation der generierten Inhalte hilft, übermäßiges Vertrauen zu vermeiden. Erstellende sollte auch die Möglichkeit einer menschlichen Überprüfung einbeziehen, um sicherzustellen, dass der von der KI generierte Inhalt korrekt und angemessen ist, bevor er verwendet wird.
Welche betrieblichen Faktoren und Einstellungen lassen eine effektive und verantwortungsvolle Nutzung des Systems zu?
Vom KI-Modell generierte Inhalte sind probabilistischer Natur und daher können die Modellantworten für dieselbe Eingabeaufforderung unterschiedlich sein. Die generierte Antwort ist möglicherweise falsch oder irreführend und kann zu unbeabsichtigten Ergebnissen des Flows oder der App führen. Beispielsweise können Geschäftskunden falsche oder irreführende Informationen, Empfehlungen oder Support erhalten. Ersteller sollten eine sinnvolle menschliche Aufsicht in ihren Flows und Apps implementieren und ihre Eingabeaufforderungen auf das Potenzial testen, schädliches Verhalten oder verbotene Inhalte zu generieren, wie im Microsoft-Verhaltenskodex aufgeführt. Low-Code-Entwickler sollten auch den Einsatz von KI in ihren Apps und Abläufen transparent machen, um den Geschäftsanwender darüber zu informieren, dass der Inhalt von KI generiert wird. Darüber hinaus entsprechen die generierten Antworten aufgrund von Längenbeschränkungen, Inhaltsfilterung oder Modellauswahl möglicherweise nicht den Erwartungen der Low-Code-Entwickelnden.
AI Builder unterstützt die GPT-4o-Modellfamilie, die im Azure OpenAI-Dienst gehostet wird. Sie können über die Eingabeaufforderungen Power Platform in Ihren Anwendungen, Flows und Copiloten auf diese Modelle zugreifen.
Weitere Informationen finden Sie unter Welche Neuerungen gibt es im Azure OpenAI Dienst?
Werden meine Daten verwendet, um die in AI Builder verfügbaren großen Sprachmodelle, zu trainieren oder zu verbessern?
AI Builder-Prompts werden auf einem Azure OpenAI-Dienst ausgeführt, der von Microsoft gehostet wird. Kundendaten werden nicht zum Trainieren oder Verbessern der Azure Service Foundation-Modelle OpenAI verwendet. Microsoft gibt Ihre Kundendaten nicht an Dritte weiter, es sei denn, Sie haben dazu Ihre Einwilligung erteilt. Weder Kundenprompts (Eingaben) mit ihren Grounding-Daten noch die Modellantworten (Ausgaben) werden zum Trainieren oder Verbessern der Grundmodelle des Azure OpenAI-Dienstes verwendet.
Ist der zur Aktion „Text mit GPT mithilfe einer Eingabeaufforderung erstellen“ hinzugefügte Inhalt öffentlich zugänglich?
Auf der Registerkarte Info der Aktion steht: Diese Aktion bietet Zugriff auf Ihre Eingabeaufforderungen unter Nutzung des GPT-Modells, die auf dem Azure OpenAI Dienst ausgeführt werden.
Die Eingabeaufforderungen, die Sie der Aktion Text mit GPT mithilfe einer Eingabeaufforderung erstellen in Power Automate hinzufügen, sind standardmäßig privat. Sie sind nur innerhalb Ihrer Organisation sicht- und nutzbar und nicht für die ganze Welt zugänglich. Die Eingabeaufforderungen sind privat und für den internen Gebrauch in Ihrem Unternehmen bestimmt.
Neu erstellte Eingabeaufforderungen sind standardmäßig privat. Das bedeutet, dass sie in Power Automate, Power Apps und Microsoft Copilot Studio nur für diejenigen sichtbar und nutzbar sind, die sie erstellt haben. Dies gibt den Erstellenden Zeit, sie in Apps oder Workflows zu testen und zu bewerten und sicherzustellen, dass sie richtig sind, bevor sie sie freigeben.
Wenn Sie möchten, dass andere Benutzende der Umgebung oder Gruppen Ihre Eingabeaufforderung in Power Apps oder Power Automate verwenden, müssen Sie sie freigeben.
Weitere Informationen finden Sie unter Teilen Ihrer Eingabeaufforderung.
AI Builder ist nicht für die Identifizierung von Personen anhand von Gesichtsmerkmalen oder biometrischen Daten vorgesehen. Wenn Sie Bilder mit Personen an AI Builder übermitteln, wendet das System, um die Privatsphäre der betroffenen Personen zu schützen, automatisch ein Feature, um das Gesicht unscharf zu machen, bevor die Bilder analysiert werden. Dieser Schritt zur Unschärfe trägt dazu bei, Datenschutzbedenken auszuräumen, indem die Identifizierung anhand von Gesichtsmerkmalen verhindert wird. Beim Unscharfmachen werden keine Gesichtserkennung und kein Abgleich von Gesichtsvorlagen eingesetzt. Stattdessen beruht jede Identifizierung bekannter Personen auf kontextuellen Hinweisen wie Uniformen oder einzigartigen Umgebungen, nicht auf ihren Gesichtern. Diese Datenschutzmaßnahme sollte sich nicht auf die Qualität der Ergebnisse auswirken, die Sie erhalten. Gelegentlich kann in den Antworten des Systems auf das Unscharfmachen des Gesichts verwiesen werden.
Weitere Informationen finden Sie unter Gesichter unscharf machen.
Benutzerdefinierte Prompts geben Erstellenden die Freiheit, das große Sprachmodell (LLM) anzuweisen, sich auf eine bestimmte Weise zu verhalten oder eine bestimmte Aufgabe auszuführen. Durch die sorgfältige Ausarbeitung einer Eingabeaufforderung können Sie Antworten generieren, die Ihren spezifischen Geschäftsanforderungen entsprechen. Dadurch wird das LLM-Modell zu einem flexiblen Werkzeug zur Erfüllung verschiedener Aufgaben.
Beispiel
Bei einem Sprachmodell kann eine benutzerdefinierte Eingabeaufforderung das Modell anleiten, eine Frage zu beantworten, einen Text zu vervollständigen, Sprachen zu übersetzen, ein Dokument zusammenzufassen, Aufgaben, To-Dos und Aktionspunkte im Text zu identifizieren und Inhalte aus Bildern oder Dokumenten zu extrahieren. Die Komplexität einer benutzerdefinierten Eingabeaufforderung kann je nach Aufgabe von einem einzelnen Satz bis zu etwas Komplizierterem reichen.
Vorgefertigte KI-Funktionen sind vorkonfigurierte Eingabeaufforderungen, die vom Microsoft-Team erstellt wurden, um Entwickelnden dabei zu helfen, häufige Aufgaben einfach zu erledigen. Sie bieten gebrauchsfertige KI-Funktionen für verschiedene Anwendungsfälle, was es den Erstellenden erleichtert, Intelligenz in ihre Lösungen einzubringen.
Beispiel
Die vorgefertigte Eingabeaufforderung eines Sprachmodells könnte wie folgt aussehen:
Extrahieren Sie die Aktionspunkte als nummerierte Liste aus: [TextToExtract]
In diesem Fall muss der Benutzer nur den Text in [TextToExtract]
angeben, aus dem er Aktionspunkte extrahieren möchte. Den Rest erledigt die vorgefertigte Eingabeaufforderung.