Häufig gestellte Fragen zu Eingabeaufforderungen und Textgenerierungsfunktionen
Diese häufig gestellten Fragen (FAQ) beschreiben die KI-Auswirkungen der Eingabeaufforderungsfunktion in AI Builder.
Was sind Eingabeaufforderungen?
Die Eingabeaufforderungsfunktion in AI Builder bietet Benutzenden eine vielseitige Möglichkeit zur Entwicklung KI-gestützter Workflows, Anwendungen, Datentransformation und Anpassung von Copiloten. Es ermöglicht die Erstellung von Workflows und Anwendungen, die Dokumente zusammenfassen, Antwortentwürfe erstellen, Texte klassifizieren und Sprachen übersetzen. Diese Funktion wird vom Azure OpenAI-Dienst unterstützt, der auf der „Generative Pre-trained Transformer“-(GPT-)Technologie basiert. Diese Modelle wurden auf riesigen Mengen an Textdaten trainiert, wodurch sie Texte generieren konnten, die von Menschen geschriebenen Inhalten ähneln. Weitere Informationen zum Azure OpenAI-Service finden Sie unter Transparenzhinweis für den Azure OpenAI-Service.
Was sind die beabsichtigten Anwendungsfälle von Eingabeaufforderungen?
Eingabeaufforderungen in AI Builder ermöglichen es Ihnen, intelligente Anwendungen und Workflows zu erstellen und Copiloten zu erweitern. Sie nutzen die Fähigkeiten vorab trainierter GPT-Modelle und machen ein benutzerdefiniertes Modelltraining überflüssig. Die Absicht könnte beispielsweise darin bestehen, einen Workflow zu erstellen, der eingehende Kundenbeschwerden zusammenfasst. Anschließend wird in einem Vorfallsmanagement-Tool basierend auf der Kategorie der eingehenden Beschwerde ein Ticket erstellt. In diesem Beispiel können Ersteller das Modell einfach anweisen, die eingehende Beschwerde zu kategorisieren und zusammenzufassen, um einen neuen Vorfall zu erstellen.
Die folgende Liste enthält die beliebtesten Anwendungsfälle für diesen Dienst:
- Zusammenfassung von E-Mails, Gesprächen, Transkripten, Dokumenten und mehr.
- Vorschläge für Antwortentwürfe auf Kundenanfragen, Beschwerden, E-Mails und mehr.
- Extraktion von Informationen aus Verträgen, E-Mails, Rechnungen, Bestellungen und mehr.
- Klassifizierung von Inhalten in gewünschte Kategorien (zum Beispiel, ob es sich bei einer E-Mail um eine Bestellung, eine Reklamation oder eine Retoure) handelt.
- Stimmungsanalyse eines bestimmten Textes (zum Beispiel Ermittlung der Stimmung einer Produktrezension).
In all diesen Fällen sind die Benutzenden für das Endergebnis des Systems verantwortlich. Sie sind verpflichtet, die generierten Inhalte vor der Verwendung auf mögliche Ungenauigkeiten oder Unvollständigkeiten zu überprüfen.
Wie wurde die Bereitschaft der Eingabeaufforderungsfunktion bewertet? Welche Metriken werden verwendet, um die Leistung zu messen?
Die Auswertung dieser Funktion erfordert umfassende Tests einer Reihe von Sicherheitsparametern. Dadurch wird sichergestellt, dass die Funktion mit den verantwortungsvollen KI-Standards und -Prinzipien unserer Organisation übereinstimmt. Der Dienst wird außerdem kontinuierlich auf mögliche Schwachstellen überprüft. Die von uns verwendeten Leistungsmetriken umfassen in erster Linie die Effizienz der Inhaltsfilterung und den Grad der Übereinstimmung zwischen Mensch und Maschine bei gefilterten und ungefilterten Inhalten.
Welche Art der Inhaltsmoderation ist für Eingabeaufforderungen implementiert?
Die GPT-Modelle werden auf Internetdaten trainiert, was sich hervorragend zum Aufbau eines allgemeinen Weltmodells eignet. Gleichzeitig kann es toxische, schädliche und voreingenommene Inhalte aus denselben Quellen übernehmen. Die Modelle sind darauf trainiert, sich sicher zu verhalten und keine schädlichen Inhalte zu produzieren, aber manchmal kann es zu toxischen Ausgaben kommen. AI Builder-Eingabeaufforderungen nutzen den Dienst Azure AI Content Satefy, um modernste Inhaltsmoderationsfunktionen in die KI-Eingabeaufforderungen zu integrieren. Dazu gehören Dienste zur Analyse der generierten Ausgabe mit Textscannern für mehrere Schweregrade und Schutz vor Eingabeaufforderungs-Einschleuseangriffen. Die Ausgabe wird auch auf die Nutzung von geschütztem Material überprüft.
Welche Einschränkungen bestehen bei der Eingabeaufforderungsfunktion? Wie können Benutzende die Auswirkungen der Eingabeaufforderungseinschränkungen bei der Verwendung des Systems minimieren?
Die Nutzung dieser Technologie muss im Einklang mit den Anforderungen des Verhaltenskodex für den Azure OpenAI-Service erfolgen. Diese Technologie darf nicht zur Generierung von Inhalten verwendet werden, die mit politischer Propaganda, Hassreden, Fehlinformationen, Selbstverletzung, Diskriminierung, explizitem sexuellem Material oder anderen durch den Verhaltenskodex verbotenen Inhalten in Zusammenhang stehen. Zu den nicht unterstützten Anwendungen dieser Technologie gehören die Bereitstellung von Ratschlägen, die Verwendung für rechtliche, finanzielle, gesundheitsbezogene Beratung oder Zukunftsprognosen sowie finanzielle, wissenschaftliche oder mathematische Berechnungen und jede andere nicht unterstützte Verwendung, die in Transparenzhinweis für Azure OpenAI Service erwähnt wird. Derzeit wird der Dienst ausschließlich in den USA unterstützt und ist nur in englischer Sprache verfügbar.
KI-generierte Inhalte können Fehler enthalten. Daher sollten Erstellende die Endbenutzenden ihrer Lösung darüber informieren, dass die Inhaltsgenerierung durch dieses Modell auf transparente Weise von KI erstellt wird. Eine klare Kommunikation von KI-generierten Inhalten trägt dazu bei, übermäßiges Vertrauen zu vermeiden. Erstellende sollte auch die Möglichkeit einer menschlichen Überprüfung einbeziehen, um sicherzustellen, dass der von der KI generierte Inhalt korrekt und angemessen ist, bevor er verwendet wird.
Welche betrieblichen Faktoren und Einstellungen lassen eine effektive und verantwortungsvolle Nutzung des Systems zu?
Vom KI-Modell generierte Inhalte sind probabilistischer Natur und daher können die Modellantworten für dieselbe Eingabeaufforderung unterschiedlich sein. Die generierte Antwort ist möglicherweise falsch oder irreführend und kann zu unbeabsichtigten Ergebnissen des Flows oder der App führen. Beispielsweise können Geschäftskunden falsche oder irreführende Informationen, Empfehlungen oder Support erhalten. Entwickler sollten in ihren Abläufen und Apps eine sinnvolle menschliche Aufsicht implementieren und ihre Eingabeaufforderungen auf das Potenzial testen, schädliches Verhalten oder verbotene Inhalte zu erzeugen, wie im Microsoft-Verhaltenskodex aufgeführt. Low-Code-Entwickler sollten auch den Einsatz von KI in ihren Apps und Abläufen transparent machen, um den Geschäftsanwender darüber zu informieren, dass der Inhalt von KI generiert wird. Darüber hinaus entsprechen die generierten Antworten aufgrund von Längenbeschränkungen, Inhaltsfilterung oder Modellauswahl möglicherweise nicht den Erwartungen der Low-Code-Entwickelnden.
Wie heißt das GPT-Modell, wo wird es gehostet und wie kann ich darauf zugreifen?
Das GPT-3.5-Turbo-Modell wird auf dem Azure OpenAI-Dienst gehostet. Für den Zugriff können Sie die Azure OpenAI Dienste-REST-APIs, das Python-SDK oder die webbasierte Schnittstelle in Azure OpenAI Studio verwenden.
Weitere Informationen finden Sie unter Welche Neuerungen gibt es im Azure OpenAI Dienst?
Werden meine Daten zum Trainieren oder Verbessern der verfügbaren großen Sprachmodelle verwendet AI Builder?
AI Builder Eingabeaufforderungen werden auf dem von Microsoft gehosteten Azure-Dienst ausgeführt. OpenAI Kundendaten werden nicht zum Trainieren oder Verbessern der Azure OpenAI Service Foundation-Modelle verwendet. Microsoft gibt Ihre Kundendaten nicht an Dritte weiter, es sei denn, Sie haben hierzu Ihre Erlaubnis erteilt. Weder Kundenaufforderungen (Eingabe) mit ihren zugrunde liegenden Daten noch die Modellantworten (Ausgabe) werden zum Trainieren oder Verbessern der Azure OpenAI Service-Grundlagenmodelle verwendet.
Ist der zur Aktion „Text mit GPT mithilfe einer Eingabeaufforderung erstellen“ hinzugefügte Inhalt öffentlich zugänglich?
Auf der Registerkarte Info der Aktion steht: Diese Aktion bietet Zugriff auf Ihre Eingabeaufforderungen unter Nutzung des GPT-Modells, die auf dem Azure OpenAI Dienst ausgeführt werden.
Die Eingabeaufforderungen, die Sie der Aktion Text mit GPT mithilfe einer Eingabeaufforderung erstellen in Power Automate hinzufügen, sind standardmäßig privat. Sie sind nur innerhalb Ihrer Organisation sicht- und nutzbar und nicht für die ganze Welt zugänglich. Die Eingabeaufforderungen sind privat und für den internen Gebrauch in Ihrem Unternehmen bestimmt.
Neu erstellte Eingabeaufforderungen sind standardmäßig privat. Das bedeutet, dass sie in Power Automate, Power Apps und Microsoft Copilot Studio nur für diejenigen sichtbar und nutzbar sind, die sie erstellt haben. Dies gibt den Erstellenden Zeit, sie in Apps oder Workflows zu testen und zu bewerten und sicherzustellen, dass sie richtig sind, bevor sie sie freigeben.
Wenn Sie möchten, dass andere Benutzende der Umgebung oder Gruppen Ihre Eingabeaufforderung in Power Apps oder Power Automate verwenden, müssen Sie sie freigeben.
Weiter Informationen erhalten Sie unter Ihre Eingabeaufforderung teilen.
Was sind benutzerdefinierte Eingabeaufforderungen und KI-Funktionen?
Benutzerdefinierte Eingabeaufforderungen
Benutzerdefinierte Eingabeaufforderungen geben Entwicklern die Freiheit, das große Sprachmodell (LLM) anzuweisen, sich auf eine bestimmte Weise zu verhalten oder eine bestimmte Aufgabe auszuführen. Durch die sorgfältige Ausarbeitung einer Eingabeaufforderung können Sie Antworten generieren, die Ihren spezifischen Geschäftsanforderungen entsprechen. Dadurch wird das LLM-Modell zu einem flexiblen Werkzeug zur Erfüllung verschiedener Aufgaben.
Beispiel
Bei einem Sprachmodell kann eine benutzerdefinierte Eingabeaufforderung das Modell anleiten, eine Frage zu beantworten, Text zu vervollständigen, Sprachen zu übersetzen, ein Dokument zusammenzufassen und Aufgaben, Aufgaben und Aktionselemente im Text zu identifizieren. Die Komplexität einer benutzerdefinierten Eingabeaufforderung kann je nach Aufgabe von einem einzelnen Satz bis zu etwas Komplizierterem reichen.
KI-Funktionen
Vorgefertigte KI-Funktionen sind vorkonfigurierte Eingabeaufforderungen, die vom Microsoft-Team erstellt wurden, um Entwickelnden dabei zu helfen, häufige Aufgaben einfach zu erledigen. Sie bieten gebrauchsfertige KI-Funktionen für verschiedene Anwendungsfälle, was es den Erstellenden erleichtert, Intelligenz in ihre Lösungen einzubringen.
Beispiel
Die vorgefertigte Eingabeaufforderung eines Sprachmodells könnte wie folgt aussehen:
Extrahieren Sie die Aktionspunkte als nummerierte Liste aus: [TextToExtract]
In diesem Fall muss der Benutzer nur den Text in [TextToExtract]
angeben, aus dem er Aktionspunkte extrahieren möchte. Den Rest erledigt die vorgefertigte Eingabeaufforderung.