Um ein Modell zu trainieren, müssen Sie einen Trainingsauftrag starten. Ein Modell wird nur bei erfolgreich abgeschlossenen Aufträgen erstellt. Trainingsaufträge laufen nach sieben Tagen ab. Danach können die Auftragsdetails nicht mehr abgerufen werden. Wenn Ihr Trainingsauftrag erfolgreich abgeschlossen und ein Modell erstellt wurde, ist es vom Auftragsablauf nicht betroffen. Es kann jeweils nur ein Trainingsauftrag ausgeführt werden, und Sie können keine anderen Aufträge im selben Projekt starten.
Die Trainingszeiten können zwischen wenigen Sekunden (bei einfachen Projekten) und mehreren Stunden liegen, wenn Sie die Obergrenze für Äußerungen erreichen.
Die Modellauswertung wird automatisch ausgelöst, nachdem das Training erfolgreich abgeschlossen wurde. Beim Auswertungsprozess werden zunächst auf der Grundlage des trainierten Modells Vorhersagen für die Äußerungen im Testsatz generiert und die vorhergesagten Ergebnisse mit den bereitgestellten Bezeichnungen verglichen, um eine Wahrheitsbaseline zu erhalten. Die Ergebnisse werden zurückgegeben, sodass Sie die Leistung des Modells überprüfen können.
Voraussetzungen
Ein erfolgreich erstelltes Projekt mit einem konfigurierten Azure Blob Storage-Konto
Bevor Sie den Trainingsprozess starten, werden beschriftete Äußerungen in Ihrem Projekt in einen Trainings- und in einen Testsatz unterteilt. Beide haben unterschiedliche Funktion.
Der Trainingssatz wird beim Trainieren des Modells verwendet. Anhand dieses Satzes lernt das Modell die beschrifteten Äußerungen.
Der Testsatz ist ein blinder Satz, der dem Modell nicht während des Trainings, sondern erst während der Auswertung präsentiert wird.
Nachdem das Modell erfolgreich trainiert wurde, kann es verwendet werden, um Vorhersagen auf der Grundlage der Äußerungen im Testsatz zu generieren. Diese Vorhersagen werden zum Berechnen der Auswertungsmetriken verwendet.
Achten Sie möglichst darauf, dass alle Ihre Absichten sowohl im Trainings- als auch im Testsatz angemessen dargestellt sind.
Der Orchestrierungsworkflow unterstützt zwei Datenaufteilungsmethoden:
Automatisches Aufteilen des Testsatzes aus den Trainingsdaten: Das System teilt Ihre markierten Daten gemäß den von Ihnen ausgewählten Prozentsätzen zwischen dem Trainings- und dem Testsatz auf. Empfohlen wird eine prozentuale Aufteilung von 80 Prozent für das Training und 20 Prozent für die Tests.
Hinweis
Wenn Sie die Option Automatisches Abspalten des Testdatensatzes aus den Trainingsdaten auswählen, werden nur die dem Trainingsdatensatz zugewiesenen Daten gemäß den angegebenen Prozentsätzen aufgeteilt.
Verwenden einer manuellen Aufteilung von Trainings- und Testdaten: Mit dieser Methode können Benutzer definieren, welche Äußerungen zu welchem Satz gehören sollen. Dieser Schritt ist nur aktiviert, wenn Sie Ihrem Testsatz im Rahmen der Beschriftung Äußerungen hinzugefügt haben.
Hinweis
Im Trainingsdataset können nur Äußerungen für nicht verknüpfte Absichten hinzufügt werden.
So beginnen Sie das Training Ihres Modells über Language Studio:
Wählen Sie Trainingsaufträge aus dem Menü auf der linken Seite aus.
Wählen Sie im oberen Menü Trainingsauftrag starten aus.
Wählen Sie Neues Modell trainieren aus, und geben Sie den Namen des Modells im Textfeld darunter ein. Sie können auch ein vorhandenes Modell überschreiben, indem Sie diese Option auswählen und das Modell, das Sie überschreiben möchten, im Dropdownmenü auswählen. Das Überschreiben eines trainierten Modells kann nicht rückgängig gemacht werden, wirkt sich jedoch erst auf Ihre bereitgestellten Modelle aus, wenn Sie das neue Modell bereitstellen.
Automatisches Aufteilen des Testsatzes aus Trainingsdaten: Ihre gekennzeichneten Äußerungen werden nach dem Zufallsprinzip gemäß den von Ihnen ausgewählten Prozentsätzen zwischen dem Trainings- und dem Testsatz aufgeteilt. Standardmäßig wird eine prozentuale Aufteilung von 80 % für das Training und 20 % für Tests verwendet. Wenn Sie diese Werte ändern möchten, wählen Sie den zu ändernden Satz aus, und geben Sie den neuen Wert ein.
Hinweis
Bei Verwendung der Option Automatisches Aufteilen des Testsatzes aus Trainingsdaten werden nur die Äußerungen in Ihrem Trainingssatz gemäß den angegebenen Prozentsätzen aufgeteilt.
Verwenden einer manuellen Aufteilung von Trainings- und Testdaten: Weisen Sie die einzelnen Äußerungen im Rahmen des Kennzeichnungsschritts des Projekts entweder dem Trainings- oder dem Testsatz zu.
Hinweis
Die Option Verwenden einer manuellen Aufteilung von Trainings- und Testdaten ist nur aktiviert, wenn Sie dem Testsatz auf der Seite zum Kennzeichnen von Daten Äußerungen hinzufügen. Andernfalls wird sie deaktiviert.
Wählen Sie die Schaltfläche Train (Trainieren) aus.
Hinweis
Nur erfolgreich abgeschlossene Trainingsaufträge generieren Modelle.
Je nach Umfang Ihrer gekennzeichneten Daten kann das Training wenige Minuten oder mehrere Stunden dauern.
Es kann jeweils nur ein Trainingsauftrag ausgeführt werden. Sie können innerhalb des gleichen Projekts keinen weiteren Trainingsauftrag starten, bis der ausgeführte Auftrag abgeschlossen ist.
Erstellen Sie eine POST-Anforderung mithilfe der folgenden URL, der Header und des JSON-Texts, um einen Trainingsauftrag zu übermitteln.
Anfrage-URL
Verwenden Sie zum Erstellen Ihrer API-Anforderung die folgende URL. Ersetzen Sie die folgenden Platzhalter durch Ihre eigenen Werte.
Trainingsmodus. Bei der Orchestrierung ist nur ein Trainingsmodus verfügbar: standard.
standard
trainingConfigVersion
{CONFIG-VERSION}
Die Modellversion der Trainingskonfiguration. Standardmäßig wird die neueste Modellversion verwendet.
2022-05-01
kind
percentage
Aufteilungsmethoden Mögliche Werte sind percentage oder manual. Weitere Informationen finden Sie unter Trainieren eines Modells.
percentage
trainingSplitPercentage
80
Prozentsatz der markierten Daten, die in den Trainingssatz einbezogen werden sollen. Der empfohlene Wert ist 80.
80
testingSplitPercentage
20
Prozentsatz der markierten Daten, die in den Testsatz einbezogen werden sollen. Der empfohlene Wert ist 20.
20
Hinweis
trainingSplitPercentage und testingSplitPercentage sind nur erforderlich, wenn Kind auf percentage festgelegt ist, und die Summe beider Prozentsätze sollte 100 ergeben.
Nachdem Sie Ihre API-Anforderung gesendet haben, erhalten Sie eine 202-Antwort, die angibt, dass sie erfolgreich war. Extrahieren Sie in den Antwortheadern den operation-location-Wert. Er weist das folgende Format auf:
Wählen Sie die Trainingsauftrags-ID in der Liste aus. Daraufhin wird ein Seitenbereich angezeigt, in dem Sie den Trainingsfortschritt, den Auftragsstatus und andere Details für diesen Auftrag überprüfen können.
Das Training kann je nach Größe Ihrer Trainingsdaten und der Komplexität Ihres Schemas einige Zeit dauern. Sie können die folgende Anforderung verwenden, um den Status des Trainingsauftrags bis zum erfolgreichen Abschluss abzufragen.
Verwenden Sie die folgende GET-Anforderung, um den Trainingsstatus Ihres Modells abzufragen. Ersetzen Sie die folgenden Platzhalter durch Ihre eigenen Werte.
Der Name für Ihr Projekt. Bei diesem Wert wird die Groß-/Kleinschreibung beachtet.
EmailApp
{JOB-ID}
Die ID zum Ermitteln des Trainingsstatus Ihres Modells. Sie befindet sich im location-Headerwert, den Sie bei der Übermittlung Ihres Trainingsauftrags erhalten haben.
xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxxx
{API-VERSION}
Dies ist die Version der von Ihnen aufgerufenen API.
2023-04-01
Header
Verwenden Sie den folgenden Header, um Ihre Anforderung zu authentifizieren.
Schlüssel
Wert
Ocp-Apim-Subscription-Key
Der Schlüssel für Ihre Ressource. Wird für die Authentifizierung Ihrer API-Anforderungen verwendet.
Antworttext
Nachdem Sie die Anforderung gesendet haben, erhalten Sie die folgende Antwort. Setzen Sie den Abruf dieses Endpunkts fort, bis der Parameter status zu „succeeded“ (erfolgreich) wechselt.
Um einen Trainingsauftrag in Language Studio abzubrechen, navigieren Sie zur Seite Modell trainieren. Wählen Sie den Trainingsauftrag aus, den Sie abbrechen möchten, und wählen Sie im oberen Menü Abbrechen aus.
Erstellen Sie eine POST-Anforderung mithilfe der folgenden URL, der Header und des JSON-Texts, um einen Trainingsauftrag abzubrechen.
Anfrage-URL
Verwenden Sie zum Erstellen Ihrer API-Anforderung die folgende URL. Ersetzen Sie die folgenden Platzhalter durch Ihre eigenen Werte.
Der Name für Ihr Projekt. Bei diesem Wert wird die Groß-/Kleinschreibung beachtet.
EmailApp
{JOB-ID}
Die Trainingsauftrags-ID.
XXXXX-XXXXX-XXXX-XX
{API-VERSION}
Dies ist die Version der von Ihnen aufgerufenen API.
2023-04-01
Header
Verwenden Sie den folgenden Header, um Ihre Anforderung zu authentifizieren.
Schlüssel
Wert
Ocp-Apim-Subscription-Key
Der Schlüssel für Ihre Ressource. Wird für die Authentifizierung Ihrer API-Anforderungen verwendet.
Nachdem Sie Ihre API-Anforderung gesendet haben, erhalten Sie eine Antwort vom Typ „202“, die auf einen erfolgreichen Vorgang hinweist. Das bedeutet, dass Ihr Trainingsauftrag abgebrochen wurde. Ein erfolgreicher Aufruf enthält einen Operation-Location-Header, mit dem der Auftragsstatus überprüft wird.