Abfragebereitstellung für Absichtsvorhersagen

Nachdem die Bereitstellung erfolgreich hinzugefügt wurde, können Sie die Bereitstellung auf Basis des Modells, das Sie der Bereitstellung zugewiesen haben, auf Absichts- und Entitätsvorhersagen aus Ihrer Äußerung abfragen. Sie können die Bereitstellung programmgesteuert mithilfe der Vorhersage-API oder über die Clientbibliotheken (Azure SDK) abfragen.

Testen des bereitgestellten Modells

Sie können Language Studio verwenden, um eine Äußerung zu übermitteln, Vorhersagen abzurufen und die Ergebnisse zu visualisieren.

So testen Sie Ihr Modell aus Language Studio

  1. Wählen Sie Testbereitstellungen aus dem Menü auf der linken Seite aus.

  2. Wählen Sie das Modell aus, das Sie testen möchten. Sie können nur Modelle testen, die Bereitstellungen zugewiesen sind.

  3. Wählen Sie in der Dropdownliste „Bereitstellungsname“ den Namen Ihrer Bereitstellung aus.

  4. Geben Sie im Textfeld eine Äußerung ein, die getestet werden soll.

  5. Wählen Sie im oberen Menü Test ausführen aus.

  6. Nach dem Ausführen des Tests sollten Sie die Antwort des Modells im Ergebnis sehen. Sie können die Ergebnisse in der Kartenansicht der Entitäten oder im JSON-Format anzeigen.

    Screenshot: Testen eines Modells in Language Studio


Senden einer Orchestrierungs-Workflowanforderung

  1. Nachdem der Bereitstellungsauftrag erfolgreich abgeschlossen wurde, wählen Sie die Bereitstellung aus, die Sie verwenden möchten, und wählen Sie dann im oberen Menü die Option Vorhersage-URL abrufen aus.

    Screenshot: Abrufen einer Vorhersage-URL.

  2. Kopieren Sie im angezeigten Fenster die URL und den Text der Beispielanforderung in die Befehlszeile. Ersetzen Sie <YOUR_QUERY_HERE> durch den eigentlichen Text, den Sie zum Extrahieren von Absichten und Entitäten senden möchten.

  3. Übermitteln Sie die cURL-Anforderung POST in Ihrem Terminal oder an der Eingabeaufforderung. Wenn die Anforderung erfolgreich war, erhalten Sie eine 202-Antwort mit den API-Ergebnissen.

Nächste Schritte