Wysyłanie żądań przewidywania do wdrożenia

Po pomyślnym dodaniu wdrożenia można wykonać zapytanie dotyczące wdrożenia pod kątem przewidywań intencji i jednostek z wypowiedzi na podstawie modelu przypisanego do wdrożenia. Możesz wykonać zapytanie dotyczące wdrożenia programowo za pomocą interfejsu API przewidywania lub bibliotek klienta (Azure SDK).

Testowanie wdrożonego modelu

Program Language Studio umożliwia przesyłanie wypowiedzi, uzyskiwanie przewidywań i wizualizowanie wyników.

Aby przetestować wdrożone modele z poziomu programu Language Studio:

  1. Wybierz pozycję Testowanie wdrożeń z menu po lewej stronie.

  2. W przypadku projektów wielojęzycznych z listy rozwijanej Wybierz język tekstu wybierz język testowej wypowiedzi.

  3. Z listy rozwijanej Nazwa wdrożenia wybierz nazwę wdrożenia odpowiadającą modelowi, który chcesz przetestować. Można testować tylko modele przypisane do wdrożeń.

  4. W polu tekstowym wprowadź wypowiedź do przetestowania. Jeśli na przykład utworzono aplikację na potrzeby wypowiedzi związanych z pocztą e-mail, możesz wprowadzić pozycję Usuń tę wiadomość e-mail.

  5. W górnej części strony wybierz pozycję Uruchom test.

  6. Po uruchomieniu testu powinna zostać wyświetlona odpowiedź modelu w wyniku. Wyniki można wyświetlić w widoku kart jednostek lub wyświetlić je w formacie JSON.


Wysyłanie żądania interpretacji języka konwersacyjnego

  1. Po pomyślnym zakończeniu zadania wdrożenia wybierz wdrożenie, którego chcesz użyć, a w górnym menu wybierz pozycję Pobierz adres URL przewidywania.

    Zrzut ekranu przedstawiający adres URL przewidywania w programie Language Studio.

  2. W wyświetlonym oknie skopiuj przykładowy adres URL żądania i treść do wiersza polecenia.

  3. Zastąp <YOUR_QUERY_HERE> element rzeczywistym tekstem, z którego chcesz wysłać, aby wyodrębnić intencje i jednostki.

  4. POST Prześlij żądanie cURL w terminalu lub wierszu polecenia. Jeśli żądanie zakończyło się pomyślnie, otrzymasz odpowiedź 202 z wynikami interfejsu API.

Następne kroki