Udostępnij przez


Wdrażanie niestandardowego modelu mowy

Z tego artykułu dowiesz się, jak wdrożyć punkt końcowy dla niestandardowego modelu mowy. Z wyjątkiem transkrypcji wsadowej należy wdrożyć niestandardowy punkt końcowy, aby użyć niestandardowego modelu mowy.

Napiwek

Hostowany punkt końcowy wdrożenia nie jest wymagany do używania mowy niestandardowej z interfejsem API transkrypcji usługi Batch. Zasoby można oszczędzać, jeśli niestandardowy model mowy jest używany tylko do transkrypcji wsadowej. Aby uzyskać więcej informacji, zobacz Cennik usługi Mowa.

Punkt końcowy można wdrożyć dla modelu podstawowego lub niestandardowego, a następnie zaktualizować punkt końcowy później, aby użyć lepiej wytrenowanego modelu.

Uwaga

Punkty końcowe używane przez F0 zasoby usługi Mowa są usuwane po siedmiu dniach.

Dodawanie punktu końcowego wdrożenia

Napiwek

Przenoszenie niestandardowych modeli mowy z usługi Speech Studio do portalu Microsoft Foundry. W portalu Microsoft Foundry możesz kontynuować od miejsca, w którym przerwałeś, łącząc się z istniejącym zasobem usługi rozpoznawania mowy. Aby uzyskać więcej informacji na temat nawiązywania połączenia z istniejącym zasobem usługi Mowa, zobacz Nawiązywanie połączenia z istniejącym zasobem usługi Mowa.

  1. Zaloguj się do portalu Microsoft Foundry.

  2. Wybierz Dostrajanie z lewego panelu, a następnie wybierz dostrajanie usługi AI.

  3. Wybierz zadanie dostosowywania mowy niestandardowej (według nazwy modelu), które zostało uruchomione zgodnie z opisem w artykule dotyczącym dostosowywania mowy niestandardowej.

  4. Wybierz pozycję Wdróż modele>+ Wdróż modele.

    Zrzut ekranu przedstawiający stronę z opcją wdrożenia niestandardowego modelu mowy.

  5. W kreatorze Wdrażanie nowego modelu wybierz model, który chcesz wdrożyć.

    Zrzut ekranu przedstawiający stronę z opcją wybrania modelu, który chcesz wdrożyć.

  6. Wprowadź nazwę i opis wdrożenia. Zaznacz pole, aby wyrazić zgodę na warunki użytkowania. Następnie wybierz pozycję Wdróż.

  7. Gdy stan wdrożenia to Powodzenie, możesz wyświetlić szczegóły wdrożenia. Wybierz wdrożenie, aby wyświetlić szczegóły, takie jak identyfikator punktu końcowego.

    Zrzut ekranu przedstawiający stronę z opcją wybrania wdrożenia w celu wyświetlenia szczegółów, takich jak identyfikator punktu końcowego.

Aby utworzyć niestandardowy punkt końcowy, wykonaj następujące kroki:

  1. Zaloguj się do programu Speech Studio.

  2. Wybierz pozycję Mowa> niestandardowa Nazwa >projektu Wdróż modele.

    Jeśli jest to pierwszy punkt końcowy, zauważysz, że w tabeli nie ma punktów końcowych. Po utworzeniu punktu końcowego użyj tej strony do śledzenia poszczególnych wdrożonych punktów końcowych.

  3. Wybierz pozycję Wdróż model , aby uruchomić kreatora nowego punktu końcowego.

  4. Na stronie Nowy punkt końcowy wprowadź nazwę i opis niestandardowego punktu końcowego.

  5. Wybierz model niestandardowy, który chcesz skojarzyć z tym punktem końcowym.

  6. Opcjonalnie możesz zaznaczyć to pole wyboru, aby włączyć rejestrowanie audio i diagnostyczne ruchu punktu końcowego.

    Zrzut ekranu przedstawiający stronę Nowy punkt końcowy pokazujący pole wyboru umożliwiające włączenie rejestrowania.

  7. Wybierz pozycję Dodaj , aby zapisać i wdrożyć punkt końcowy.

Na stronie głównej Wdrażanie modeli szczegółowe informacje o nowym punkcie końcowym są wyświetlane w tabeli, takie jak nazwa, opis, stan i data wygaśnięcia. Utworzenie wystąpienia nowego punktu końcowego korzystającego z modeli niestandardowych może potrwać do 30 minut. Gdy stan wdrożenia zmieni się na Powodzenie, punkt końcowy jest gotowy do użycia.

Ważne

Zanotuj datę wygaśnięcia modelu. Jest to ostatnia data, w której można użyć modelu niestandardowego do rozpoznawania mowy. Aby uzyskać więcej informacji, zobacz Cykl życia modelu i punktu końcowego.

Wybierz link punktu końcowego, aby wyświetlić informacje specyficzne dla niego, takie jak klucz punktu końcowego, adres URL punktu końcowego i przykładowy kod.

Przed kontynuowaniem upewnij się, że masz zainstalowany i skonfigurowany Speech CLI.

Aby utworzyć punkt końcowy i wdrożyć model, użyj spx csr endpoint create polecenia . Skonstruuj parametry żądania zgodnie z następującymi instrukcjami:

  • Ustaw właściwość project na identyfikator istniejącego projektu. Zaleca się właściwość project, aby można było również zarządzać dostosowywaniem niestandardowej mowy w portalu Microsoft Foundry. Aby uzyskać identyfikator projektu, zobacz Pobieranie identyfikatora projektu dla dokumentacji interfejsu API REST .
  • Ustaw wymaganą model właściwość na identyfikator modelu, który chcesz wdrożyć do punktu końcowego.
  • Ustaw wymaganą language właściwość. Ustawienia regionalne punktu końcowego muszą być zgodne z ustawieniami regionalnymi modelu. Nie można później zmienić ustawień regionalnych. Właściwość language interfejsu wiersza polecenia usługi Mowa odpowiada właściwości locale w żądaniu i odpowiedzi w formacie JSON.
  • Ustaw wymaganą name właściwość. Jest to nazwa wyświetlana w portalu Microsoft Foundry. Właściwość name interfejsu wiersza polecenia usługi Mowa odpowiada właściwości displayName w żądaniu i odpowiedzi w formacie JSON.
  • Opcjonalnie można ustawić logging właściwość . Ustaw tę opcję, aby enabled włączyć rejestrowanie audio i diagnostyczne ruchu punktu końcowego. Wartość domyślna to false.

Oto przykładowe polecenie interfejsu wiersza polecenia usługi Mowa służące do tworzenia punktu końcowego i wdrażania modelu:

spx csr endpoint create --api-version v3.2 --project YourProjectId --model YourModelId --name "My Endpoint" --description "My Endpoint Description" --language "en-US"

Ważne

Musisz ustawić wartość --api-version v3.2. Interfejs CLI usługi Mowa używa interfejsu API REST, ale jeszcze nie obsługuje wersji nowszych niż v3.2.

Treść odpowiedzi powinna zostać wyświetlona w następującym formacie:

{
  "self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/aaaabbbb-0000-cccc-1111-dddd2222eeee",
  "model": {
    "self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/models/bbbbcccc-1111-dddd-2222-eeee3333ffff"
  },
  "links": {
    "logs": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/a07164e8-22d1-4eb7-aa31-bf6bb1097f37/files/logs",
    "restInteractive": "https://eastus.stt.speech.microsoft.com/speech/recognition/interactive/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
    "restConversation": "https://eastus.stt.speech.microsoft.com/speech/recognition/conversation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
    "restDictation": "https://eastus.stt.speech.microsoft.com/speech/recognition/dictation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
    "webSocketInteractive": "wss://eastus.stt.speech.microsoft.com/speech/recognition/interactive/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
    "webSocketConversation": "wss://eastus.stt.speech.microsoft.com/speech/recognition/conversation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
    "webSocketDictation": "wss://eastus.stt.speech.microsoft.com/speech/recognition/dictation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee"
  },
  "project": {
    "self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/projects/ccccdddd-2222-eeee-3333-ffff4444aaaa"
  },
  "properties": {
    "loggingEnabled": true
  },
  "lastActionDateTime": "2024-07-15T16:29:36Z",
  "status": "NotStarted",
  "createdDateTime": "2024-07-15T16:29:36Z",
  "locale": "en-US",
  "displayName": "My Endpoint",
  "description": "My Endpoint Description"
}

Właściwość najwyższego poziomu self w treści odpowiedzi to identyfikator URI punktu końcowego. Użyj tego identyfikatora URI, aby uzyskać szczegółowe informacje o projekcie, modelu i dziennikach punktu końcowego. Ten identyfikator URI służy również do aktualizowania punktu końcowego.

Aby uzyskać pomoc dotyczącą interfejsu wiersza polecenia usługi Mowa w punktach końcowych, uruchom następujące polecenie:

spx help csr endpoint

Aby utworzyć punkt końcowy i wdrożyć model, użyj operacji Endpoints_Create interfejsu API REST zamiany mowy na tekst. Skonstruuj treść żądania zgodnie z następującymi instrukcjami:

  • project Ustaw właściwość na identyfikator URI istniejącego projektu. Ta właściwość jest zalecana, aby można było również wyświetlać punkt końcowy i zarządzać nim w portalu Microsoft Foundry. Aby uzyskać identyfikator projektu, zobacz Pobieranie identyfikatora projektu dla dokumentacji interfejsu API REST .
  • Ustaw właściwość wymaganą model na identyfikator URI modelu, który ma zostać wdrożony w punkcie końcowym.
  • Ustaw wymaganą locale właściwość. Ustawienia regionalne punktu końcowego muszą być zgodne z ustawieniami regionalnymi modelu. Nie można później zmienić ustawień regionalnych.
  • Ustaw wymaganą displayName właściwość. Jest to nazwa wyświetlana w portalu Microsoft Foundry.
  • Opcjonalnie można ustawić loggingEnabled właściwość w obiekcie properties. Ustaw tę opcję, aby true włączyć rejestrowanie audio i diagnostyczne ruchu punktu końcowego. Wartość domyślna to false.

Utwórz żądanie HTTP POST przy użyciu identyfikatora URI, jak pokazano w poniższym przykładzie Endpoints_Create . Zastąp YourSpeechResoureKey ciąg kluczem zasobu usługi Mowa, zastąp YourServiceRegion element regionem zasobu usługi Mowa i ustaw właściwości treści żądania zgodnie z wcześniejszym opisem.

curl -v -X POST -H "Ocp-Apim-Subscription-Key: YourSpeechResoureKey" -H "Content-Type: application/json" -d '{
  "project": {
    "self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/projects/ccccdddd-2222-eeee-3333-ffff4444aaaa"
  },
  "properties": {
    "loggingEnabled": true
  },
  "displayName": "My Endpoint",
  "description": "My Endpoint Description",
  "model": {
    "self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/models/base/ddddeeee-3333-ffff-4444-aaaa5555bbbb"
  },
  "locale": "en-US",
}'  "https://YourServiceRegion.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints"

Treść odpowiedzi powinna zostać wyświetlona w następującym formacie:

{
  "self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/aaaabbbb-0000-cccc-1111-dddd2222eeee",
  "model": {
    "self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/models/bbbbcccc-1111-dddd-2222-eeee3333ffff"
  },
  "links": {
    "logs": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/a07164e8-22d1-4eb7-aa31-bf6bb1097f37/files/logs",
    "restInteractive": "https://eastus.stt.speech.microsoft.com/speech/recognition/interactive/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
    "restConversation": "https://eastus.stt.speech.microsoft.com/speech/recognition/conversation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
    "restDictation": "https://eastus.stt.speech.microsoft.com/speech/recognition/dictation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
    "webSocketInteractive": "wss://eastus.stt.speech.microsoft.com/speech/recognition/interactive/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
    "webSocketConversation": "wss://eastus.stt.speech.microsoft.com/speech/recognition/conversation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
    "webSocketDictation": "wss://eastus.stt.speech.microsoft.com/speech/recognition/dictation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee"
  },
  "project": {
    "self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/projects/ccccdddd-2222-eeee-3333-ffff4444aaaa"
  },
  "properties": {
    "loggingEnabled": true
  },
  "lastActionDateTime": "2024-07-15T16:29:36Z",
  "status": "NotStarted",
  "createdDateTime": "2024-07-15T16:29:36Z",
  "locale": "en-US",
  "displayName": "My Endpoint",
  "description": "My Endpoint Description"
}

Właściwość najwyższego poziomu self w treści odpowiedzi to identyfikator URI punktu końcowego. Użyj tego identyfikatora URI, aby uzyskać szczegółowe informacje o projekcie, modelu i dziennikach punktu końcowego. Ten identyfikator URI służy również do aktualizowania lub usuwania punktu końcowego.

Zmienianie modelu i ponowne wdrażanie punktu końcowego

Punkt końcowy można zaktualizować tak, aby używał innego modelu utworzonego przez ten sam zasób usługi Mowa. Jak wspomniano wcześniej, należy zaktualizować model punktu końcowego przed wygaśnięciem modelu.

Aby użyć nowego modelu i ponownie wdrożyć niestandardowy punkt końcowy:

  1. Zaloguj się do programu Speech Studio.
  2. Wybierz pozycję Mowa> niestandardowa Nazwa >projektu Wdróż modele.
  3. Wybierz link do punktu końcowego według nazwy, a następnie wybierz pozycję Zmień model.
  4. Wybierz nowy model, którego chcesz użyć punktu końcowego.
  5. Wybierz pozycję Gotowe , aby zapisać i ponownie wdrożyć punkt końcowy.

Przed kontynuowaniem upewnij się, że masz zainstalowany i skonfigurowany Speech CLI.

Aby ponownie wdrożyć niestandardowy punkt końcowy przy użyciu nowego modelu, użyj spx csr model update polecenia . Skonstruuj parametry żądania zgodnie z następującymi instrukcjami:

  • Ustaw wymaganą endpoint właściwość na identyfikator punktu końcowego, który chcesz wdrożyć.
  • Ustaw wymaganą model właściwość na identyfikator modelu, który chcesz wdrożyć do punktu końcowego.

Oto przykładowe polecenie interfejsu wiersza polecenia usługi Mowa, które ponownie wdraża niestandardowy punkt końcowy przy użyciu nowego modelu:

spx csr endpoint update --api-version v3.2 --endpoint YourEndpointId --model YourModelId

Ważne

Musisz ustawić wartość --api-version v3.2. Interfejs CLI usługi Mowa używa interfejsu API REST, ale jeszcze nie obsługuje wersji nowszych niż v3.2.

Treść odpowiedzi powinna zostać wyświetlona w następującym formacie:

{
  "self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/aaaabbbb-0000-cccc-1111-dddd2222eeee",
  "model": {
    "self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/models/bbbbcccc-1111-dddd-2222-eeee3333ffff"
  },
  "links": {
    "logs": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/a07164e8-22d1-4eb7-aa31-bf6bb1097f37/files/logs",
    "restInteractive": "https://eastus.stt.speech.microsoft.com/speech/recognition/interactive/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
    "restConversation": "https://eastus.stt.speech.microsoft.com/speech/recognition/conversation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
    "restDictation": "https://eastus.stt.speech.microsoft.com/speech/recognition/dictation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
    "webSocketInteractive": "wss://eastus.stt.speech.microsoft.com/speech/recognition/interactive/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
    "webSocketConversation": "wss://eastus.stt.speech.microsoft.com/speech/recognition/conversation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
    "webSocketDictation": "wss://eastus.stt.speech.microsoft.com/speech/recognition/dictation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee"
  },
  "project": {
    "self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/projects/ccccdddd-2222-eeee-3333-ffff4444aaaa"
  },
  "properties": {
    "loggingEnabled": true
  },
  "lastActionDateTime": "2024-07-15T16:30:12Z",
  "status": "Succeeded",
  "createdDateTime": "2024-07-15T16:29:36Z",
  "locale": "en-US",
  "displayName": "My Endpoint",
  "description": "My Endpoint Description"
}

Aby uzyskać pomoc dotyczącą interfejsu wiersza polecenia usługi Mowa w punktach końcowych, uruchom następujące polecenie:

spx help csr endpoint

Aby ponownie wdrożyć niestandardowy punkt końcowy przy użyciu nowego modelu, użyj Endpoints_Update operacji zamiany mowy na tekst interfejsu API REST. Skonstruuj treść żądania zgodnie z następującymi instrukcjami:

  • model Ustaw właściwość na identyfikator URI modelu, który ma zostać wdrożony w punkcie końcowym.

Utwórz żądanie HTTP PATCH przy użyciu identyfikatora URI, jak pokazano w poniższym przykładzie. Zastąp YourSpeechResoureKey ciąg kluczem zasobu usługi Mowa, zastąp element regionem zasobu usługi Mowa, zastąp YourServiceRegionYourEndpointId element identyfikatorem punktu końcowego i ustaw właściwości treści żądania zgodnie z wcześniejszym opisem.

curl -v -X PATCH -H "Ocp-Apim-Subscription-Key: YourSpeechResoureKey" -H "Content-Type: application/json" -d '{
  "model": {
    "self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/models/bbbbcccc-1111-dddd-2222-eeee3333ffff"
  },
}'  "https://YourServiceRegion.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/YourEndpointId"

Treść odpowiedzi powinna zostać wyświetlona w następującym formacie:

{
  "self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/aaaabbbb-0000-cccc-1111-dddd2222eeee",
  "model": {
    "self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/models/bbbbcccc-1111-dddd-2222-eeee3333ffff"
  },
  "links": {
    "logs": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/a07164e8-22d1-4eb7-aa31-bf6bb1097f37/files/logs",
    "restInteractive": "https://eastus.stt.speech.microsoft.com/speech/recognition/interactive/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
    "restConversation": "https://eastus.stt.speech.microsoft.com/speech/recognition/conversation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
    "restDictation": "https://eastus.stt.speech.microsoft.com/speech/recognition/dictation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
    "webSocketInteractive": "wss://eastus.stt.speech.microsoft.com/speech/recognition/interactive/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
    "webSocketConversation": "wss://eastus.stt.speech.microsoft.com/speech/recognition/conversation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
    "webSocketDictation": "wss://eastus.stt.speech.microsoft.com/speech/recognition/dictation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee"
  },
  "project": {
    "self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/projects/ccccdddd-2222-eeee-3333-ffff4444aaaa"
  },
  "properties": {
    "loggingEnabled": true
  },
  "lastActionDateTime": "2024-07-15T16:30:12Z",
  "status": "Succeeded",
  "createdDateTime": "2024-07-15T16:29:36Z",
  "locale": "en-US",
  "displayName": "My Endpoint",
  "description": "My Endpoint Description"
}

Ponowne wdrożenie trwa kilka minut. W międzyczasie punkt końcowy używa poprzedniego modelu bez przerwy w działaniu usługi.

Wyświetlanie danych rejestrowania

Dane rejestrowania są dostępne do eksportowania, jeśli zostały skonfigurowane podczas tworzenia punktu końcowego.

Aby pobrać dzienniki punktu końcowego:

  1. Zaloguj się do programu Speech Studio.
  2. Wybierz pozycję Mowa> niestandardowa Nazwa >projektu Wdróż modele.
  3. Wybierz link według nazwy punktu końcowego.
  4. W obszarze Rejestrowanie zawartości wybierz pozycję Pobierz dziennik.

Przed kontynuowaniem upewnij się, że masz zainstalowany i skonfigurowany Speech CLI.

Aby uzyskać dzienniki dla punktu końcowego, użyj spx csr endpoint list polecenia . Skonstruuj parametry żądania zgodnie z następującymi instrukcjami:

  • Ustaw wymaganą endpoint właściwość jako identyfikator punktu końcowego, z którego chcesz pobrać dzienniki.

Oto przykładowe polecenie interfejsu wiersza polecenia usługi Mowa, które pobiera dzienniki dla punktu końcowego:

spx csr endpoint list --api-version v3.2 --endpoint YourEndpointId

Ważne

Musisz ustawić wartość --api-version v3.2. Interfejs CLI usługi Mowa używa interfejsu API REST, ale jeszcze nie obsługuje wersji nowszych niż v3.2.

Lokalizacje każdego pliku dziennika zawierające więcej szczegółów są zwracane w treści odpowiedzi.

Aby uzyskać dzienniki dla punktu końcowego, zacznij od użycia Endpoints_Get operacji interfejsu API REST zamiany mowy na tekst.

Utwórz żądanie HTTP GET przy użyciu identyfikatora URI, jak pokazano w poniższym przykładzie. Zastąp YourEndpointId ciąg swoim identyfikatorem punktu końcowego, zastąp YourSpeechResoureKey ciąg kluczem zasobu usługi Mowa i zastąp YourServiceRegion element regionem zasobu usługi Mowa.

curl -v -X GET "https://YourServiceRegion.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/YourEndpointId" -H "Ocp-Apim-Subscription-Key: YourSpeechResoureKey"

Treść odpowiedzi powinna zostać wyświetlona w następującym formacie:

{
  "self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/aaaabbbb-0000-cccc-1111-dddd2222eeee",
  "model": {
    "self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/models/bbbbcccc-1111-dddd-2222-eeee3333ffff"
  },
  "links": {
    "logs": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/a07164e8-22d1-4eb7-aa31-bf6bb1097f37/files/logs",
    "restInteractive": "https://eastus.stt.speech.microsoft.com/speech/recognition/interactive/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
    "restConversation": "https://eastus.stt.speech.microsoft.com/speech/recognition/conversation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
    "restDictation": "https://eastus.stt.speech.microsoft.com/speech/recognition/dictation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
    "webSocketInteractive": "wss://eastus.stt.speech.microsoft.com/speech/recognition/interactive/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
    "webSocketConversation": "wss://eastus.stt.speech.microsoft.com/speech/recognition/conversation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
    "webSocketDictation": "wss://eastus.stt.speech.microsoft.com/speech/recognition/dictation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee"
  },
  "project": {
    "self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/projects/ccccdddd-2222-eeee-3333-ffff4444aaaa"
  },
  "properties": {
    "loggingEnabled": true
  },
  "lastActionDateTime": "2024-07-15T16:30:12Z",
  "status": "Succeeded",
  "createdDateTime": "2024-07-15T16:29:36Z",
  "locale": "en-US",
  "displayName": "My Endpoint",
  "description": "My Endpoint Description"
}

Utwórz żądanie HTTP GET przy użyciu identyfikatora URI "logs" z poprzedniej treści odpowiedzi. Zastąp YourEndpointId ciąg swoim identyfikatorem punktu końcowego, zastąp YourSpeechResoureKey ciąg kluczem zasobu usługi Mowa i zastąp YourServiceRegion element regionem zasobu usługi Mowa.

curl -v -X GET "https://YourServiceRegion.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/YourEndpointId/files/logs" -H "Ocp-Apim-Subscription-Key: YourSpeechResoureKey"

Lokalizacje każdego pliku dziennika zawierające więcej szczegółów są zwracane w treści odpowiedzi.

Dane rejestrowania są dostępne w magazynie należącym do firmy Microsoft przez 30 dni, a następnie są usuwane. Jeśli twoje własne konto magazynu jest połączone z subskrypcją narzędzi Foundry Tools, dane rejestrowania nie zostaną automatycznie usunięte.