Udostępnij za pośrednictwem


Jak rejestrować dźwięk i transkrypcje na potrzeby rozpoznawania mowy

Rejestrowanie można włączyć zarówno dla danych wejściowych audio, jak i rozpoznawanych mowy podczas używania mowy do tłumaczenia tekstu lub mowy. W przypadku tłumaczenia mowy rejestrowane są tylko audio i transkrypcje oryginalnego dźwięku. Tłumaczenia nie są rejestrowane. W tym artykule opisano sposób włączania, uzyskiwania dostępu i usuwania dzienników audio i transkrypcji.

Dzienniki audio i transkrypcji mogą służyć jako dane wejściowe do trenowania niestandardowego modelu mowy . Mogą istnieć inne przypadki użycia.

Ostrzeżenie

Nie należy zależeć od dzienników audio i transkrypcji, gdy wymagany jest dokładny rekord dźwięku wejściowego. W okresach szczytowego obciążenia usługa określa priorytety zasobów sprzętowych dla zadań transkrypcji. Może to spowodować brak rejestrowania drobnych części dźwięku. Takie okazje są rzadkie, ale jednak możliwe.

Rejestrowanie odbywa się asynchronicznie zarówno dla punktów końcowych modelu podstawowego, jak i niestandardowego. Usługa mowa przechowuje dzienniki audio i transkrypcji w magazynie wewnętrznym, a nie są zapisywane lokalnie. Dzienniki są przechowywane przez 30 dni. Po upływie tego okresu dzienniki zostaną automatycznie usunięte. Jednak w dowolnym momencie można usunąć określone dzienniki lub zakres dostępnych dzienników.

Dzienniki audio i transkrypcji można również przechowywać na koncie usługi Azure Storage, którego jesteś właścicielem i zamiast kontrolować lokalnie usługi Mowa, korzystając z technologii Bring-your-own-storage (BYOS). Zobacz szczegółowe informacje na temat korzystania z zasobu mowy z obsługą systemu BYOS w tym artykule.

Włączanie rejestrowania audio i transkrypcji

Rejestrowanie jest domyślnie wyłączone. Rejestrowanie można włączyć dla sesji rozpoznawania lub dla niestandardowego punktu końcowego modelu.

Włączanie rejestrowania dla jednej sesji rozpoznawania

Rejestrowanie dla jednej sesji rozpoznawania można włączyć niezależnie od tego, czy jest używany domyślny model podstawowy, czy niestandardowy punkt końcowy modelu .

Ostrzeżenie

W przypadku niestandardowych punktów końcowych modelu ustawienie rejestrowania wdrożonego punktu końcowego jest priorytetowe dla ustawienia na poziomie sesji (zestaw SDK lub interfejs API REST). Jeśli rejestrowanie jest włączone dla niestandardowego punktu końcowego modelu, ustawienie na poziomie sesji (bez względu na to, czy jest ustawione na wartość true, czy false) jest ignorowane. Jeśli rejestrowanie nie jest włączone dla niestandardowego punktu końcowego modelu, ustawienie na poziomie sesji określa, czy rejestrowanie jest aktywne.

Włączanie rejestrowania mowy na tekst przy użyciu zestawu Speech SDK

Aby włączyć rejestrowanie audio i transkrypcji za pomocą zestawu Speech SDK, należy wykonać metodę EnableAudioLogging() wystąpienia klasy SpeechConfig .

speechConfig.EnableAudioLogging();

Aby sprawdzić, czy rejestrowanie jest włączone, pobierz wartość SpeechServiceConnection_EnableAudioLogging właściwości:

string isAudioLoggingEnabled = speechConfig.GetProperty(PropertyId.SpeechServiceConnection_EnableAudioLogging);

Każda funkcja SpeechRecognizer korzystająca z tej speechConfig funkcji ma włączone rejestrowanie audio i transkrypcji.

Aby włączyć rejestrowanie audio i transkrypcji za pomocą zestawu Speech SDK, należy wykonać metodę EnableAudioLogging wystąpienia klasy SpeechConfig .

speechConfig->EnableAudioLogging();

Aby sprawdzić, czy rejestrowanie jest włączone, pobierz wartość SpeechServiceConnection_EnableAudioLogging właściwości:

string isAudioLoggingEnabled = speechConfig->GetProperty(PropertyId::SpeechServiceConnection_EnableAudioLogging);

Każda funkcja SpeechRecognizer korzystająca z tej speechConfig funkcji ma włączone rejestrowanie audio i transkrypcji.

Aby włączyć rejestrowanie audio i transkrypcji za pomocą zestawu Speech SDK, należy wykonać metodę enableAudioLogging() wystąpienia klasy SpeechConfig .

speechConfig.enableAudioLogging();

Aby sprawdzić, czy rejestrowanie jest włączone, pobierz wartość SpeechServiceConnection_EnableAudioLogging właściwości:

String isAudioLoggingEnabled = speechConfig.getProperty(PropertyId.SpeechServiceConnection_EnableAudioLogging);

Każda funkcja SpeechRecognizer korzystająca z tej speechConfig funkcji ma włączone rejestrowanie audio i transkrypcji.

Aby włączyć rejestrowanie audio i transkrypcji za pomocą zestawu Speech SDK, należy wykonać metodę enableAudioLogging() wystąpienia klasy SpeechConfig .

speechConfig.enableAudioLogging();

Aby sprawdzić, czy rejestrowanie jest włączone, pobierz wartość SpeechServiceConnection_EnableAudioLogging właściwości:

var SpeechSDK;
SpeechSDK = speechSdk;
// <...>
string isAudioLoggingEnabled = speechConfig.getProperty(SpeechSDK.PropertyId.SpeechServiceConnection_EnableAudioLogging);

Każda funkcja SpeechRecognizer korzystająca z tej speechConfig funkcji ma włączone rejestrowanie audio i transkrypcji.

Aby włączyć rejestrowanie audio i transkrypcji za pomocą zestawu Speech SDK, należy wykonać metodę enable_audio_logging wystąpienia klasy SpeechConfig .

speech_config.enable_audio_logging()

Aby sprawdzić, czy rejestrowanie jest włączone, pobierz wartość SpeechServiceConnection_EnableAudioLogging właściwości:

import azure.cognitiveservices.speech as speechsdk
# <...>
is_audio_logging_enabled = speech_config.get_property(property_id=speechsdk.PropertyId.SpeechServiceConnection_EnableAudioLogging)

Każda funkcja SpeechRecognizer korzystająca z tej speech_config funkcji ma włączone rejestrowanie audio i transkrypcji.

Aby włączyć rejestrowanie audio i transkrypcji za pomocą zestawu SPEECH SDK, należy wykonać metodę enableAudioLogging wystąpienia klasy SPXSpeechConfiguration .

[speechConfig enableAudioLogging];

Aby sprawdzić, czy rejestrowanie jest włączone, pobierz wartość SPXSpeechServiceConnectionEnableAudioLogging właściwości:

NSString *isAudioLoggingEnabled = [speechConfig getPropertyById:SPXSpeechServiceConnectionEnableAudioLogging];

Każda funkcja SpeechRecognizer korzystająca z tej speechConfig funkcji ma włączone rejestrowanie audio i transkrypcji.

Włączanie rejestrowania na potrzeby tłumaczenia mowy przy użyciu zestawu SPEECH SDK

W przypadku tłumaczenia mowy rejestrowane są tylko audio i transkrypcje oryginalnego dźwięku. Tłumaczenia nie są rejestrowane.

Aby włączyć rejestrowanie audio i transkrypcji za pomocą zestawu SPEECH SDK, należy wykonać metodę EnableAudioLogging() wystąpienia klasy SpeechTranslationConfig .

speechTranslationConfig.EnableAudioLogging();

Aby sprawdzić, czy rejestrowanie jest włączone, pobierz wartość SpeechServiceConnection_EnableAudioLogging właściwości:

string isAudioLoggingEnabled = speechTranslationConfig.GetProperty(PropertyId.SpeechServiceConnection_EnableAudioLogging);

Każda funkcja TranslationRecognizer korzystająca z tej speechTranslationConfig funkcji ma włączone rejestrowanie audio i transkrypcji.

Aby włączyć rejestrowanie audio i transkrypcji za pomocą zestawu SPEECH SDK, należy wykonać metodę EnableAudioLogging wystąpienia klasy SpeechTranslationConfig .

speechTranslationConfig->EnableAudioLogging();

Aby sprawdzić, czy rejestrowanie jest włączone, pobierz wartość SpeechServiceConnection_EnableAudioLogging właściwości:

string isAudioLoggingEnabled = speechTranslationConfig->GetProperty(PropertyId::SpeechServiceConnection_EnableAudioLogging);

Każda funkcja TranslationRecognizer korzystająca z tej speechTranslationConfig funkcji ma włączone rejestrowanie audio i transkrypcji.

Aby włączyć rejestrowanie audio i transkrypcji za pomocą zestawu SPEECH SDK, należy wykonać metodę enableAudioLogging() wystąpienia klasy SpeechTranslationConfig .

speechTranslationConfig.enableAudioLogging();

Aby sprawdzić, czy rejestrowanie jest włączone, pobierz wartość SpeechServiceConnection_EnableAudioLogging właściwości:

String isAudioLoggingEnabled = speechTranslationConfig.getProperty(PropertyId.SpeechServiceConnection_EnableAudioLogging);

Każda funkcja TranslationRecognizer korzystająca z tej speechTranslationConfig funkcji ma włączone rejestrowanie audio i transkrypcji.

Aby włączyć rejestrowanie audio i transkrypcji za pomocą zestawu SPEECH SDK, należy wykonać metodę enableAudioLogging() wystąpienia klasy SpeechTranslationConfig .

speechTranslationConfig.enableAudioLogging();

Aby sprawdzić, czy rejestrowanie jest włączone, pobierz wartość SpeechServiceConnection_EnableAudioLogging właściwości:

var SpeechSDK;
SpeechSDK = speechSdk;
// <...>
string isAudioLoggingEnabled = speechTranslationConfig.getProperty(SpeechSDK.PropertyId.SpeechServiceConnection_EnableAudioLogging);

Każda funkcja TranslationRecognizer korzystająca z tej speechTranslationConfig funkcji ma włączone rejestrowanie audio i transkrypcji.

Aby włączyć rejestrowanie audio i transkrypcji za pomocą zestawu SPEECH SDK, należy wykonać metodę enable_audio_logging wystąpienia klasy SpeechTranslationConfig .

speech_translation_config.enable_audio_logging()

Aby sprawdzić, czy rejestrowanie jest włączone, pobierz wartość SpeechServiceConnection_EnableAudioLogging właściwości:

import azure.cognitiveservices.speech as speechsdk
# <...>
is_audio_logging_enabled = speech_translation_config.get_property(property_id=speechsdk.PropertyId.SpeechServiceConnection_EnableAudioLogging)

Każda funkcja TranslationRecognizer korzystająca z tej speech_translation_config funkcji ma włączone rejestrowanie audio i transkrypcji.

Aby włączyć rejestrowanie audio i transkrypcji za pomocą zestawu SPEECH SDK, należy wykonać metodę enableAudioLogging wystąpienia klasy SPXSpeechTranslationConfiguration .

[speechTranslationConfig enableAudioLogging];

Aby sprawdzić, czy rejestrowanie jest włączone, pobierz wartość SPXSpeechServiceConnectionEnableAudioLogging właściwości:

NSString *isAudioLoggingEnabled = [speechTranslationConfig getPropertyById:SPXSpeechServiceConnectionEnableAudioLogging];

Każda funkcja TranslationRecognizer korzystająca z tej speechTranslationConfig funkcji ma włączone rejestrowanie audio i transkrypcji.

Włączanie rejestrowania dla interfejsu API REST zamiany mowy na tekst dla krótkiego dźwięku

Jeśli używasz usługi Mowa do tłumaczenia tekstu za pomocą interfejsu API REST dla krótkiego dźwięku i chcesz włączyć rejestrowanie audio i transkrypcji, musisz użyć parametru zapytania i wartości storeAudio=true w ramach żądania REST. Przykładowe żądanie wygląda następująco:

https://eastus.stt.speech.microsoft.com/speech/recognition/conversation/cognitiveservices/v1?language=en-US&storeAudio=true

Włączanie rejestrowania audio i transkrypcji dla niestandardowego punktu końcowego modelu

Ta metoda ma zastosowanie tylko w przypadku niestandardowych punktów końcowych mowy .

Rejestrowanie można włączyć lub wyłączyć w ustawieniach trwałego punktu końcowego modelu niestandardowego. Jeśli rejestrowanie jest włączone (włączone) dla niestandardowego punktu końcowego modelu, nie musisz włączać rejestrowania na poziomie sesji rozpoznawania za pomocą zestawu SDK lub interfejsu API REST. Nawet jeśli rejestrowanie nie jest włączone dla niestandardowego punktu końcowego modelu, możesz tymczasowo włączyć rejestrowanie na poziomie sesji rozpoznawania za pomocą zestawu SDK lub interfejsu API REST.

Ostrzeżenie

W przypadku niestandardowych punktów końcowych modelu ustawienie rejestrowania wdrożonego punktu końcowego jest priorytetowe dla ustawienia na poziomie sesji (zestaw SDK lub interfejs API REST). Jeśli rejestrowanie jest włączone dla niestandardowego punktu końcowego modelu, ustawienie na poziomie sesji (bez względu na to, czy jest ustawione na wartość true, czy false) jest ignorowane. Jeśli rejestrowanie nie jest włączone dla niestandardowego punktu końcowego modelu, ustawienie na poziomie sesji określa, czy rejestrowanie jest aktywne.

Rejestrowanie audio i transkrypcji dla niestandardowego punktu końcowego modelu można włączyć:

  • Podczas tworzenia punktu końcowego przy użyciu programu Speech Studio, interfejsu API REST lub interfejsu wiersza polecenia usługi Mowa. Aby uzyskać szczegółowe informacje na temat włączania rejestrowania dla niestandardowego punktu końcowego mowy, zobacz Wdrażanie niestandardowego modelu mowy.
  • Podczas aktualizowania punktu końcowego (Endpoints_Update) przy użyciu interfejsu API REST zamiany mowy na tekst. Aby zapoznać się z przykładem aktualizowania ustawienia rejestrowania dla punktu końcowego, zobacz Wyłączanie rejestrowania dla niestandardowego punktu końcowego modelu. Ale zamiast ustawiać contentLoggingEnabled właściwość na false, ustaw ją na wartość , aby true włączyć rejestrowanie dla punktu końcowego.

Wyłączanie rejestrowania dla niestandardowego punktu końcowego modelu

Aby wyłączyć rejestrowanie audio i transkrypcji dla niestandardowego punktu końcowego modelu, należy zaktualizować ustawienie trwałego rejestrowania punktów końcowych przy użyciu interfejsu API REST zamiany mowy na tekst. Nie ma możliwości wyłączenia rejestrowania dla istniejącego punktu końcowego modelu niestandardowego przy użyciu programu Speech Studio.

Aby wyłączyć rejestrowanie dla niestandardowego punktu końcowego, użyj operacji Endpoints_Update interfejsu API REST zamiany mowy na tekst. Skonstruuj treść żądania zgodnie z następującymi instrukcjami:

  • contentLoggingEnabled Ustaw właściwość w obiekcie properties. Ustaw tę właściwość na wartość , aby true włączyć rejestrowanie ruchu punktu końcowego. Ustaw tę właściwość na wartość , aby false wyłączyć rejestrowanie ruchu punktu końcowego.

Utwórz żądanie HTTP PATCH przy użyciu identyfikatora URI, jak pokazano w poniższym przykładzie. Zastąp YourSubscriptionKey ciąg kluczem zasobu usługi Mowa, zastąp element regionem zasobu usługi Mowa, zastąp YourServiceRegion YourEndpointId element identyfikatorem punktu końcowego i ustaw właściwości treści żądania zgodnie z wcześniejszym opisem.

curl -v -X PATCH -H "Ocp-Apim-Subscription-Key: YourSubscriptionKey" -H "Content-Type: application/json" -d '{
  "properties": {
    "contentLoggingEnabled": false
  },
}'  "https://YourServiceRegion.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/YourEndpointId"

Treść odpowiedzi powinna zostać wyświetlona w następującym formacie:

{
  "self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
  "model": {
    "self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/models/9e240dc1-3d2d-4ac9-98ec-1be05ba0e9dd"
  },
  "links": {
    "logs": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/a07164e8-22d1-4eb7-aa31-bf6bb1097f37/files/logs",
    "restInteractive": "https://eastus.stt.speech.microsoft.com/speech/recognition/interactive/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
    "restConversation": "https://eastus.stt.speech.microsoft.com/speech/recognition/conversation/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
    "restDictation": "https://eastus.stt.speech.microsoft.com/speech/recognition/dictation/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
    "webSocketInteractive": "wss://eastus.stt.speech.microsoft.com/speech/recognition/interactive/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
    "webSocketConversation": "wss://eastus.stt.speech.microsoft.com/speech/recognition/conversation/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
    "webSocketDictation": "wss://eastus.stt.speech.microsoft.com/speech/recognition/dictation/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37"
  },
  "project": {
    "self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/projects/0198f569-cc11-4099-a0e8-9d55bc3d0c52"
  },
  "properties": {
    "loggingEnabled": false
  },
  "lastActionDateTime": "2024-07-15T16:30:12Z",
  "status": "Succeeded",
  "createdDateTime": "2024-07-15T16:29:36Z",
  "locale": "en-US",
  "displayName": "My Endpoint",
  "description": "My Endpoint Description"
}

Treść odpowiedzi powinna odzwierciedlać nowe ustawienie. Nazwa właściwości rejestrowania w odpowiedzi (loggingEnabled) różni się od nazwy właściwości rejestrowania ustawionej w żądaniu (contentLoggingEnabled).

Pobieranie dzienników audio i transkrypcji

Dostęp do dzienników audio i transkrypcji można uzyskać przy użyciu interfejsu API REST zamiany mowy na tekst. W przypadku niestandardowych punktów końcowych modelu można również użyć programu Speech Studio. Zobacz szczegóły w poniższych sekcjach.

Uwaga

Dane rejestrowania są przechowywane przez 30 dni. Po upływie tego okresu dzienniki zostaną automatycznie usunięte. Jednak w dowolnym momencie można usunąć określone dzienniki lub zakres dostępnych dzienników.

Pobieranie dzienników audio i transkrypcji za pomocą usługi Speech Studio

Ta metoda ma zastosowanie tylko w przypadku niestandardowych punktów końcowych modelu .

Aby pobrać dzienniki punktu końcowego:

  1. Zaloguj się do programu Speech Studio.
  2. Wybierz pozycję Mowa> niestandardowa Nazwa >projektu Wdróż modele.
  3. Wybierz link według nazwy punktu końcowego.
  4. W obszarze Rejestrowanie zawartości wybierz pozycję Pobierz dziennik.

Dzięki temu podejściu można pobrać wszystkie dostępne zestawy dzienników jednocześnie. Nie ma możliwości pobierania wybranych zestawów dzienników w programie Speech Studio.

Pobieranie dzienników audio i transkrypcji przy użyciu interfejsu API REST zamiany mowy na tekst

Możesz pobrać wszystkie lub podzestaw dostępnych zestawów dzienników.

Ta metoda ma zastosowanie w przypadku punktów końcowych modelu podstawowego i niestandardowego. Aby wyświetlić listę i pobrać dzienniki audio i transkrypcji:

  • Modele podstawowe: użyj operacji Endpoints_ListBaseModelLogs interfejsu API REST zamiany mowy na tekst. Ta operacja pobiera listę dzienników audio i transkrypcji przechowywanych podczas korzystania z domyślnego modelu podstawowego danego języka.
  • Punkty końcowe modelu niestandardowego: użyj operacji Endpoints_ListLogs interfejsu API REST zamiany mowy na tekst. Ta operacja pobiera listę dzienników audio i transkrypcji przechowywanych dla danego punktu końcowego.

Uzyskiwanie identyfikatorów dzienników za pomocą interfejsu API REST zamiany mowy na tekst

W niektórych scenariuszach może być konieczne pobranie identyfikatorów dostępnych dzienników. Możesz na przykład usunąć określony dziennik zgodnie z opisem w dalszej części tego artykułu.

Aby uzyskać identyfikatory dostępnych dzienników:

  • Modele podstawowe: użyj operacji Endpoints_ListBaseModelLogs interfejsu API REST zamiany mowy na tekst. Ta operacja pobiera listę dzienników audio i transkrypcji przechowywanych podczas korzystania z domyślnego modelu podstawowego danego języka.
  • Punkty końcowe modelu niestandardowego: użyj operacji Endpoints_ListLogs interfejsu API REST zamiany mowy na tekst. Ta operacja pobiera listę dzienników audio i transkrypcji przechowywanych dla danego punktu końcowego.

Oto przykładowe dane wyjściowe Endpoints_ListLogs. Dla uproszczenia wyświetlany jest tylko jeden zestaw dzienników:

{
  "values": [
    {
      "self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx/files/logs/2023-03-13_163715__0420c53d-e6ac-4857-bce0-f39c3f9f5ff9_v2_json",
      "name": "163715__0420c53d-e6ac-4857-bce0-f39c3f9f5ff9.v2.json",
      "kind": "Transcription",
      "properties": {
        "size": 79920
      },
      "createdDateTime": "2024-07-15T16:29:36Z",
      "links": {
        "contentUrl": "<Link to download log file>"
      }
    },
    {
      "self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx/files/logs/2023-03-13_163715__0420c53d-e6ac-4857-bce0-f39c3f9f5ff9_wav",
      "name": "163715__0420c53d-e6ac-4857-bce0-f39c3f9f5ff9.wav",
      "kind": "Audio",
      "properties": {
        "size": 932966
      },
      "createdDateTime": "2024-07-15T16:29:36Z",
      "links": {
        "contentUrl": "<Link to download log file>"
      }
    }
  ]
}

Lokalizacje każdego pliku dziennika audio i transkrypcji są zwracane w treści odpowiedzi. Zobacz odpowiednią kind właściwość, aby określić, czy plik zawiera dźwięk ("kind": "Audio") czy transkrypcję ("kind": "Transcription").

Identyfikator dziennika dla każdego pliku dziennika jest ostatnią częścią adresu URL w "self" wartości elementu. Identyfikator dziennika w poniższym przykładzie to 2023-03-13_163715__0420c53d-e6ac-4857-bce0-f39c3f9f5ff9_v2_json.

"self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx/files/logs/2023-03-13_163715__0420c53d-e6ac-4857-bce0-f39c3f9f5ff9_v2_json"

Usuwanie dzienników audio i transkrypcji

Dane rejestrowania są przechowywane przez 30 dni. Po upływie tego okresu dzienniki zostaną automatycznie usunięte. Jednak w dowolnym momencie można usunąć określone dzienniki lub zakres dostępnych dzienników.

W przypadku dowolnego podstawowego lub niestandardowego punktu końcowego modelu można usunąć wszystkie dostępne dzienniki, dzienniki dla danego przedziału czasu lub określony dziennik na podstawie jego identyfikatora dziennika. Proces usuwania jest wykonywany asynchronicznie i może potrwać kilka minut, godzin, jednego dnia lub dłużej w zależności od liczby plików dziennika.

Aby usunąć dzienniki audio i transkrypcji, należy użyć interfejsu API REST zamiany mowy na tekst. Nie ma możliwości usunięcia dzienników przy użyciu programu Speech Studio.

Usuń wszystkie dzienniki lub dzienniki dla danego przedziału czasu

Aby usunąć wszystkie dzienniki lub dzienniki dla danego przedziału czasu:

Opcjonalnie ustaw endDate usuwanie dzienników audio (określony dzień, UTC). Oczekiwany format: "rrrr-mm-dd". Na przykład "2023-03-15" powoduje usunięcie wszystkich dzienników 15 marca 2023 r. i wcześniej.

Usuwanie określonego dziennika

Aby usunąć określony dziennik według identyfikatora:

Aby uzyskać szczegółowe informacje na temat pobierania identyfikatorów dzienników, zobacz poprzednią sekcję Pobieranie identyfikatorów dzienników przy użyciu interfejsu API REST zamiany mowy na tekst.

Ponieważ dzienniki audio i transkrypcji mają oddzielne identyfikatory (takie jak identyfikatory 2023-03-13_163715__0420c53d-e6ac-4857-bce0-f39c3f9f5ff9_v2_json i 2023-03-13_163715__0420c53d-e6ac-4857-bce0-f39c3f9f5ff9_wav z poprzedniego przykładu w tym artykule), jeśli chcesz usunąć dzienniki audio i transkrypcji wykonywane oddzielnie usunąć żądania identyfikatorów .

Następne kroki