Compartir a través de


Implementación de un modelo de voz personalizada

En este artículo, aprenderá a implementar un punto de conexión para un modelo de voz personalizada. Excepto con la transcripción por lotes, tiene que implementar un punto de conexión personalizado para usar un modelo de voz personalizada.

Sugerencia

La API de transcripción de Batch no requiere un punto de conexión de implementación hospedado para voz personalizada. Solo puede conservar los recursos mediante el modelo de voz personalizado para la transcripción por lotes. Para más información, consulte Precios del servicio de voz.

Puede implementar un punto de conexión para un modelo base o personalizado y, luego, actualizar el punto de conexión para usar un modelo mejor entrenado.

Nota:

Los puntos de conexión usados por los recursos de Voz F0 se eliminan después de siete días.

Incorporación de un extremo de implementación

Sugerencia

Incorpore los modelos de voz personalizados de Speech Studio al portal de Microsoft Foundry. En el Portal de Microsoft Foundry, puede reanudar desde donde lo dejó mediante la conexión al recurso de Voz existente. Para obtener más información sobre cómo conectarse a un recurso de Voz existente, consulte Conexión a un recurso de Voz existente.

  1. Inicie sesión en el portal de Microsoft Foundry.

  2. Seleccione Ajuste preciso en el panel izquierdo y, a continuación, seleccione Ajuste preciso del servicio DE IA.

  3. Seleccione la tarea de ajuste de voz personalizada (por nombre del modelo) que ha iniciado, tal y como se describe en el artículo sobre cómo iniciar la optimización de voz personalizada.

  4. Seleccione Implementar modelos>+ Implementar modelos.

    Recorte de pantalla de la página con una opción para implementar el modelo de Habla personalizada.

  5. En el asistente Implementar un nuevo modelo, seleccione el modelo que desea implementar.

    Recorte de pantalla de la página con una opción para seleccionar el modelo que desea implementar.

  6. Escriba un nombre y una descripción para la implementación. Seleccione el cuadro para aceptar los Términos de uso. Después, seleccione Implementar.

  7. Después de que el estado de implementación sea Correcto, puede ver los detalles de implementación. Seleccione la implementación para ver los detalles, como el identificador de punto de conexión.

    Recorte de pantalla de la página con una opción para seleccionar la implementación para ver los detalles, como el identificador del punto de conexión.

Para crear un punto de conexión privado, siga estos pasos:

  1. Inicie sesión en Speech Studio.

  2. Seleccione Voz personalizada> El nombre del proyecto >Implementación de modelos.

    Si este es el primer punto de conexión, observe que la tabla no tiene puntos de conexión enumerados. Después de crear un punto de conexión, use esta página para realizar un seguimiento de cada punto de conexión implementado.

  3. Seleccione Implementar modelo para iniciar el asistente para el nuevo punto de conexión.

  4. Seleccione Nuevo punto de conexión, escriba un nombre y una descripción para el punto de conexión personalizado.

  5. Seleccione el modelo personalizado que desea asociar al punto de conexión.

  6. Opcionalmente, active la casilla para habilitar el registro de audio y diagnóstico del tráfico del punto de conexión.

    Recorte de pantalla de la página Nuevo punto de conexión que muestra la casilla para habilitar el registro.

  7. Seleccione Agregar para guardar e implementar el punto de conexión.

En la página principal Implementar modelos, los detalles sobre el nuevo punto de conexión se muestran en una tabla, como el nombre, la descripción, el estado y la fecha de expiración. Se puede tardar hasta 30 minutos en crear una instancia de un nuevo punto de conexión que use los modelos personalizados. Cuando el estado de la implementación cambie a Correcta, el punto de conexión estará listo para su uso.

Importante

Tome nota de la fecha de expiración del modelo. Esta fecha es el último día que puede usar el modelo personalizado para el reconocimiento de voz. Para más información, consulte Ciclo de vida del modelo y el punto de conexión.

Seleccione el vínculo del punto de conexión para ver información específica de él, como la clave de punto de conexión, la dirección URL del punto de conexión y el código de ejemplo.

Antes de continuar, asegúrese de que tiene instalada y configurada la CLI de Voz .

Para crear un punto de conexión e implementar un modelo, use el comando spx csr endpoint create. Construya los parámetros de solicitud según las instrucciones siguientes:

  • Establezca la project propiedad en el identificador de un proyecto existente. Use la project propiedad para que pueda administrar la optimización de voz personalizada en el portal de Microsoft Foundry. Para obtener el identificador del proyecto, consulte Obtención del identificador del proyecto para la API REST.
  • Establezca la propiedad necesaria model en el identificador del modelo que desea implementar en el punto de conexión.
  • Establezca la propiedad language obligatoria. La configuración regional del punto de conexión tiene que coincidir con la configuración regional del modelo. No podrá cambiar la configuración regional más adelante. La propiedad language de la CLI de Voz corresponde a la propiedad locale en la solicitud y respuesta JSON.
  • Establezca la propiedad name obligatoria. Este nombre aparece en el portal de Microsoft Foundry. La propiedad name de la CLI de Voz corresponde a la propiedad displayName en la solicitud y respuesta JSON.
  • Opcionalmente, establezca la propiedad logging. Establezca esta propiedad en enabled para habilitar el registro de audio y diagnóstico del tráfico del punto de conexión. El valor predeterminado es false.

Este es un ejemplo del comando de la CLI de Voz para crear un punto de conexión e implementar un modelo:

spx csr endpoint create --api-version v3.2 --project YourProjectId --model YourModelId --name "My Endpoint" --description "My Endpoint Description" --language "en-US"

Importante

Debe establecer --api-version v3.2. La CLI de Voz usa la API REST, pero aún no admite versiones posteriores a v3.2.

Debe recibir un cuerpo de respuesta en el formato siguiente:

{
  "self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/aaaabbbb-0000-cccc-1111-dddd2222eeee",
  "model": {
    "self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/models/bbbbcccc-1111-dddd-2222-eeee3333ffff"
  },
  "links": {
    "logs": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/a07164e8-22d1-4eb7-aa31-bf6bb1097f37/files/logs",
    "restInteractive": "https://eastus.stt.speech.microsoft.com/speech/recognition/interactive/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
    "restConversation": "https://eastus.stt.speech.microsoft.com/speech/recognition/conversation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
    "restDictation": "https://eastus.stt.speech.microsoft.com/speech/recognition/dictation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
    "webSocketInteractive": "wss://eastus.stt.speech.microsoft.com/speech/recognition/interactive/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
    "webSocketConversation": "wss://eastus.stt.speech.microsoft.com/speech/recognition/conversation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
    "webSocketDictation": "wss://eastus.stt.speech.microsoft.com/speech/recognition/dictation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee"
  },
  "project": {
    "self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/projects/ccccdddd-2222-eeee-3333-ffff4444aaaa"
  },
  "properties": {
    "loggingEnabled": true
  },
  "lastActionDateTime": "2024-07-15T16:29:36Z",
  "status": "NotStarted",
  "createdDateTime": "2024-07-15T16:29:36Z",
  "locale": "en-US",
  "displayName": "My Endpoint",
  "description": "My Endpoint Description"
}

La propiedad self de nivel superior del cuerpo de la respuesta es el URI del punto de conexión. Use este URI para obtener detalles sobre el proyecto, el modelo y los registros del punto de conexión. También usará este URI para actualizar el punto de conexión.

Para obtener ayuda de la CLI de Voz con puntos de conexión, ejecute el siguiente comando:

spx help csr endpoint

Para crear un punto de conexión e implementar un modelo, use la operación Endpoints_Create de la API REST de conversión de voz en texto. Construya el cuerpo de la solicitud según las instrucciones siguientes:

  • Establezca la propiedad project en el URI de un proyecto existente. Establezca esta propiedad para que pueda ver y administrar el punto de conexión en el portal de Microsoft Foundry. Para obtener el identificador del proyecto, consulte Obtención del identificador del proyecto para la API REST.
  • Establezca la propiedad model obligatoria en el URI del modelo que quiere implementar en el punto de conexión.
  • Establezca la propiedad locale obligatoria. La configuración regional del punto de conexión tiene que coincidir con la configuración regional del modelo. No podrá cambiar la configuración regional más adelante.
  • Establezca la propiedad displayName obligatoria. Este nombre aparece en el portal de Microsoft Foundry.
  • Opcionalmente, establezca la loggingEnabled propiedad en properties. Establezca esta propiedad en true para habilitar el registro de audio y diagnóstico del tráfico del punto de conexión. El valor predeterminado es false.

Haga una solicitud HTTP POST con el URI como se muestra en el siguiente ejemplo de Endpoints_Create. Reemplace YourSpeechResoureKey por la clave de recurso de Voz, YourServiceRegion por la región del recurso de Voz, y establezca las propiedades del cuerpo de la solicitud como se ha descrito anteriormente.

curl -v -X POST -H "Ocp-Apim-Subscription-Key: YourSpeechResoureKey" -H "Content-Type: application/json" -d '{
  "project": {
    "self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/projects/ccccdddd-2222-eeee-3333-ffff4444aaaa"
  },
  "properties": {
    "loggingEnabled": true
  },
  "displayName": "My Endpoint",
  "description": "My Endpoint Description",
  "model": {
    "self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/models/base/ddddeeee-3333-ffff-4444-aaaa5555bbbb"
  },
  "locale": "en-US",
}'  "https://YourServiceRegion.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints"

Debe recibir un cuerpo de respuesta en el formato siguiente:

{
  "self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/aaaabbbb-0000-cccc-1111-dddd2222eeee",
  "model": {
    "self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/models/bbbbcccc-1111-dddd-2222-eeee3333ffff"
  },
  "links": {
    "logs": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/a07164e8-22d1-4eb7-aa31-bf6bb1097f37/files/logs",
    "restInteractive": "https://eastus.stt.speech.microsoft.com/speech/recognition/interactive/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
    "restConversation": "https://eastus.stt.speech.microsoft.com/speech/recognition/conversation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
    "restDictation": "https://eastus.stt.speech.microsoft.com/speech/recognition/dictation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
    "webSocketInteractive": "wss://eastus.stt.speech.microsoft.com/speech/recognition/interactive/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
    "webSocketConversation": "wss://eastus.stt.speech.microsoft.com/speech/recognition/conversation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
    "webSocketDictation": "wss://eastus.stt.speech.microsoft.com/speech/recognition/dictation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee"
  },
  "project": {
    "self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/projects/ccccdddd-2222-eeee-3333-ffff4444aaaa"
  },
  "properties": {
    "loggingEnabled": true
  },
  "lastActionDateTime": "2024-07-15T16:29:36Z",
  "status": "NotStarted",
  "createdDateTime": "2024-07-15T16:29:36Z",
  "locale": "en-US",
  "displayName": "My Endpoint",
  "description": "My Endpoint Description"
}

La propiedad self de nivel superior del cuerpo de la respuesta es el URI del punto de conexión. Use este URI para obtener detalles sobre el proyecto, el modelo y los registros del punto de conexión. Use también este URI para actualizar o eliminar el punto de conexión.

Cambio del modelo y reimplementación del punto de conexión

Puede actualizar un punto de conexión para usar otro modelo creado por el mismo recurso de voz. Como se mencionó anteriormente, debe actualizar el modelo del punto de conexión antes de que expire el modelo.

Para usar un nuevo modelo y volver a implementar el punto de conexión personalizado:

  1. Inicie sesión en Speech Studio.
  2. Seleccione Voz personalizada> El nombre del proyecto >Implementación de modelos.
  3. Seleccione el vínculo a un punto de conexión por nombre y luego seleccione Cambiar modelo.
  4. Seleccione el nuevo modelo que desea que use el punto de conexión.
  5. Seleccione Listo para guardar y volver a implementar el punto de conexión.

Antes de continuar, asegúrese de que tiene instalada y configurada la CLI de Voz .

Para volver a implementar el punto de conexión personalizado con un nuevo modelo, use el comando spx csr model update. Construya los parámetros de solicitud según las instrucciones siguientes:

  • Establezca la propiedad requerida endpoint en el identificador del punto de conexión que desea implementar.
  • Establezca la propiedad necesaria model en el identificador del modelo que desea implementar en el punto de conexión.

Este es un ejemplo de comando de la CLI de Voz que vuelve a implementar el punto de conexión personalizado con un nuevo modelo:

spx csr endpoint update --api-version v3.2 --endpoint YourEndpointId --model YourModelId

Importante

Debe establecer --api-version v3.2. La CLI de Voz usa la API REST, pero aún no admite versiones posteriores a v3.2.

Debe recibir un cuerpo de respuesta en el formato siguiente:

{
  "self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/aaaabbbb-0000-cccc-1111-dddd2222eeee",
  "model": {
    "self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/models/bbbbcccc-1111-dddd-2222-eeee3333ffff"
  },
  "links": {
    "logs": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/a07164e8-22d1-4eb7-aa31-bf6bb1097f37/files/logs",
    "restInteractive": "https://eastus.stt.speech.microsoft.com/speech/recognition/interactive/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
    "restConversation": "https://eastus.stt.speech.microsoft.com/speech/recognition/conversation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
    "restDictation": "https://eastus.stt.speech.microsoft.com/speech/recognition/dictation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
    "webSocketInteractive": "wss://eastus.stt.speech.microsoft.com/speech/recognition/interactive/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
    "webSocketConversation": "wss://eastus.stt.speech.microsoft.com/speech/recognition/conversation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
    "webSocketDictation": "wss://eastus.stt.speech.microsoft.com/speech/recognition/dictation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee"
  },
  "project": {
    "self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/projects/ccccdddd-2222-eeee-3333-ffff4444aaaa"
  },
  "properties": {
    "loggingEnabled": true
  },
  "lastActionDateTime": "2024-07-15T16:30:12Z",
  "status": "Succeeded",
  "createdDateTime": "2024-07-15T16:29:36Z",
  "locale": "en-US",
  "displayName": "My Endpoint",
  "description": "My Endpoint Description"
}

Para obtener ayuda de la CLI de Voz con puntos de conexión, ejecute el siguiente comando:

spx help csr endpoint

Para volver a implementar el punto de conexión personalizado con un nuevo modelo, use la operación Endpoints_Update de la API REST de conversión de voz en texto. Construya el cuerpo de la solicitud según las instrucciones siguientes:

  • Establezca la propiedad model en el URI del modelo que quiere implementar en el punto de conexión.

Realice una solicitud HTTP PATCH con el URI, como se muestra en el ejemplo siguiente. Reemplace YourSpeechResoureKey por la clave de recurso de Voz, reemplace YourServiceRegion por la región del recurso de Voz, reemplace YourEndpointId por el identificador del punto de conexión, y establezca las propiedades del cuerpo de la solicitud como se ha descrito anteriormente.

curl -v -X PATCH -H "Ocp-Apim-Subscription-Key: YourSpeechResoureKey" -H "Content-Type: application/json" -d '{
  "model": {
    "self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/models/bbbbcccc-1111-dddd-2222-eeee3333ffff"
  },
}'  "https://YourServiceRegion.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/YourEndpointId"

Debe recibir un cuerpo de respuesta en el formato siguiente:

{
  "self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/aaaabbbb-0000-cccc-1111-dddd2222eeee",
  "model": {
    "self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/models/bbbbcccc-1111-dddd-2222-eeee3333ffff"
  },
  "links": {
    "logs": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/a07164e8-22d1-4eb7-aa31-bf6bb1097f37/files/logs",
    "restInteractive": "https://eastus.stt.speech.microsoft.com/speech/recognition/interactive/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
    "restConversation": "https://eastus.stt.speech.microsoft.com/speech/recognition/conversation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
    "restDictation": "https://eastus.stt.speech.microsoft.com/speech/recognition/dictation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
    "webSocketInteractive": "wss://eastus.stt.speech.microsoft.com/speech/recognition/interactive/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
    "webSocketConversation": "wss://eastus.stt.speech.microsoft.com/speech/recognition/conversation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
    "webSocketDictation": "wss://eastus.stt.speech.microsoft.com/speech/recognition/dictation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee"
  },
  "project": {
    "self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/projects/ccccdddd-2222-eeee-3333-ffff4444aaaa"
  },
  "properties": {
    "loggingEnabled": true
  },
  "lastActionDateTime": "2024-07-15T16:30:12Z",
  "status": "Succeeded",
  "createdDateTime": "2024-07-15T16:29:36Z",
  "locale": "en-US",
  "displayName": "My Endpoint",
  "description": "My Endpoint Description"
}

La reimplementación tarda varios minutos en completarse. Mientras tanto, el punto de conexión usa el modelo anterior sin interrupción del servicio.

Visualización de datos de registro

Puede exportar datos de registro si lo configuró al crear el punto de conexión.

Para descargar los registros del punto de conexión:

  1. Inicie sesión en Speech Studio.
  2. Seleccione Voz personalizada> El nombre del proyecto >Implementación de modelos.
  3. Seleccione el vínculo por nombre de punto de conexión.
  4. En Registro de contenido, seleccione Descargar registro.

Antes de continuar, asegúrese de que tiene instalada y configurada la CLI de Voz .

Para obtener los registros de un punto de conexión, use el comando spx csr endpoint list. Construya los parámetros de solicitud según las instrucciones siguientes:

  • Establezca la propiedad necesaria endpoint en el identificador del punto de conexión que desea obtener registros.

Este es un ejemplo de comando de la CLI de Voz que obtiene los registros de un punto de conexión:

spx csr endpoint list --api-version v3.2 --endpoint YourEndpointId

Importante

Debe establecer --api-version v3.2. La CLI de Voz usa la API REST, pero aún no admite versiones posteriores a v3.2.

El cuerpo de la respuesta devuelve las ubicaciones de cada archivo de registro con más detalles.

Para obtener registros de un punto de conexión, empiece por usar la operación Endpoints_Get de la API REST de conversión de voz en texto.

Haga una solicitud HTTP GET con el URI, tal como se muestra en el ejemplo siguiente. Reemplace YourEndpointId por el identificador del punto de conexión, YourSpeechResoureKey por la clave del recurso de Voz y YourServiceRegion por la región del recurso de Voz.

curl -v -X GET "https://YourServiceRegion.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/YourEndpointId" -H "Ocp-Apim-Subscription-Key: YourSpeechResoureKey"

Debe recibir un cuerpo de respuesta en el formato siguiente:

{
  "self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/aaaabbbb-0000-cccc-1111-dddd2222eeee",
  "model": {
    "self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/models/bbbbcccc-1111-dddd-2222-eeee3333ffff"
  },
  "links": {
    "logs": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/a07164e8-22d1-4eb7-aa31-bf6bb1097f37/files/logs",
    "restInteractive": "https://eastus.stt.speech.microsoft.com/speech/recognition/interactive/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
    "restConversation": "https://eastus.stt.speech.microsoft.com/speech/recognition/conversation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
    "restDictation": "https://eastus.stt.speech.microsoft.com/speech/recognition/dictation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
    "webSocketInteractive": "wss://eastus.stt.speech.microsoft.com/speech/recognition/interactive/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
    "webSocketConversation": "wss://eastus.stt.speech.microsoft.com/speech/recognition/conversation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
    "webSocketDictation": "wss://eastus.stt.speech.microsoft.com/speech/recognition/dictation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee"
  },
  "project": {
    "self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/projects/ccccdddd-2222-eeee-3333-ffff4444aaaa"
  },
  "properties": {
    "loggingEnabled": true
  },
  "lastActionDateTime": "2024-07-15T16:30:12Z",
  "status": "Succeeded",
  "createdDateTime": "2024-07-15T16:29:36Z",
  "locale": "en-US",
  "displayName": "My Endpoint",
  "description": "My Endpoint Description"
}

Haga una solicitud HTTP GET con el URI de "logs" del cuerpo de respuesta anterior. Reemplace YourEndpointId por el identificador del punto de conexión, YourSpeechResoureKey por la clave del recurso de Voz y YourServiceRegion por la región del recurso de Voz.

curl -v -X GET "https://YourServiceRegion.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/YourEndpointId/files/logs" -H "Ocp-Apim-Subscription-Key: YourSpeechResoureKey"

El cuerpo de la respuesta devuelve las ubicaciones de cada archivo de registro en mayor detalle.

El almacenamiento de propiedad de Microsoft mantiene los datos de registro durante 30 días y, a continuación, quita los datos. Si vincula su propia cuenta de almacenamiento a la suscripción de Foundry Tools, los datos de registro no se eliminan automáticamente.