Nota:
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
En este artículo, aprenderá a implementar un punto de conexión para un modelo de voz personalizada. Excepto con la transcripción por lotes, tiene que implementar un punto de conexión personalizado para usar un modelo de voz personalizada.
Sugerencia
La API de transcripción de Batch no requiere un punto de conexión de implementación hospedado para voz personalizada. Solo puede conservar los recursos mediante el modelo de voz personalizado para la transcripción por lotes. Para más información, consulte Precios del servicio de voz.
Puede implementar un punto de conexión para un modelo base o personalizado y, luego, actualizar el punto de conexión para usar un modelo mejor entrenado.
Nota:
Los puntos de conexión usados por los recursos de Voz F0 se eliminan después de siete días.
Incorporación de un extremo de implementación
Sugerencia
Incorpore los modelos de voz personalizados de Speech Studio al portal de Microsoft Foundry. En el Portal de Microsoft Foundry, puede reanudar desde donde lo dejó mediante la conexión al recurso de Voz existente. Para obtener más información sobre cómo conectarse a un recurso de Voz existente, consulte Conexión a un recurso de Voz existente.
Inicie sesión en el portal de Microsoft Foundry.
Seleccione Ajuste preciso en el panel izquierdo y, a continuación, seleccione Ajuste preciso del servicio DE IA.
Seleccione la tarea de ajuste de voz personalizada (por nombre del modelo) que ha iniciado, tal y como se describe en el artículo sobre cómo iniciar la optimización de voz personalizada.
Seleccione Implementar modelos>+ Implementar modelos.
En el asistente Implementar un nuevo modelo, seleccione el modelo que desea implementar.
Escriba un nombre y una descripción para la implementación. Seleccione el cuadro para aceptar los Términos de uso. Después, seleccione Implementar.
Después de que el estado de implementación sea Correcto, puede ver los detalles de implementación. Seleccione la implementación para ver los detalles, como el identificador de punto de conexión.
Para crear un punto de conexión privado, siga estos pasos:
Inicie sesión en Speech Studio.
Seleccione Voz personalizada> El nombre del proyecto >Implementación de modelos.
Si este es el primer punto de conexión, observe que la tabla no tiene puntos de conexión enumerados. Después de crear un punto de conexión, use esta página para realizar un seguimiento de cada punto de conexión implementado.
Seleccione Implementar modelo para iniciar el asistente para el nuevo punto de conexión.
Seleccione Nuevo punto de conexión, escriba un nombre y una descripción para el punto de conexión personalizado.
Seleccione el modelo personalizado que desea asociar al punto de conexión.
Opcionalmente, active la casilla para habilitar el registro de audio y diagnóstico del tráfico del punto de conexión.
Seleccione Agregar para guardar e implementar el punto de conexión.
En la página principal Implementar modelos, los detalles sobre el nuevo punto de conexión se muestran en una tabla, como el nombre, la descripción, el estado y la fecha de expiración. Se puede tardar hasta 30 minutos en crear una instancia de un nuevo punto de conexión que use los modelos personalizados. Cuando el estado de la implementación cambie a Correcta, el punto de conexión estará listo para su uso.
Importante
Tome nota de la fecha de expiración del modelo. Esta fecha es el último día que puede usar el modelo personalizado para el reconocimiento de voz. Para más información, consulte Ciclo de vida del modelo y el punto de conexión.
Seleccione el vínculo del punto de conexión para ver información específica de él, como la clave de punto de conexión, la dirección URL del punto de conexión y el código de ejemplo.
Antes de continuar, asegúrese de que tiene instalada y configurada la CLI de Voz .
Para crear un punto de conexión e implementar un modelo, use el comando spx csr endpoint create. Construya los parámetros de solicitud según las instrucciones siguientes:
- Establezca la
projectpropiedad en el identificador de un proyecto existente. Use laprojectpropiedad para que pueda administrar la optimización de voz personalizada en el portal de Microsoft Foundry. Para obtener el identificador del proyecto, consulte Obtención del identificador del proyecto para la API REST. - Establezca la propiedad necesaria
modelen el identificador del modelo que desea implementar en el punto de conexión. - Establezca la propiedad
languageobligatoria. La configuración regional del punto de conexión tiene que coincidir con la configuración regional del modelo. No podrá cambiar la configuración regional más adelante. La propiedadlanguagede la CLI de Voz corresponde a la propiedadlocaleen la solicitud y respuesta JSON. - Establezca la propiedad
nameobligatoria. Este nombre aparece en el portal de Microsoft Foundry. La propiedadnamede la CLI de Voz corresponde a la propiedaddisplayNameen la solicitud y respuesta JSON. - Opcionalmente, establezca la propiedad
logging. Establezca esta propiedad enenabledpara habilitar el registro de audio y diagnóstico del tráfico del punto de conexión. El valor predeterminado esfalse.
Este es un ejemplo del comando de la CLI de Voz para crear un punto de conexión e implementar un modelo:
spx csr endpoint create --api-version v3.2 --project YourProjectId --model YourModelId --name "My Endpoint" --description "My Endpoint Description" --language "en-US"
Importante
Debe establecer --api-version v3.2. La CLI de Voz usa la API REST, pero aún no admite versiones posteriores a v3.2.
Debe recibir un cuerpo de respuesta en el formato siguiente:
{
"self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/aaaabbbb-0000-cccc-1111-dddd2222eeee",
"model": {
"self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/models/bbbbcccc-1111-dddd-2222-eeee3333ffff"
},
"links": {
"logs": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/a07164e8-22d1-4eb7-aa31-bf6bb1097f37/files/logs",
"restInteractive": "https://eastus.stt.speech.microsoft.com/speech/recognition/interactive/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
"restConversation": "https://eastus.stt.speech.microsoft.com/speech/recognition/conversation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
"restDictation": "https://eastus.stt.speech.microsoft.com/speech/recognition/dictation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
"webSocketInteractive": "wss://eastus.stt.speech.microsoft.com/speech/recognition/interactive/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
"webSocketConversation": "wss://eastus.stt.speech.microsoft.com/speech/recognition/conversation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
"webSocketDictation": "wss://eastus.stt.speech.microsoft.com/speech/recognition/dictation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee"
},
"project": {
"self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/projects/ccccdddd-2222-eeee-3333-ffff4444aaaa"
},
"properties": {
"loggingEnabled": true
},
"lastActionDateTime": "2024-07-15T16:29:36Z",
"status": "NotStarted",
"createdDateTime": "2024-07-15T16:29:36Z",
"locale": "en-US",
"displayName": "My Endpoint",
"description": "My Endpoint Description"
}
La propiedad self de nivel superior del cuerpo de la respuesta es el URI del punto de conexión. Use este URI para obtener detalles sobre el proyecto, el modelo y los registros del punto de conexión. También usará este URI para actualizar el punto de conexión.
Para obtener ayuda de la CLI de Voz con puntos de conexión, ejecute el siguiente comando:
spx help csr endpoint
Para crear un punto de conexión e implementar un modelo, use la operación Endpoints_Create de la API REST de conversión de voz en texto. Construya el cuerpo de la solicitud según las instrucciones siguientes:
- Establezca la propiedad
projecten el URI de un proyecto existente. Establezca esta propiedad para que pueda ver y administrar el punto de conexión en el portal de Microsoft Foundry. Para obtener el identificador del proyecto, consulte Obtención del identificador del proyecto para la API REST. - Establezca la propiedad
modelobligatoria en el URI del modelo que quiere implementar en el punto de conexión. - Establezca la propiedad
localeobligatoria. La configuración regional del punto de conexión tiene que coincidir con la configuración regional del modelo. No podrá cambiar la configuración regional más adelante. - Establezca la propiedad
displayNameobligatoria. Este nombre aparece en el portal de Microsoft Foundry. - Opcionalmente, establezca la
loggingEnabledpropiedad enproperties. Establezca esta propiedad entruepara habilitar el registro de audio y diagnóstico del tráfico del punto de conexión. El valor predeterminado esfalse.
Haga una solicitud HTTP POST con el URI como se muestra en el siguiente ejemplo de Endpoints_Create. Reemplace YourSpeechResoureKey por la clave de recurso de Voz, YourServiceRegion por la región del recurso de Voz, y establezca las propiedades del cuerpo de la solicitud como se ha descrito anteriormente.
curl -v -X POST -H "Ocp-Apim-Subscription-Key: YourSpeechResoureKey" -H "Content-Type: application/json" -d '{
"project": {
"self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/projects/ccccdddd-2222-eeee-3333-ffff4444aaaa"
},
"properties": {
"loggingEnabled": true
},
"displayName": "My Endpoint",
"description": "My Endpoint Description",
"model": {
"self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/models/base/ddddeeee-3333-ffff-4444-aaaa5555bbbb"
},
"locale": "en-US",
}' "https://YourServiceRegion.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints"
Debe recibir un cuerpo de respuesta en el formato siguiente:
{
"self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/aaaabbbb-0000-cccc-1111-dddd2222eeee",
"model": {
"self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/models/bbbbcccc-1111-dddd-2222-eeee3333ffff"
},
"links": {
"logs": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/a07164e8-22d1-4eb7-aa31-bf6bb1097f37/files/logs",
"restInteractive": "https://eastus.stt.speech.microsoft.com/speech/recognition/interactive/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
"restConversation": "https://eastus.stt.speech.microsoft.com/speech/recognition/conversation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
"restDictation": "https://eastus.stt.speech.microsoft.com/speech/recognition/dictation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
"webSocketInteractive": "wss://eastus.stt.speech.microsoft.com/speech/recognition/interactive/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
"webSocketConversation": "wss://eastus.stt.speech.microsoft.com/speech/recognition/conversation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
"webSocketDictation": "wss://eastus.stt.speech.microsoft.com/speech/recognition/dictation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee"
},
"project": {
"self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/projects/ccccdddd-2222-eeee-3333-ffff4444aaaa"
},
"properties": {
"loggingEnabled": true
},
"lastActionDateTime": "2024-07-15T16:29:36Z",
"status": "NotStarted",
"createdDateTime": "2024-07-15T16:29:36Z",
"locale": "en-US",
"displayName": "My Endpoint",
"description": "My Endpoint Description"
}
La propiedad self de nivel superior del cuerpo de la respuesta es el URI del punto de conexión. Use este URI para obtener detalles sobre el proyecto, el modelo y los registros del punto de conexión. Use también este URI para actualizar o eliminar el punto de conexión.
Cambio del modelo y reimplementación del punto de conexión
Puede actualizar un punto de conexión para usar otro modelo creado por el mismo recurso de voz. Como se mencionó anteriormente, debe actualizar el modelo del punto de conexión antes de que expire el modelo.
Para usar un nuevo modelo y volver a implementar el punto de conexión personalizado:
- Inicie sesión en Speech Studio.
- Seleccione Voz personalizada> El nombre del proyecto >Implementación de modelos.
- Seleccione el vínculo a un punto de conexión por nombre y luego seleccione Cambiar modelo.
- Seleccione el nuevo modelo que desea que use el punto de conexión.
- Seleccione Listo para guardar y volver a implementar el punto de conexión.
Antes de continuar, asegúrese de que tiene instalada y configurada la CLI de Voz .
Para volver a implementar el punto de conexión personalizado con un nuevo modelo, use el comando spx csr model update. Construya los parámetros de solicitud según las instrucciones siguientes:
- Establezca la propiedad requerida
endpointen el identificador del punto de conexión que desea implementar. - Establezca la propiedad necesaria
modelen el identificador del modelo que desea implementar en el punto de conexión.
Este es un ejemplo de comando de la CLI de Voz que vuelve a implementar el punto de conexión personalizado con un nuevo modelo:
spx csr endpoint update --api-version v3.2 --endpoint YourEndpointId --model YourModelId
Importante
Debe establecer --api-version v3.2. La CLI de Voz usa la API REST, pero aún no admite versiones posteriores a v3.2.
Debe recibir un cuerpo de respuesta en el formato siguiente:
{
"self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/aaaabbbb-0000-cccc-1111-dddd2222eeee",
"model": {
"self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/models/bbbbcccc-1111-dddd-2222-eeee3333ffff"
},
"links": {
"logs": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/a07164e8-22d1-4eb7-aa31-bf6bb1097f37/files/logs",
"restInteractive": "https://eastus.stt.speech.microsoft.com/speech/recognition/interactive/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
"restConversation": "https://eastus.stt.speech.microsoft.com/speech/recognition/conversation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
"restDictation": "https://eastus.stt.speech.microsoft.com/speech/recognition/dictation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
"webSocketInteractive": "wss://eastus.stt.speech.microsoft.com/speech/recognition/interactive/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
"webSocketConversation": "wss://eastus.stt.speech.microsoft.com/speech/recognition/conversation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
"webSocketDictation": "wss://eastus.stt.speech.microsoft.com/speech/recognition/dictation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee"
},
"project": {
"self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/projects/ccccdddd-2222-eeee-3333-ffff4444aaaa"
},
"properties": {
"loggingEnabled": true
},
"lastActionDateTime": "2024-07-15T16:30:12Z",
"status": "Succeeded",
"createdDateTime": "2024-07-15T16:29:36Z",
"locale": "en-US",
"displayName": "My Endpoint",
"description": "My Endpoint Description"
}
Para obtener ayuda de la CLI de Voz con puntos de conexión, ejecute el siguiente comando:
spx help csr endpoint
Para volver a implementar el punto de conexión personalizado con un nuevo modelo, use la operación Endpoints_Update de la API REST de conversión de voz en texto. Construya el cuerpo de la solicitud según las instrucciones siguientes:
- Establezca la propiedad
modelen el URI del modelo que quiere implementar en el punto de conexión.
Realice una solicitud HTTP PATCH con el URI, como se muestra en el ejemplo siguiente. Reemplace YourSpeechResoureKey por la clave de recurso de Voz, reemplace YourServiceRegion por la región del recurso de Voz, reemplace YourEndpointId por el identificador del punto de conexión, y establezca las propiedades del cuerpo de la solicitud como se ha descrito anteriormente.
curl -v -X PATCH -H "Ocp-Apim-Subscription-Key: YourSpeechResoureKey" -H "Content-Type: application/json" -d '{
"model": {
"self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/models/bbbbcccc-1111-dddd-2222-eeee3333ffff"
},
}' "https://YourServiceRegion.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/YourEndpointId"
Debe recibir un cuerpo de respuesta en el formato siguiente:
{
"self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/aaaabbbb-0000-cccc-1111-dddd2222eeee",
"model": {
"self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/models/bbbbcccc-1111-dddd-2222-eeee3333ffff"
},
"links": {
"logs": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/a07164e8-22d1-4eb7-aa31-bf6bb1097f37/files/logs",
"restInteractive": "https://eastus.stt.speech.microsoft.com/speech/recognition/interactive/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
"restConversation": "https://eastus.stt.speech.microsoft.com/speech/recognition/conversation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
"restDictation": "https://eastus.stt.speech.microsoft.com/speech/recognition/dictation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
"webSocketInteractive": "wss://eastus.stt.speech.microsoft.com/speech/recognition/interactive/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
"webSocketConversation": "wss://eastus.stt.speech.microsoft.com/speech/recognition/conversation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
"webSocketDictation": "wss://eastus.stt.speech.microsoft.com/speech/recognition/dictation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee"
},
"project": {
"self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/projects/ccccdddd-2222-eeee-3333-ffff4444aaaa"
},
"properties": {
"loggingEnabled": true
},
"lastActionDateTime": "2024-07-15T16:30:12Z",
"status": "Succeeded",
"createdDateTime": "2024-07-15T16:29:36Z",
"locale": "en-US",
"displayName": "My Endpoint",
"description": "My Endpoint Description"
}
La reimplementación tarda varios minutos en completarse. Mientras tanto, el punto de conexión usa el modelo anterior sin interrupción del servicio.
Visualización de datos de registro
Puede exportar datos de registro si lo configuró al crear el punto de conexión.
Para descargar los registros del punto de conexión:
- Inicie sesión en Speech Studio.
- Seleccione Voz personalizada> El nombre del proyecto >Implementación de modelos.
- Seleccione el vínculo por nombre de punto de conexión.
- En Registro de contenido, seleccione Descargar registro.
Antes de continuar, asegúrese de que tiene instalada y configurada la CLI de Voz .
Para obtener los registros de un punto de conexión, use el comando spx csr endpoint list. Construya los parámetros de solicitud según las instrucciones siguientes:
- Establezca la propiedad necesaria
endpointen el identificador del punto de conexión que desea obtener registros.
Este es un ejemplo de comando de la CLI de Voz que obtiene los registros de un punto de conexión:
spx csr endpoint list --api-version v3.2 --endpoint YourEndpointId
Importante
Debe establecer --api-version v3.2. La CLI de Voz usa la API REST, pero aún no admite versiones posteriores a v3.2.
El cuerpo de la respuesta devuelve las ubicaciones de cada archivo de registro con más detalles.
Para obtener registros de un punto de conexión, empiece por usar la operación Endpoints_Get de la API REST de conversión de voz en texto.
Haga una solicitud HTTP GET con el URI, tal como se muestra en el ejemplo siguiente. Reemplace YourEndpointId por el identificador del punto de conexión, YourSpeechResoureKey por la clave del recurso de Voz y YourServiceRegion por la región del recurso de Voz.
curl -v -X GET "https://YourServiceRegion.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/YourEndpointId" -H "Ocp-Apim-Subscription-Key: YourSpeechResoureKey"
Debe recibir un cuerpo de respuesta en el formato siguiente:
{
"self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/aaaabbbb-0000-cccc-1111-dddd2222eeee",
"model": {
"self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/models/bbbbcccc-1111-dddd-2222-eeee3333ffff"
},
"links": {
"logs": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/a07164e8-22d1-4eb7-aa31-bf6bb1097f37/files/logs",
"restInteractive": "https://eastus.stt.speech.microsoft.com/speech/recognition/interactive/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
"restConversation": "https://eastus.stt.speech.microsoft.com/speech/recognition/conversation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
"restDictation": "https://eastus.stt.speech.microsoft.com/speech/recognition/dictation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
"webSocketInteractive": "wss://eastus.stt.speech.microsoft.com/speech/recognition/interactive/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
"webSocketConversation": "wss://eastus.stt.speech.microsoft.com/speech/recognition/conversation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
"webSocketDictation": "wss://eastus.stt.speech.microsoft.com/speech/recognition/dictation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee"
},
"project": {
"self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/projects/ccccdddd-2222-eeee-3333-ffff4444aaaa"
},
"properties": {
"loggingEnabled": true
},
"lastActionDateTime": "2024-07-15T16:30:12Z",
"status": "Succeeded",
"createdDateTime": "2024-07-15T16:29:36Z",
"locale": "en-US",
"displayName": "My Endpoint",
"description": "My Endpoint Description"
}
Haga una solicitud HTTP GET con el URI de "logs" del cuerpo de respuesta anterior. Reemplace YourEndpointId por el identificador del punto de conexión, YourSpeechResoureKey por la clave del recurso de Voz y YourServiceRegion por la región del recurso de Voz.
curl -v -X GET "https://YourServiceRegion.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/YourEndpointId/files/logs" -H "Ocp-Apim-Subscription-Key: YourSpeechResoureKey"
El cuerpo de la respuesta devuelve las ubicaciones de cada archivo de registro en mayor detalle.
El almacenamiento de propiedad de Microsoft mantiene los datos de registro durante 30 días y, a continuación, quita los datos. Si vincula su propia cuenta de almacenamiento a la suscripción de Foundry Tools, los datos de registro no se eliminan automáticamente.