Déployer un modèle vocal personnalisé
Dans cet article, vous apprenez à déployer un point de terminaison pour un modèle vocal personnalisé. À l’exception de la transcription par lots, vous devez déployer un point de terminaison personnalisé pour utiliser un modèle vocal personnalisé.
Conseil
Un point de terminaison de déploiement hébergé n’est pas nécessaire pour utiliser la reconnaissance vocale personnalisée avec l’API de transcription par lots. Vous pouvez conserver des ressources si le modèle vocal personnalisé est utilisé uniquement pour la transcription par lots. Pour plus d’informations, consultez les tarifs du service Speech.
Vous pouvez déployer un point de terminaison pour un modèle de base ou personnalisé, puis mettre à jour le point de terminaison ultérieurement afin d’utiliser un modèle mieux entraîné.
Notes
Les points de terminaison utilisés par les ressources Speech F0
sont supprimés après sept jours.
Ajouter un point de terminaison de déploiement
Pour créer un point de terminaison personnalisé, procédez comme suit.
Connectez-vous à Speech Studio.
Sélectionnez Custom Speech> Nom de votre projet >Déployer des modèles.
S’il s’agit de votre premier point de terminaison, notez que la table ne contient aucun point de terminaison. Une fois que vous avez créé un point de terminaison, vous utilisez cette page pour effectuer le suivi de chaque point de terminaison déployé.
Sélectionnez Déployer le modèle pour démarrer l’Assistant Nouveau point de terminaison.
Sur la page Nouveau point de terminaison, entrez un nom et une description pour votre point de terminaison personnalisé.
Sélectionnez le modèle personnalisé que vous souhaitez associer au point de terminaison.
Si vous le souhaitez, vous pouvez cocher la case pour activer la journalisation audio et de diagnostic du trafic du point de terminaison.
Sélectionnez Ajouter pour enregistrer et déployer le point de terminaison.
Sur la page principale des modèles de déploiement, les détails sur le nouveau point de terminaison sont affichés dans un tableau, tel que le nom, la description, l’état et la date d’expiration. L’instanciation d’un nouveau point de terminaison avec vos modèles personnalisés peut prendre jusqu’à 30 minutes. Lorsque l’état du déploiement est Réussi, le point de terminaison est prêt à être utilisé.
Important
Prenez note de la date d’expiration du modèle. Il s’agit de la dernière date à laquelle vous pouvez utiliser votre modèle personnalisé pour la reconnaissance vocale. Pour plus d’informations, consultez Cycle de vie des modèles et des points de terminaison.
Sélectionnez ce lien de point de terminaison pour afficher ses informations spécifiques, telles que sa clé, son URL et un exemple de code.
Pour créer un point de terminaison et déployer un modèle, utilisez la commande spx csr endpoint create
. Construisez les paramètres de la requête conformément aux instructions suivantes :
- Définissez le paramètre
project
sur l’ID d’un projet existant. Cela est recommandé afin de pouvoir également afficher et de gérer le point de terminaison dans Speech Studio. Vous pouvez exécuter la commandespx csr project list
pour obtenir les projets disponibles. - Définissez le paramètre requis
model
sur l’ID du modèle que vous souhaitez déployer sur le point de terminaison. - Définissez le paramètre requis
language
. Les paramètres régionaux du point de terminaison doivent correspondre à ceux du modèle. Vous ne pourrez plus changer de paramètres régionaux. Le paramètrelanguage
CLI Speech correspond à la propriétélocale
dans la requête et la réponse JSON. - Définissez le paramètre requis
name
. C’est le nom qui est affiché dans Speech Studio. Le paramètrename
CLI Speech correspond à la propriétédisplayName
dans la requête et la réponse JSON. - Si vous le souhaitez, vous pouvez définir le paramètre
logging
. Définissez-le surenabled
pour activer la journalisation audio et de diagnostic du trafic du point de terminaison. Par défaut, il s’agit defalse
.
Voici un exemple de commande l’interface CLI Speech pour créer un point de terminaison et déployer un modèle :
spx csr endpoint create --api-version v3.2 --project YourProjectId --model YourModelId --name "My Endpoint" --description "My Endpoint Description" --language "en-US"
Vous devriez recevoir un corps de réponse au format suivant :
{
"self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
"model": {
"self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/models/9e240dc1-3d2d-4ac9-98ec-1be05ba0e9dd"
},
"links": {
"logs": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/a07164e8-22d1-4eb7-aa31-bf6bb1097f37/files/logs",
"restInteractive": "https://eastus.stt.speech.microsoft.com/speech/recognition/interactive/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
"restConversation": "https://eastus.stt.speech.microsoft.com/speech/recognition/conversation/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
"restDictation": "https://eastus.stt.speech.microsoft.com/speech/recognition/dictation/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
"webSocketInteractive": "wss://eastus.stt.speech.microsoft.com/speech/recognition/interactive/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
"webSocketConversation": "wss://eastus.stt.speech.microsoft.com/speech/recognition/conversation/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
"webSocketDictation": "wss://eastus.stt.speech.microsoft.com/speech/recognition/dictation/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37"
},
"project": {
"self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/projects/0198f569-cc11-4099-a0e8-9d55bc3d0c52"
},
"properties": {
"loggingEnabled": true
},
"lastActionDateTime": "2024-07-15T16:29:36Z",
"status": "NotStarted",
"createdDateTime": "2024-07-15T16:29:36Z",
"locale": "en-US",
"displayName": "My Endpoint",
"description": "My Endpoint Description"
}
La propriété self
de niveau supérieur dans le corps de la réponse est l’URI du point de terminaison. Utilisez cet URI pour obtenir des détails sur le projet, le modèle et les journaux du point de terminaison. Vous utilisez également cet URI pour mettre à jour le point de terminaison.
Pour obtenir l’aide de l’interface CLI Speech avec des points de terminaison, exécutez la commande suivante :
spx help csr endpoint
Pour créer un point de terminaison et déployer un modèle, utilisez l’opération Endpoints_Create de l’API REST de reconnaissance vocale. Construisez le corps de la requête conformément aux instructions suivantes :
- Définissez la propriété
project
sur l’URI d’un projet existant. Cela est recommandé afin de pouvoir également afficher et de gérer le point de terminaison dans Speech Studio. Vous pouvez effectuer une requête Projects_List pour obtenir les projets disponibles. - Définissez la propriété requise
model
sur l’URI du modèle que vous souhaitez déployer sur le point de terminaison. - Définissez la propriété requise
locale
. Les paramètres régionaux du point de terminaison doivent correspondre à ceux du modèle. Vous ne pourrez plus changer de paramètres régionaux. - Définissez la propriété requise
displayName
. C’est le nom qui est affiché dans Speech Studio. - Si vous le souhaitez, vous pouvez définir la propriété
loggingEnabled
dansproperties
. Définissez-la surtrue
pour activer la journalisation audio et de diagnostic du trafic du point de terminaison. Par défaut, il s’agit defalse
.
Effectuez une requête HTTP POST à l’aide de l’URI, comme illustré dans l’exemple Endpoints_Create suivant. Remplacez YourSubscriptionKey
par votre clé de ressource Speech, remplacez YourServiceRegion
par votre région de ressource Speech et définissez les propriétés du corps de la requête comme décrit précédemment.
curl -v -X POST -H "Ocp-Apim-Subscription-Key: YourSubscriptionKey" -H "Content-Type: application/json" -d '{
"project": {
"self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/projects/0198f569-cc11-4099-a0e8-9d55bc3d0c52"
},
"properties": {
"loggingEnabled": true
},
"displayName": "My Endpoint",
"description": "My Endpoint Description",
"model": {
"self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/models/base/ae8d1643-53e4-4554-be4c-221dcfb471c5"
},
"locale": "en-US",
}' "https://YourServiceRegion.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints"
Vous devriez recevoir un corps de réponse au format suivant :
{
"self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
"model": {
"self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/models/9e240dc1-3d2d-4ac9-98ec-1be05ba0e9dd"
},
"links": {
"logs": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/a07164e8-22d1-4eb7-aa31-bf6bb1097f37/files/logs",
"restInteractive": "https://eastus.stt.speech.microsoft.com/speech/recognition/interactive/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
"restConversation": "https://eastus.stt.speech.microsoft.com/speech/recognition/conversation/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
"restDictation": "https://eastus.stt.speech.microsoft.com/speech/recognition/dictation/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
"webSocketInteractive": "wss://eastus.stt.speech.microsoft.com/speech/recognition/interactive/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
"webSocketConversation": "wss://eastus.stt.speech.microsoft.com/speech/recognition/conversation/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
"webSocketDictation": "wss://eastus.stt.speech.microsoft.com/speech/recognition/dictation/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37"
},
"project": {
"self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/projects/0198f569-cc11-4099-a0e8-9d55bc3d0c52"
},
"properties": {
"loggingEnabled": true
},
"lastActionDateTime": "2024-07-15T16:29:36Z",
"status": "NotStarted",
"createdDateTime": "2024-07-15T16:29:36Z",
"locale": "en-US",
"displayName": "My Endpoint",
"description": "My Endpoint Description"
}
La propriété self
de niveau supérieur dans le corps de la réponse est l’URI du point de terminaison. Utilisez cet URI pour obtenir des détails sur le projet, le modèle et les journaux du point de terminaison. Vous utilisez également cet URI pour mettre à jour ou supprimer le point de terminaison.
Modifier le modèle et redéployer le point de terminaison
Un point de terminaison peut être mis à jour pour utiliser un autre modèle créé par la même ressource Speech. Comme mentionné précédemment, vous devez mettre à jour le modèle du point de terminaison avant l’expiration du modèle.
Pour utiliser un nouveau modèle et redéployer le point de terminaison personnalisé :
- Connectez-vous à Speech Studio.
- Sélectionnez Custom Speech> Nom de votre projet >Déployer des modèles.
- Sélectionnez le lien vers un point de terminaison par nom, puis sélectionnez Modifier le modèle.
- Sélectionnez le nouveau modèle que vous souhaitez que le point de terminaison utilise.
- Sélectionnez Terminé pour enregistrer et redéployer le point de terminaison.
Pour redéployer le point de terminaison personnalisé avec un nouveau modèle, utilisez la commande spx csr model update
. Construisez les paramètres de la requête conformément aux instructions suivantes :
- Définissez le paramètre requis
endpoint
sur l’ID du point de terminaison que vous souhaitez déployer. - Définissez le paramètre requis
model
sur l’ID du modèle que vous souhaitez déployer sur le point de terminaison.
Voici un exemple de commande de l’interface CLI Speech qui redéploie le point de terminaison personnalisé avec un nouveau modèle :
spx csr endpoint update --api-version v3.2 --endpoint YourEndpointId --model YourModelId
Vous devriez recevoir un corps de réponse au format suivant :
{
"self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
"model": {
"self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/models/9e240dc1-3d2d-4ac9-98ec-1be05ba0e9dd"
},
"links": {
"logs": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/a07164e8-22d1-4eb7-aa31-bf6bb1097f37/files/logs",
"restInteractive": "https://eastus.stt.speech.microsoft.com/speech/recognition/interactive/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
"restConversation": "https://eastus.stt.speech.microsoft.com/speech/recognition/conversation/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
"restDictation": "https://eastus.stt.speech.microsoft.com/speech/recognition/dictation/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
"webSocketInteractive": "wss://eastus.stt.speech.microsoft.com/speech/recognition/interactive/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
"webSocketConversation": "wss://eastus.stt.speech.microsoft.com/speech/recognition/conversation/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
"webSocketDictation": "wss://eastus.stt.speech.microsoft.com/speech/recognition/dictation/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37"
},
"project": {
"self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/projects/0198f569-cc11-4099-a0e8-9d55bc3d0c52"
},
"properties": {
"loggingEnabled": true
},
"lastActionDateTime": "2024-07-15T16:30:12Z",
"status": "Succeeded",
"createdDateTime": "2024-07-15T16:29:36Z",
"locale": "en-US",
"displayName": "My Endpoint",
"description": "My Endpoint Description"
}
Pour obtenir l’aide de l’interface CLI Speech avec des points de terminaison, exécutez la commande suivante :
spx help csr endpoint
Pour redéployer le point de terminaison personnalisé avec un nouveau modèle, utilisez l’opération Endpoints_Update de l’API REST de reconnaissance vocale. Construisez le corps de la requête conformément aux instructions suivantes :
- Définissez la propriété
model
sur l’URI du modèle que vous souhaitez déployer sur le point de terminaison.
Effectuez une requête HTTP PATCH à l’aide de l’URI, comme illustré dans l’exemple suivant. Remplacez YourSubscriptionKey
par votre clé de ressource Speech, YourServiceRegion
par votre clé de ressource Speech, YourEndpointId
par votre ID de point de terminaison, et définissez les propriétés du corps de la demande comme décrit précédemment.
curl -v -X PATCH -H "Ocp-Apim-Subscription-Key: YourSubscriptionKey" -H "Content-Type: application/json" -d '{
"model": {
"self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/models/9e240dc1-3d2d-4ac9-98ec-1be05ba0e9dd"
},
}' "https://YourServiceRegion.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/YourEndpointId"
Vous devriez recevoir un corps de réponse au format suivant :
{
"self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
"model": {
"self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/models/9e240dc1-3d2d-4ac9-98ec-1be05ba0e9dd"
},
"links": {
"logs": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/a07164e8-22d1-4eb7-aa31-bf6bb1097f37/files/logs",
"restInteractive": "https://eastus.stt.speech.microsoft.com/speech/recognition/interactive/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
"restConversation": "https://eastus.stt.speech.microsoft.com/speech/recognition/conversation/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
"restDictation": "https://eastus.stt.speech.microsoft.com/speech/recognition/dictation/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
"webSocketInteractive": "wss://eastus.stt.speech.microsoft.com/speech/recognition/interactive/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
"webSocketConversation": "wss://eastus.stt.speech.microsoft.com/speech/recognition/conversation/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
"webSocketDictation": "wss://eastus.stt.speech.microsoft.com/speech/recognition/dictation/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37"
},
"project": {
"self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/projects/0198f569-cc11-4099-a0e8-9d55bc3d0c52"
},
"properties": {
"loggingEnabled": true
},
"lastActionDateTime": "2024-07-15T16:30:12Z",
"status": "Succeeded",
"createdDateTime": "2024-07-15T16:29:36Z",
"locale": "en-US",
"displayName": "My Endpoint",
"description": "My Endpoint Description"
}
Le redéploiement prend plusieurs minutes. En attendant, votre point de terminaison utilise le modèle précédent sans interruption du service.
Afficher les données de journalisation
Les données de journalisation sont disponibles pour l’exportation si vous l’avez configurée lors de la création du point de terminaison.
Pour télécharger les journaux d’activité de point de terminaison :
- Connectez-vous à Speech Studio.
- Sélectionnez Custom Speech> Nom de votre projet >Déployer des modèles.
- Sélectionnez le lien par nom de point de terminaison.
- Sous Journalisation du contenu, sélectionnez Télécharger le journal.
Pour obtenir les journaux d’un point de terminaison, utilisez la commande spx csr endpoint list
. Construisez les paramètres de la requête conformément aux instructions suivantes :
- Définissez le paramètre requis
endpoint
sur l’ID du point de terminaison dont vous souhaitez obtenir les journaux.
Voici un exemple de commande CLI Speech qui obtient les journaux d’un point de terminaison :
spx csr endpoint list --api-version v3.2 --endpoint YourEndpointId
Les emplacements de chaque fichier journal et d’autres détails sont retournés dans le corps de la réponse.
Pour obtenir des journaux d’un point de terminaison, commencez par utiliser l’opération Endpoints_Get de l’API REST de reconnaissance vocale.
Effectuez une requête HTTP GET à l’aide de l’URI, comme illustré dans l’exemple suivant. Remplacez YourEndpointId
par votre ID de point de terminaison, remplacez YourSubscriptionKey
par votre clé de ressource Speech et remplacez YourServiceRegion
par votre région de ressource Speech.
curl -v -X GET "https://YourServiceRegion.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/YourEndpointId" -H "Ocp-Apim-Subscription-Key: YourSubscriptionKey"
Vous devriez recevoir un corps de réponse au format suivant :
{
"self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
"model": {
"self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/models/9e240dc1-3d2d-4ac9-98ec-1be05ba0e9dd"
},
"links": {
"logs": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/a07164e8-22d1-4eb7-aa31-bf6bb1097f37/files/logs",
"restInteractive": "https://eastus.stt.speech.microsoft.com/speech/recognition/interactive/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
"restConversation": "https://eastus.stt.speech.microsoft.com/speech/recognition/conversation/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
"restDictation": "https://eastus.stt.speech.microsoft.com/speech/recognition/dictation/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
"webSocketInteractive": "wss://eastus.stt.speech.microsoft.com/speech/recognition/interactive/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
"webSocketConversation": "wss://eastus.stt.speech.microsoft.com/speech/recognition/conversation/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
"webSocketDictation": "wss://eastus.stt.speech.microsoft.com/speech/recognition/dictation/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37"
},
"project": {
"self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/projects/0198f569-cc11-4099-a0e8-9d55bc3d0c52"
},
"properties": {
"loggingEnabled": true
},
"lastActionDateTime": "2024-07-15T16:30:12Z",
"status": "Succeeded",
"createdDateTime": "2024-07-15T16:29:36Z",
"locale": "en-US",
"displayName": "My Endpoint",
"description": "My Endpoint Description"
}
Effectuez une requête HTTP GET à l’aide de l’URI « logs » du corps de la réponse précédente. Remplacez YourEndpointId
par votre ID de point de terminaison, remplacez YourSubscriptionKey
par votre clé de ressource Speech et remplacez YourServiceRegion
par votre région de ressource Speech.
curl -v -X GET "https://YourServiceRegion.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/YourEndpointId/files/logs" -H "Ocp-Apim-Subscription-Key: YourSubscriptionKey"
Les emplacements de chaque fichier journal et d’autres détails sont retournés dans le corps de la réponse.
Les données de journalisation sont disponibles sur le stockage Microsoft pendant 30 jours, puis supprimées. Si votre compte de stockage est lié à l’abonnement Azure AI services, les données de journalisation ne sont pas automatiquement supprimées.