Partager via


Déployer un modèle vocal personnalisé

Dans cet article, vous apprenez à déployer un point de terminaison pour un modèle vocal personnalisé. À l’exception de la transcription par lots, vous devez déployer un point de terminaison personnalisé pour utiliser un modèle vocal personnalisé.

Conseil

Un point de terminaison de déploiement hébergé n’est pas nécessaire pour utiliser la reconnaissance vocale personnalisée avec l’API de transcription par lots. Vous pouvez conserver des ressources si le modèle vocal personnalisé est utilisé uniquement pour la transcription par lots. Pour plus d’informations, consultez les tarifs du service Speech.

Vous pouvez déployer un point de terminaison pour un modèle de base ou personnalisé, puis mettre à jour le point de terminaison ultérieurement afin d’utiliser un modèle mieux entraîné.

Notes

Les points de terminaison utilisés par les ressources Speech F0 sont supprimés après sept jours.

Ajouter un point de terminaison de déploiement

Pour créer un point de terminaison personnalisé, procédez comme suit.

  1. Connectez-vous à Speech Studio.

  2. Sélectionnez Custom Speech> Nom de votre projet >Déployer des modèles.

    S’il s’agit de votre premier point de terminaison, notez que la table ne contient aucun point de terminaison. Une fois que vous avez créé un point de terminaison, vous utilisez cette page pour effectuer le suivi de chaque point de terminaison déployé.

  3. Sélectionnez Déployer le modèle pour démarrer l’Assistant Nouveau point de terminaison.

  4. Sur la page Nouveau point de terminaison, entrez un nom et une description pour votre point de terminaison personnalisé.

  5. Sélectionnez le modèle personnalisé que vous souhaitez associer au point de terminaison.

  6. Si vous le souhaitez, vous pouvez cocher la case pour activer la journalisation audio et de diagnostic du trafic du point de terminaison.

    Capture d’écran de la page Nouveau point de terminaison montrant la case à cocher permettant d’activer la journalisation.

  7. Sélectionnez Ajouter pour enregistrer et déployer le point de terminaison.

Sur la page principale des modèles de déploiement, les détails sur le nouveau point de terminaison sont affichés dans un tableau, tel que le nom, la description, l’état et la date d’expiration. L’instanciation d’un nouveau point de terminaison avec vos modèles personnalisés peut prendre jusqu’à 30 minutes. Lorsque l’état du déploiement est Réussi, le point de terminaison est prêt à être utilisé.

Important

Prenez note de la date d’expiration du modèle. Il s’agit de la dernière date à laquelle vous pouvez utiliser votre modèle personnalisé pour la reconnaissance vocale. Pour plus d’informations, consultez Cycle de vie des modèles et des points de terminaison.

Sélectionnez ce lien de point de terminaison pour afficher ses informations spécifiques, telles que sa clé, son URL et un exemple de code.

Pour créer un point de terminaison et déployer un modèle, utilisez la commande spx csr endpoint create. Construisez les paramètres de la requête conformément aux instructions suivantes :

  • Définissez le paramètre project sur l’ID d’un projet existant. Cela est recommandé afin de pouvoir également afficher et de gérer le point de terminaison dans Speech Studio. Vous pouvez exécuter la commande spx csr project list pour obtenir les projets disponibles.
  • Définissez le paramètre requis model sur l’ID du modèle que vous souhaitez déployer sur le point de terminaison.
  • Définissez le paramètre requis language. Les paramètres régionaux du point de terminaison doivent correspondre à ceux du modèle. Vous ne pourrez plus changer de paramètres régionaux. Le paramètre language CLI Speech correspond à la propriété locale dans la requête et la réponse JSON.
  • Définissez le paramètre requis name. C’est le nom qui est affiché dans Speech Studio. Le paramètre name CLI Speech correspond à la propriété displayName dans la requête et la réponse JSON.
  • Si vous le souhaitez, vous pouvez définir le paramètre logging. Définissez-le sur enabled pour activer la journalisation audio et de diagnostic du trafic du point de terminaison. Par défaut, il s’agit de false.

Voici un exemple de commande l’interface CLI Speech pour créer un point de terminaison et déployer un modèle :

spx csr endpoint create --api-version v3.2 --project YourProjectId --model YourModelId --name "My Endpoint" --description "My Endpoint Description" --language "en-US"

Vous devriez recevoir un corps de réponse au format suivant :

{
  "self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
  "model": {
    "self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/models/9e240dc1-3d2d-4ac9-98ec-1be05ba0e9dd"
  },
  "links": {
    "logs": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/a07164e8-22d1-4eb7-aa31-bf6bb1097f37/files/logs",
    "restInteractive": "https://eastus.stt.speech.microsoft.com/speech/recognition/interactive/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
    "restConversation": "https://eastus.stt.speech.microsoft.com/speech/recognition/conversation/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
    "restDictation": "https://eastus.stt.speech.microsoft.com/speech/recognition/dictation/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
    "webSocketInteractive": "wss://eastus.stt.speech.microsoft.com/speech/recognition/interactive/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
    "webSocketConversation": "wss://eastus.stt.speech.microsoft.com/speech/recognition/conversation/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
    "webSocketDictation": "wss://eastus.stt.speech.microsoft.com/speech/recognition/dictation/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37"
  },
  "project": {
    "self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/projects/0198f569-cc11-4099-a0e8-9d55bc3d0c52"
  },
  "properties": {
    "loggingEnabled": true
  },
  "lastActionDateTime": "2024-07-15T16:29:36Z",
  "status": "NotStarted",
  "createdDateTime": "2024-07-15T16:29:36Z",
  "locale": "en-US",
  "displayName": "My Endpoint",
  "description": "My Endpoint Description"
}

La propriété self de niveau supérieur dans le corps de la réponse est l’URI du point de terminaison. Utilisez cet URI pour obtenir des détails sur le projet, le modèle et les journaux du point de terminaison. Vous utilisez également cet URI pour mettre à jour le point de terminaison.

Pour obtenir l’aide de l’interface CLI Speech avec des points de terminaison, exécutez la commande suivante :

spx help csr endpoint

Pour créer un point de terminaison et déployer un modèle, utilisez l’opération Endpoints_Create de l’API REST de reconnaissance vocale. Construisez le corps de la requête conformément aux instructions suivantes :

  • Définissez la propriété project sur l’URI d’un projet existant. Cela est recommandé afin de pouvoir également afficher et de gérer le point de terminaison dans Speech Studio. Vous pouvez effectuer une requête Projects_List pour obtenir les projets disponibles.
  • Définissez la propriété requise model sur l’URI du modèle que vous souhaitez déployer sur le point de terminaison.
  • Définissez la propriété requise locale. Les paramètres régionaux du point de terminaison doivent correspondre à ceux du modèle. Vous ne pourrez plus changer de paramètres régionaux.
  • Définissez la propriété requise displayName. C’est le nom qui est affiché dans Speech Studio.
  • Si vous le souhaitez, vous pouvez définir la propriété loggingEnabled dans properties. Définissez-la sur true pour activer la journalisation audio et de diagnostic du trafic du point de terminaison. Par défaut, il s’agit de false.

Effectuez une requête HTTP POST à l’aide de l’URI, comme illustré dans l’exemple Endpoints_Create suivant. Remplacez YourSubscriptionKey par votre clé de ressource Speech, remplacez YourServiceRegion par votre région de ressource Speech et définissez les propriétés du corps de la requête comme décrit précédemment.

curl -v -X POST -H "Ocp-Apim-Subscription-Key: YourSubscriptionKey" -H "Content-Type: application/json" -d '{
  "project": {
    "self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/projects/0198f569-cc11-4099-a0e8-9d55bc3d0c52"
  },
  "properties": {
    "loggingEnabled": true
  },
  "displayName": "My Endpoint",
  "description": "My Endpoint Description",
  "model": {
    "self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/models/base/ae8d1643-53e4-4554-be4c-221dcfb471c5"
  },
  "locale": "en-US",
}'  "https://YourServiceRegion.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints"

Vous devriez recevoir un corps de réponse au format suivant :

{
  "self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
  "model": {
    "self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/models/9e240dc1-3d2d-4ac9-98ec-1be05ba0e9dd"
  },
  "links": {
    "logs": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/a07164e8-22d1-4eb7-aa31-bf6bb1097f37/files/logs",
    "restInteractive": "https://eastus.stt.speech.microsoft.com/speech/recognition/interactive/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
    "restConversation": "https://eastus.stt.speech.microsoft.com/speech/recognition/conversation/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
    "restDictation": "https://eastus.stt.speech.microsoft.com/speech/recognition/dictation/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
    "webSocketInteractive": "wss://eastus.stt.speech.microsoft.com/speech/recognition/interactive/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
    "webSocketConversation": "wss://eastus.stt.speech.microsoft.com/speech/recognition/conversation/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
    "webSocketDictation": "wss://eastus.stt.speech.microsoft.com/speech/recognition/dictation/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37"
  },
  "project": {
    "self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/projects/0198f569-cc11-4099-a0e8-9d55bc3d0c52"
  },
  "properties": {
    "loggingEnabled": true
  },
  "lastActionDateTime": "2024-07-15T16:29:36Z",
  "status": "NotStarted",
  "createdDateTime": "2024-07-15T16:29:36Z",
  "locale": "en-US",
  "displayName": "My Endpoint",
  "description": "My Endpoint Description"
}

La propriété self de niveau supérieur dans le corps de la réponse est l’URI du point de terminaison. Utilisez cet URI pour obtenir des détails sur le projet, le modèle et les journaux du point de terminaison. Vous utilisez également cet URI pour mettre à jour ou supprimer le point de terminaison.

Modifier le modèle et redéployer le point de terminaison

Un point de terminaison peut être mis à jour pour utiliser un autre modèle créé par la même ressource Speech. Comme mentionné précédemment, vous devez mettre à jour le modèle du point de terminaison avant l’expiration du modèle.

Pour utiliser un nouveau modèle et redéployer le point de terminaison personnalisé :

  1. Connectez-vous à Speech Studio.
  2. Sélectionnez Custom Speech> Nom de votre projet >Déployer des modèles.
  3. Sélectionnez le lien vers un point de terminaison par nom, puis sélectionnez Modifier le modèle.
  4. Sélectionnez le nouveau modèle que vous souhaitez que le point de terminaison utilise.
  5. Sélectionnez Terminé pour enregistrer et redéployer le point de terminaison.

Pour redéployer le point de terminaison personnalisé avec un nouveau modèle, utilisez la commande spx csr model update. Construisez les paramètres de la requête conformément aux instructions suivantes :

  • Définissez le paramètre requis endpoint sur l’ID du point de terminaison que vous souhaitez déployer.
  • Définissez le paramètre requis model sur l’ID du modèle que vous souhaitez déployer sur le point de terminaison.

Voici un exemple de commande de l’interface CLI Speech qui redéploie le point de terminaison personnalisé avec un nouveau modèle :

spx csr endpoint update --api-version v3.2 --endpoint YourEndpointId --model YourModelId

Vous devriez recevoir un corps de réponse au format suivant :

{
  "self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
  "model": {
    "self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/models/9e240dc1-3d2d-4ac9-98ec-1be05ba0e9dd"
  },
  "links": {
    "logs": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/a07164e8-22d1-4eb7-aa31-bf6bb1097f37/files/logs",
    "restInteractive": "https://eastus.stt.speech.microsoft.com/speech/recognition/interactive/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
    "restConversation": "https://eastus.stt.speech.microsoft.com/speech/recognition/conversation/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
    "restDictation": "https://eastus.stt.speech.microsoft.com/speech/recognition/dictation/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
    "webSocketInteractive": "wss://eastus.stt.speech.microsoft.com/speech/recognition/interactive/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
    "webSocketConversation": "wss://eastus.stt.speech.microsoft.com/speech/recognition/conversation/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
    "webSocketDictation": "wss://eastus.stt.speech.microsoft.com/speech/recognition/dictation/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37"
  },
  "project": {
    "self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/projects/0198f569-cc11-4099-a0e8-9d55bc3d0c52"
  },
  "properties": {
    "loggingEnabled": true
  },
  "lastActionDateTime": "2024-07-15T16:30:12Z",
  "status": "Succeeded",
  "createdDateTime": "2024-07-15T16:29:36Z",
  "locale": "en-US",
  "displayName": "My Endpoint",
  "description": "My Endpoint Description"
}

Pour obtenir l’aide de l’interface CLI Speech avec des points de terminaison, exécutez la commande suivante :

spx help csr endpoint

Pour redéployer le point de terminaison personnalisé avec un nouveau modèle, utilisez l’opération Endpoints_Update de l’API REST de reconnaissance vocale. Construisez le corps de la requête conformément aux instructions suivantes :

  • Définissez la propriété model sur l’URI du modèle que vous souhaitez déployer sur le point de terminaison.

Effectuez une requête HTTP PATCH à l’aide de l’URI, comme illustré dans l’exemple suivant. Remplacez YourSubscriptionKey par votre clé de ressource Speech, YourServiceRegion par votre clé de ressource Speech, YourEndpointId par votre ID de point de terminaison, et définissez les propriétés du corps de la demande comme décrit précédemment.

curl -v -X PATCH -H "Ocp-Apim-Subscription-Key: YourSubscriptionKey" -H "Content-Type: application/json" -d '{
  "model": {
    "self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/models/9e240dc1-3d2d-4ac9-98ec-1be05ba0e9dd"
  },
}'  "https://YourServiceRegion.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/YourEndpointId"

Vous devriez recevoir un corps de réponse au format suivant :

{
  "self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
  "model": {
    "self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/models/9e240dc1-3d2d-4ac9-98ec-1be05ba0e9dd"
  },
  "links": {
    "logs": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/a07164e8-22d1-4eb7-aa31-bf6bb1097f37/files/logs",
    "restInteractive": "https://eastus.stt.speech.microsoft.com/speech/recognition/interactive/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
    "restConversation": "https://eastus.stt.speech.microsoft.com/speech/recognition/conversation/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
    "restDictation": "https://eastus.stt.speech.microsoft.com/speech/recognition/dictation/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
    "webSocketInteractive": "wss://eastus.stt.speech.microsoft.com/speech/recognition/interactive/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
    "webSocketConversation": "wss://eastus.stt.speech.microsoft.com/speech/recognition/conversation/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
    "webSocketDictation": "wss://eastus.stt.speech.microsoft.com/speech/recognition/dictation/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37"
  },
  "project": {
    "self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/projects/0198f569-cc11-4099-a0e8-9d55bc3d0c52"
  },
  "properties": {
    "loggingEnabled": true
  },
  "lastActionDateTime": "2024-07-15T16:30:12Z",
  "status": "Succeeded",
  "createdDateTime": "2024-07-15T16:29:36Z",
  "locale": "en-US",
  "displayName": "My Endpoint",
  "description": "My Endpoint Description"
}

Le redéploiement prend plusieurs minutes. En attendant, votre point de terminaison utilise le modèle précédent sans interruption du service.

Afficher les données de journalisation

Les données de journalisation sont disponibles pour l’exportation si vous l’avez configurée lors de la création du point de terminaison.

Pour télécharger les journaux d’activité de point de terminaison :

  1. Connectez-vous à Speech Studio.
  2. Sélectionnez Custom Speech> Nom de votre projet >Déployer des modèles.
  3. Sélectionnez le lien par nom de point de terminaison.
  4. Sous Journalisation du contenu, sélectionnez Télécharger le journal.

Pour obtenir les journaux d’un point de terminaison, utilisez la commande spx csr endpoint list. Construisez les paramètres de la requête conformément aux instructions suivantes :

  • Définissez le paramètre requis endpoint sur l’ID du point de terminaison dont vous souhaitez obtenir les journaux.

Voici un exemple de commande CLI Speech qui obtient les journaux d’un point de terminaison :

spx csr endpoint list --api-version v3.2 --endpoint YourEndpointId

Les emplacements de chaque fichier journal et d’autres détails sont retournés dans le corps de la réponse.

Pour obtenir des journaux d’un point de terminaison, commencez par utiliser l’opération Endpoints_Get de l’API REST de reconnaissance vocale.

Effectuez une requête HTTP GET à l’aide de l’URI, comme illustré dans l’exemple suivant. Remplacez YourEndpointId par votre ID de point de terminaison, remplacez YourSubscriptionKey par votre clé de ressource Speech et remplacez YourServiceRegion par votre région de ressource Speech.

curl -v -X GET "https://YourServiceRegion.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/YourEndpointId" -H "Ocp-Apim-Subscription-Key: YourSubscriptionKey"

Vous devriez recevoir un corps de réponse au format suivant :

{
  "self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
  "model": {
    "self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/models/9e240dc1-3d2d-4ac9-98ec-1be05ba0e9dd"
  },
  "links": {
    "logs": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/a07164e8-22d1-4eb7-aa31-bf6bb1097f37/files/logs",
    "restInteractive": "https://eastus.stt.speech.microsoft.com/speech/recognition/interactive/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
    "restConversation": "https://eastus.stt.speech.microsoft.com/speech/recognition/conversation/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
    "restDictation": "https://eastus.stt.speech.microsoft.com/speech/recognition/dictation/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
    "webSocketInteractive": "wss://eastus.stt.speech.microsoft.com/speech/recognition/interactive/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
    "webSocketConversation": "wss://eastus.stt.speech.microsoft.com/speech/recognition/conversation/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37",
    "webSocketDictation": "wss://eastus.stt.speech.microsoft.com/speech/recognition/dictation/cognitiveservices/v1?cid=a07164e8-22d1-4eb7-aa31-bf6bb1097f37"
  },
  "project": {
    "self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/projects/0198f569-cc11-4099-a0e8-9d55bc3d0c52"
  },
  "properties": {
    "loggingEnabled": true
  },
  "lastActionDateTime": "2024-07-15T16:30:12Z",
  "status": "Succeeded",
  "createdDateTime": "2024-07-15T16:29:36Z",
  "locale": "en-US",
  "displayName": "My Endpoint",
  "description": "My Endpoint Description"
}

Effectuez une requête HTTP GET à l’aide de l’URI « logs » du corps de la réponse précédente. Remplacez YourEndpointId par votre ID de point de terminaison, remplacez YourSubscriptionKey par votre clé de ressource Speech et remplacez YourServiceRegion par votre région de ressource Speech.

curl -v -X GET "https://YourServiceRegion.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/YourEndpointId/files/logs" -H "Ocp-Apim-Subscription-Key: YourSubscriptionKey"

Les emplacements de chaque fichier journal et d’autres détails sont retournés dans le corps de la réponse.

Les données de journalisation sont disponibles sur le stockage Microsoft pendant 30 jours, puis supprimées. Si votre compte de stockage est lié à l’abonnement Azure AI services, les données de journalisation ne sont pas automatiquement supprimées.