Partager via


Translation Operations - List Translation

Répertorier les ressources de traduction.

GET {endpoint}/videotranslation/translations?api-version=2025-05-20
GET {endpoint}/videotranslation/translations?api-version=2025-05-20&top={top}&skip={skip}&maxpagesize={maxpagesize}

Paramètres URI

Nom Dans Obligatoire Type Description
endpoint
path True

string

Points de terminaison Cognitive Services pris en charge (protocole et nom d’hôte, par exemple : https://eastus.api.cognitive.microsoft.com).

api-version
query True

string

minLength: 1

Version de l’API à utiliser pour cette opération.

maxpagesize
query

integer (int32)

Nombre maximal d’éléments de résultat par page.

skip
query

integer (int32)

Nombre d’éléments de résultat à ignorer.

top
query

integer (int32)

Nombre d’éléments de résultat à retourner.

Réponses

Nom Type Description
200 OK

PagedTranslation

La demande a réussi.

Other Status Codes

Azure.Core.Foundations.ErrorResponse

Réponse d’erreur inattendue.

En-têtes

x-ms-error-code: string

Sécurité

Ocp-Apim-Subscription-Key

Fournissez votre clé de ressource Speech ici.

Type: apiKey
Dans: header

AADToken

Il s’agit des flux de plateforme d’identités Microsoft .

Type: oauth2
Flux: implicit
URL d’autorisation: https://login.microsoftonline.com/common/oauth2/authorize

Étendues

Nom Description
https://cognitiveservices.azure.com/.default

Exemples

List translations

Exemple de requête

GET {endpoint}/videotranslation/translations?api-version=2025-05-20

Exemple de réponse

{
  "value": [
    {
      "id": "TranslateMyZhCNVideo1",
      "displayName": "hello.mp4",
      "description": "Translate video from en-US to zh-CN.",
      "input": {
        "sourceLocale": "en-US",
        "targetLocale": "zh-CN",
        "voiceKind": "PlatformVoice",
        "videoFileUrl": "https://xxx.blob.core.windows.net/container1/myvtt.vtt?sv=2023-01-03&st=2024-05-20T08%3A27%3A15Z&se=2024-05-21T08%3A27%3A15Z&sr=b&sp=r&sig=xxx"
      },
      "createdDateTime": "2023-04-01T05:30:00.000Z",
      "latestIteration": {
        "id": "TranslateMyZhCNVideo1-Edit1",
        "description": "Iteration1",
        "status": "Running",
        "input": {
          "speakerCount": 3,
          "subtitleMaxCharCountPerSegment": 80,
          "webvttFile": {
            "url": "https://xxx.blob.core.windows.net/container1/myvtt.vtt?sv=2023-01-03&st=2024-05-20T08%3A27%3A15Z&se=2024-05-21T08%3A27%3A15Z&sr=b&sp=r&sig=xxx",
            "kind": "MetadataJson"
          }
        }
      },
      "latestSucceededIteration": {
        "id": "xxx",
        "description": "Iteration1",
        "input": {
          "speakerCount": 3,
          "subtitleMaxCharCountPerSegment": 80,
          "webvttFile": {
            "url": "https://xxx.blob.core.windows.net/container1/myvtt.vtt?sv=2023-01-03&st=2024-05-20T08%3A27%3A15Z&se=2024-05-21T08%3A27%3A15Z&sr=b&sp=r&sig=xxx",
            "kind": "MetadataJson"
          }
        }
      }
    },
    {
      "id": "TranslateMyZhCNVideo2",
      "displayName": "hello.mp4",
      "description": "Translate video from en-US to zh-CN.",
      "input": {
        "sourceLocale": "en-US",
        "targetLocale": "zh-CN",
        "voiceKind": "PlatformVoice",
        "videoFileUrl": "https://xxx.blob.core.windows.net/container1/myvtt.vtt?sv=2023-01-03&st=2024-05-20T08%3A27%3A15Z&se=2024-05-21T08%3A27%3A15Z&sr=b&sp=r&sig=xxx"
      },
      "createdDateTime": "2023-04-01T05:30:00.000Z",
      "latestIteration": {
        "id": "TranslateMyZhCNVideo2-Edit2",
        "description": "Iteration1",
        "status": "Failed",
        "input": {
          "speakerCount": 3,
          "subtitleMaxCharCountPerSegment": 80,
          "webvttFile": {
            "url": "https://xxx.blob.core.windows.net/container1/myvtt.vtt?sv=2023-01-03&st=2024-05-20T08%3A27%3A15Z&se=2024-05-21T08%3A27%3A15Z&sr=b&sp=r&sig=xxx",
            "kind": "MetadataJson"
          }
        }
      },
      "latestSucceededIteration": {
        "id": "xxx",
        "description": "Iteration1",
        "input": {
          "speakerCount": 3,
          "subtitleMaxCharCountPerSegment": 80,
          "webvttFile": {
            "url": "https://xxx.blob.core.windows.net/container1/myvtt.vtt?sv=2023-01-03&st=2024-05-20T08%3A27%3A15Z&se=2024-05-21T08%3A27%3A15Z&sr=b&sp=r&sig=xxx",
            "kind": "MetadataJson"
          }
        }
      }
    },
    {
      "id": "TranslateMyZhCNVideo3",
      "displayName": "hello.mp4",
      "description": "Translate video from en-US to zh-CN.",
      "input": {
        "sourceLocale": "en-US",
        "targetLocale": "zh-CN",
        "voiceKind": "PlatformVoice",
        "videoFileUrl": "https://xxx.blob.core.windows.net/container1/myvtt.vtt?sv=2023-01-03&st=2024-05-20T08%3A27%3A15Z&se=2024-05-21T08%3A27%3A15Z&sr=b&sp=r&sig=xxx"
      },
      "createdDateTime": "2023-04-01T05:30:00.000Z",
      "latestIteration": {
        "id": "Initial",
        "description": "Iteration1",
        "status": "Completed",
        "input": {
          "speakerCount": 3,
          "subtitleMaxCharCountPerSegment": 80,
          "webvttFile": {
            "url": "https://xxx.blob.core.windows.net/container1/myvtt.vtt?sv=2023-01-03&st=2024-05-20T08%3A27%3A15Z&se=2024-05-21T08%3A27%3A15Z&sr=b&sp=r&sig=xxx",
            "kind": "MetadataJson"
          }
        }
      },
      "latestSucceededIteration": {
        "id": "Initial",
        "description": "Iteration1",
        "input": {
          "speakerCount": 3,
          "subtitleMaxCharCountPerSegment": 80,
          "webvttFile": {
            "url": "https://xxx.blob.core.windows.net/container1/myvtt.vtt?sv=2023-01-03&st=2024-05-20T08%3A27%3A15Z&se=2024-05-21T08%3A27%3A15Z&sr=b&sp=r&sig=xxx",
            "kind": "MetadataJson"
          }
        }
      }
    }
  ],
  "nextLink": "https://eastus.api.cognitive.microsoft.com/video-translation/translations?skip=2&maxpagesize=2&api-version=2025-05-20"
}

Définitions

Nom Description
Azure.Core.Foundations.Error

Objet d’erreur.

Azure.Core.Foundations.ErrorResponse

Réponse contenant les détails de l’erreur.

Azure.Core.Foundations.InnerError

Objet contenant des informations plus spécifiques sur l’erreur. Conformément aux instructions de l’API Microsoft One - https://github.com/microsoft/api-guidelines/blob/vNext/azure/Guidelines.md#handling-errors.

EnableEmotionalPlatformVoice

Activez le type de voix de la plate-forme émotionnelle.

Iteration

Effectuez une itération pour traduire un fichier vidéo de paramètres régionaux sources en paramètres régionaux cibles, webvtt pour la modification de contenu est facultatif pour demander un paramètre.

IterationInput

Entrée d’itération.

IterationResult

Résultat de l’itération.

PagedTranslation

Collection paginée d’éléments de traduction

Status

État de la tâche.

Translation

Créez une ressource de traduction pour héberger des itérations de traduction d’un fichier vidéo à partir des paramètres régionaux sources vers les paramètres régionaux cibles.

TranslationInput

Entrée de traduction.

VoiceKind

Type de voix TTS.

WebvttFile

Fichier webvtt de traduction.

WebvttFileKind

Type de fichier Webvtt.

Azure.Core.Foundations.Error

Objet d’erreur.

Nom Type Description
code

string

Un ensemble de codes d’erreur définis par le serveur.

details

Azure.Core.Foundations.Error[]

Tableau de détails sur des erreurs spécifiques qui ont conduit à cette erreur signalée.

innererror

Azure.Core.Foundations.InnerError

Objet contenant des informations plus spécifiques que l’objet actuel sur l’erreur.

message

string

Représentation lisible par l’homme de l’erreur.

target

string

Cible de l’erreur.

Azure.Core.Foundations.ErrorResponse

Réponse contenant les détails de l’erreur.

Nom Type Description
error

Azure.Core.Foundations.Error

Objet d’erreur.

Azure.Core.Foundations.InnerError

Objet contenant des informations plus spécifiques sur l’erreur. Conformément aux instructions de l’API Microsoft One - https://github.com/microsoft/api-guidelines/blob/vNext/azure/Guidelines.md#handling-errors.

Nom Type Description
code

string

Un ensemble de codes d’erreur définis par le serveur.

innererror

Azure.Core.Foundations.InnerError

Erreur interne.

EnableEmotionalPlatformVoice

Activez le type de voix de la plate-forme émotionnelle.

Valeur Description
Auto

Laissez l’API décider d’activer ou non la voix émotionnelle pour les paramètres régionaux cibles.

Disable

Désactivez l’émotion de la voix de la plate-forme pour la langue cible.

Enable

Forcez l’activation de la voix émotionnelle s’il existe une émotion soutenue par la voix pour le lieu cible.

Iteration

Effectuez une itération pour traduire un fichier vidéo de paramètres régionaux sources en paramètres régionaux cibles, webvtt pour la modification de contenu est facultatif pour demander un paramètre.

Nom Type Description
createdDateTime

string (date-time)

Horodatage lors de la création de l’objet. L’horodatage est encodé en tant que format de date et d’heure ISO 8601 (« AAAA-MM-DDThh :mm :ssZ », voir https://en.wikipedia.org/wiki/ISO_8601#Combined_date_and_time_representations).

description

string

Description de l’itération

failureReason

string

Raison de l’échec de l’itération

id

string

minLength: 3
maxLength: 64
pattern: ^[a-zA-Z0-9][a-zA-Z0-9._-]{1,62}[a-zA-Z0-9]$

ID d'itération

input

IterationInput

Entrée d’itération.

lastActionDateTime

string (date-time)

Horodatage lorsque l’état actuel a été entré. L’horodatage est encodé en tant que format de date et d’heure ISO 8601 (« AAAA-MM-DDThh :mm :ssZ », voir https://en.wikipedia.org/wiki/ISO_8601#Combined_date_and_time_representations).

result

IterationResult

Résultat de l’itération.

status

Status

État de l’itération

IterationInput

Entrée d’itération.

Nom Type Description
enableEmotionalPlatformVoice

EnableEmotionalPlatformVoice

Ce paramètre spécifie s’il faut activer l’émotion pour la voix de la plateforme. Par défaut, le serveur détermine s’il faut appliquer l’émotion en fonction des paramètres régionaux cibles afin d’optimiser la qualité. S’il n’est pas spécifié, l’API décidera automatiquement d’activer ou non l’expression émotionnelle côté serveur.

enableOcrCorrectionFromSubtitle

boolean

Indiquez si vous souhaitez autoriser l’API à corriger les résultats de la reconnaissance vocale (SR) à l’aide des sous-titres du fichier vidéo d’origine. En exploitant les sous-titres existants, l’API peut améliorer la précision du texte transcrit, garantissant que le résultat final est plus précis et fiable, s’il n’est pas spécifié, la traduction n’effectuera pas de correction à partir des sous-titres OCR.

enableVideoSpeedAdjustment

boolean

Ce paramètre permet d’ajuster la vitesse de lecture vidéo pour assurer un meilleur alignement avec l’audio traduit. Lorsqu’elle est activée, l’API peut ralentir ou accélérer la vidéo pour correspondre au timing de l’audio traduit, offrant une expérience de visionnage plus synchronisée et plus fluide, si elle n’est pas spécifiée, la vitesse de la vidéo ne sera pas ajustée.

exportSubtitleInVideo

boolean

Exporter le sous-titre dans la vidéo, s’il n’est pas spécifié, il héritera de la valeur définie dans l’entrée de la création de la traduction.

exportTargetLocaleAdvancedSubtitleFile

boolean

Ce paramètre, lorsqu’il est activé, permet à l’API d’exporter les sous-titres au format Advanced SubStation Alpha. Le fichier de sous-titres peut spécifier des styles et des couleurs de police, ce qui permet de résoudre les problèmes d’affichage des caractères dans certaines langues cibles telles que l’arabe (Ar), le japonais (Ja), le coréen (Ko) et le chinois (Ch). En utilisant ce paramètre, vous pouvez vous assurer que les sous-titres sont visuellement attrayants et correctement rendus dans différentes langues et régions, s’ils ne sont pas spécifiés, la réponse d’itération n’inclura pas de sous-titres avancés.

speakerCount

integer (int32)

Le nombre de haut-parleurs dans la vidéo, s’il n’est pas spécifié, héritera de la valeur définie dans l’entrée de la création de la traduction.

subtitleFontSize

integer (int32)

Ce paramètre spécifie la taille de police des sous-titres dans la sortie de traduction vidéo entre 5 et 30, s’il n’est pas spécifié, il utilisera la valeur par défaut dépendante de la langue.

subtitleMaxCharCountPerSegment

integer (int32)

Le nombre maximal de caractères d’affichage des sous-titres par segment, s’il n’est pas spécifié, il héritera de la valeur définie dans l’entrée de la création de la traduction.

subtitleOutlineColor

string

minLength: 6
maxLength: 9
pattern: ^#?(?:[0-9A-Fa-f]{6}|[0-9A-Fa-f]{8})$

Ce paramètre spécifie la couleur du contour des sous-titres dans la sortie de traduction vidéo. La valeur doit être fournie au format , # ou #, où représente le composant rouge de la couleur, représente le composant vert, représente le composant bleu, représente le composant alpha. Par exemple, EBA205 ou #EBA205 définira la couleur du sous-titre sur une nuance spécifique de jaune. Ce paramètre permet de personnaliser l’apparence des sous-titres pour améliorer la lisibilité et l’attrait visuel, s’il n’est pas spécifié, il utilisera la couleur noire par défaut.

subtitlePrimaryColor

string

minLength: 6
maxLength: 9
pattern: ^#?(?:[0-9A-Fa-f]{6}|[0-9A-Fa-f]{8})$

Ce paramètre spécifie la couleur primaire des sous-titres dans la sortie de traduction vidéo. La valeur doit être fournie au format , # ou #, où représente le composant rouge de la couleur, représente le composant vert, représente le composant bleu, représente le composant alpha. Par exemple, EBA205 ou #EBA205 définira la couleur du sous-titre sur une nuance spécifique de jaune. Ce paramètre permet de personnaliser l’apparence des sous-titres pour améliorer la lisibilité et l’attrait visuel, s’il n’est pas spécifié, il utilisera la couleur blanche par défaut.

ttsCustomLexiconFileIdInAudioContentCreation

string

pattern: ^[0-9a-fA-F]{8}-[0-9a-fA-F]{4}-[0-9a-fA-F]{4}-[0-9a-fA-F]{4}-[0-9a-fA-F]{12}$

Traduisez avec le lexique personnalisé TTS pour la synthèse vocale. Fournissez le fichier de lexique personnalisé à l’aide de ttsCustomLexiconFileUrl ou ttsCustomLexiconFileIdInAudioContentCreation. Ces paramètres s’excluent mutuellement, un seul d’entre eux est requis. Si les deux sont fournis, la demande sera considérée comme invalide.

ttsCustomLexiconFileUrl

string (uri)

Traduisez avec le lexique personnalisé TTS pour la synthèse vocale. Fournissez le fichier de lexique personnalisé à l’aide de ttsCustomLexiconFileUrl ou ttsCustomLexiconFileIdInAudioContentCreation. Ces paramètres s’excluent mutuellement, un seul d’entre eux est requis. Si les deux sont fournis, la demande sera considérée comme invalide.

webvttFile

WebvttFile

Fichier Webvtt pour la modification de contenu, ce paramètre est requis à partir de la deuxième demande de création d’itération de la traduction.

IterationResult

Résultat de l’itération.

Nom Type Description
metadataJsonWebvttFileUrl

string (uri)

URL du fichier webvtt json de métadonnées.

reportFileUrl

string (uri)

URL du fichier de rapport.

sourceLocaleSubtitleWebvttFileUrl

string (uri)

URL du fichier de sous-titre des paramètres régionaux source.

targetLocaleAdvancedSubtitleFileUrl

string (uri)

Cette propriété fournit l’URL du fichier de sous-titres ASS (Advanced SubStation Alpha) cible. Il n’est renseigné que lorsque exportTargetLocaleAdvancedSubtitleFile est défini sur true lors de la création de l’itération ; Dans le cas contraire, cette propriété ne sera pas incluse dans la réponse.

targetLocaleSubtitleWebvttFileUrl

string (uri)

URL du fichier de sous-titre des paramètres régionaux cibles.

translatedAudioFileUrl

string (uri)

URL du fichier audio traduit.

translatedVideoFileUrl

string (uri)

URL du fichier vidéo traduit.

PagedTranslation

Collection paginée d’éléments de traduction

Nom Type Description
nextLink

string (uri)

Lien vers la page suivante des éléments

value

Translation[]

Éléments de traduction sur cette page

Status

État de la tâche.

Valeur Description
Canceled

État annulé

Failed

État d’échec de l’exécution

NotStarted

État non démarré

Running

État en cours d’exécution

Succeeded

Exécuter l’état réussi

Translation

Créez une ressource de traduction pour héberger des itérations de traduction d’un fichier vidéo à partir des paramètres régionaux sources vers les paramètres régionaux cibles.

Nom Type Description
createdDateTime

string (date-time)

Horodatage lors de la création de l’objet. L’horodatage est encodé en tant que format de date et d’heure ISO 8601 (« AAAA-MM-DDThh :mm :ssZ », voir https://en.wikipedia.org/wiki/ISO_8601#Combined_date_and_time_representations).

description

string

Description de la traduction.

displayName

string

Nom complet de la traduction.

failureReason

string

Raison de l’échec de traduction

id

string

minLength: 3
maxLength: 64
pattern: ^[a-zA-Z0-9][a-zA-Z0-9._-]{1,62}[a-zA-Z0-9]$

ID de ressource de traduction.

input

TranslationInput

Entrée de traduction.

latestIteration

Iteration

Dernière itération de la traduction.

latestSucceededIteration

Iteration

Dernière itération terminée de la traduction.

TranslationInput

Entrée de traduction.

Nom Type Description
audioFileUrl

string (uri)

Traduction du fichier audio URL du blob Azure, format de fichier .mp3 ou .wav, taille maximale du fichier 5 Go et durée de la vidéo de 4 heures. Fournissez le fichier multimédia d’entrée à l’aide de videoFileUrl ou audioFileUrl, ces paramètres s’excluent mutuellement, un seul d’entre eux est requis. Si les deux sont fournis, la demande sera considérée comme invalide.

enableLipSync

boolean

Indiquez si vous souhaitez activer la synchronisation labiale, si elle n’est pas fournie, la valeur par défaut est false pour désactiver la synchronisation labiale.

exportSubtitleInVideo

boolean

Exporter le sous-titre dans la vidéo, s’il n’est pas spécifié, la valeur par défaut est false, il ne gravera pas le sous-titre dans le fichier vidéo traduit.

sourceLocale

string

minLength: 5
maxLength: 16
pattern: ^[A-Za-z]{2,4}([_-][A-Za-z]{4})?([_-]([A-Za-z]{2}|[0-9]{3}))?$

Paramètres régionaux sources du fichier vidéo. Le code de paramètres régionaux suit BCP-47. Vous pouvez trouver la liste des paramètres régionaux de synthèse vocale ici https://learn.microsoft.com/azure/ai-services/speech-service/language-support?tabs=tts , si elle n’est pas spécifiée, les paramètres régionaux sources seront détectés automatiquement à partir du fichier vidéo, la détection automatique n’est prise en charge qu’après la version 2025-05-20.

speakerCount

integer (int32)

Le nombre de haut-parleurs dans la vidéo, s’il n’est pas fourni, sera automatiquement détecté à partir du fichier vidéo.

subtitleMaxCharCountPerSegment

integer (int32)

Le nombre maximal de caractères d’affichage des sous-titres par segment, s’il n’est pas fourni, il utilisera la valeur par défaut dépendante de la langue.

targetLocale

string

minLength: 5
maxLength: 16
pattern: ^[A-Za-z]{2,4}([_-][A-Za-z]{4})?([_-]([A-Za-z]{2}|[0-9]{3}))?$

Paramètres régionaux cibles de la traduction. Le code de paramètres régionaux suit BCP-47. Vous trouverez la liste des paramètres régionaux de synthèse vocale ici https://learn.microsoft.com/azure/ai-services/speech-service/language-support?tabs=tts.

videoFileUrl

string (uri)

Traduction du fichier vidéo URL de l’objet blob Azure, format de fichier .mp4, taille maximale du fichier 5 Go et durée de la vidéo de 4 heures. Fournissez le fichier multimédia d’entrée à l’aide de videoFileUrl ou audioFileUrl, ces paramètres s’excluent mutuellement, un seul d’entre eux est requis. Si les deux sont fournis, la demande sera considérée comme invalide.

voiceKind

VoiceKind

Type de voix de traduction.

VoiceKind

Type de voix TTS.

Valeur Description
PersonalVoice

Voix personnelle TTS

PlatformVoice

Voix de plateforme TTS

WebvttFile

Fichier webvtt de traduction.

Nom Type Description
kind

WebvttFileKind

Type de fichier webvtt de traduction.

url

string (uri)

URL du fichier webvtt de traduction.

WebvttFileKind

Type de fichier Webvtt.

Valeur Description
MetadataJson

Fichier webvtt JSON de métadonnées de paramètres régionaux cibles

SourceLocaleSubtitle

Fichier webvtt de sous-titre de texte brut source

TargetLocaleSubtitle

Fichier webvtt de sous-titre de texte brut cible