Jobs - Get

Obtention de travail
Obtient un travail.

GET https://management.azure.com/subscriptions/{subscriptionId}/resourceGroups/{resourceGroupName}/providers/Microsoft.Media/mediaServices/{accountName}/transforms/{transformName}/jobs/{jobName}?api-version=2022-07-01

Paramètres URI

Nom Dans Obligatoire Type Description
accountName
path True

string

Nom du compte Media Services.

jobName
path True

string

Nom du travail.

resourceGroupName
path True

string

Nom du groupe de ressources dans l’abonnement Azure.

subscriptionId
path True

string

Identificateur unique d’un abonnement Microsoft Azure.

transformName
path True

string

Nom de la transformation.

api-version
query True

string

Version de l’API à utiliser avec la demande du client.

Réponses

Nom Type Description
200 OK

Job

Ok

Other Status Codes

ErrorResponse

Informations détaillées sur les erreurs.

Exemples

Get a Job by name

Sample Request

GET https://management.azure.com/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/contosoresources/providers/Microsoft.Media/mediaServices/contosomedia/transforms/exampleTransform/jobs/job1?api-version=2022-07-01

Sample Response

{
  "name": "job1",
  "id": "/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/contosoresources/providers/Microsoft.Media/mediaservices/contosomedia/transforms/exampleTransform/jobs/job1",
  "type": "Microsoft.Media/mediaservices/transforms/jobs",
  "properties": {
    "created": "2021-06-01T00:00:00Z",
    "state": "Queued",
    "input": {
      "@odata.type": "#Microsoft.Media.JobInputs",
      "inputs": [
        {
          "@odata.type": "#Microsoft.Media.JobInputAsset",
          "files": [],
          "inputDefinitions": [],
          "assetName": "job1-InputAsset"
        }
      ]
    },
    "lastModified": "2021-06-01T00:00:00Z",
    "outputs": [
      {
        "@odata.type": "#Microsoft.Media.JobOutputAsset",
        "state": "Queued",
        "progress": 0,
        "label": "example-custom-label",
        "assetName": "job1-OutputAsset"
      }
    ],
    "priority": "Low",
    "correlationData": {}
  },
  "systemData": {
    "createdBy": "contoso@microsoft.com",
    "createdByType": "User",
    "createdAt": "2021-06-01T00:00:00Z",
    "lastModifiedBy": "contoso@microsoft.com",
    "lastModifiedByType": "User",
    "lastModifiedAt": "2021-06-01T00:00:00Z"
  }
}

Définitions

Nom Description
AacAudio

Décrit les paramètres d’encodage audio AAC (Advanced Audio Codec).

AacAudioProfile

Profil d’encodage à utiliser lors de l’encodage audio avec AAC.

AbsoluteClipTime

Spécifie l’heure du clip comme position de temps absolue dans le fichier multimédia. L’heure absolue peut pointer vers une position différente selon que le fichier multimédia commence à partir d’un horodatage de zéro ou non.

AnalysisResolution

Spécifie la résolution maximale à laquelle votre vidéo est analysée. Le comportement par défaut est « SourceResolution », qui maintient la vidéo d’entrée à sa résolution d’origine lors de l’analyse. L’utilisation de « StandardDefinition » permet de redimensionner les vidéos d’entrée à la définition standard tout en préservant le rapport d’aspect approprié. Elle ne sera redimensionnée que si la vidéo est d’une résolution plus élevée. Par exemple, une entrée 1920x1080 est mise à l’échelle à 640x360 avant le traitement. Le passage à « StandardDefinition » réduit le temps nécessaire pour traiter la vidéo haute résolution. Cela peut également réduire le coût d’utilisation de ce composant (voir https://azure.microsoft.com/en-us/pricing/details/media-services/#analytics pour plus d’informations). Toutefois, les visages qui finissent par être trop petits dans la vidéo redimensionnée peuvent ne pas être détectés.

AttributeFilter

Type d’AttributFilter à appliquer à TrackAttribute afin de sélectionner les pistes.

Audio

Définit les propriétés communes pour tous les codecs audio.

AudioAnalysisMode

Détermine l’ensemble des opérations d’analyse audio à effectuer. S’il n’est pas spécifié, le Standard AudioAnalysisMode est choisi.

AudioAnalyzerPreset

La présélection d’Audio Analyzer applique un ensemble prédéfini d’opérations d’analyse basées sur l’IA, y compris la transcription vocale. Actuellement, le préréglage prend en charge le traitement du contenu avec une seule piste audio.

AudioOverlay

Décrit les propriétés d’une superposition audio.

AudioTrackDescriptor

TrackSelection pour sélectionner des pistes audio.

BlurType

Type flou

BuiltInStandardEncoderPreset

Décrit une présélection intégrée pour encoder la vidéo d’entrée avec l’encodeur standard.

ChannelMapping

Désignation facultative pour les pistes audio à canal unique. Peut être utilisé pour combiner les pistes en pistes audio stéréo ou multicanal.

Complexity

Permet de configurer les paramètres de l’encodeur afin de contrôler l’équilibre entre la vitesse et la qualité. Exemple : définissez Complexité sur Vitesse pour accélérer l’encodage, mais réduire l’efficacité de compression.

CopyAudio

Indicateur de codec, qui indique à l’encodeur de copier le flux binaire audio d’entrée.

CopyVideo

Indicateur de codec, qui indique à l’encodeur de copier le flux binaire vidéo d’entrée sans réencodage.

createdByType

Type d’identité qui a créé la ressource.

DDAudio

Décrit les paramètres d’encodage audio Dolby Digital Audio Codec (AC3). L’implémentation actuelle de la prise en charge de L’audio numérique Dolby est la suivante : numéros de canal audio à 1 (mono), 2 (stéréo), 6 (5.1side) ; Fréquence d’échantillonnage audio : 32 K/44,1 K/48 Hz ; Les valeurs de débit audio comme spécification AC3 prennent en charge : 32000, 40000, 48000, 56000, 64000, 80000, 96000, 112000, 128000, 160000, 192000, 224000, 256000, 320000, 384000, 448000, 512000, 576000, 640000 bps.

Deinterlace

Décrit les paramètres de désentlacement.

DeinterlaceMode

Mode de désentlacement. La valeur par défaut est AutoPixelAdaptive.

DeinterlaceParity

La parité de champ pour le désentlacement est définie par défaut sur Auto.

EncoderNamedPreset

Présélection intégrée à utiliser pour l’encodage de vidéos.

EntropyMode

Mode d’entropie à utiliser pour cette couche. S’il n’est pas spécifié, l’encodeur choisit le mode approprié pour le profil et le niveau.

ErrorAdditionalInfo

Informations supplémentaires sur l’erreur de gestion des ressources.

ErrorDetail

Détail de l’erreur.

ErrorResponse

Réponse d’erreur

FaceDetectorPreset

Décrit tous les paramètres à utiliser lors de l’analyse d’une vidéo afin de détecter (et éventuellement d’éditer) tous les visages présents.

FaceRedactorMode

Ce mode permet de choisir entre les paramètres suivants : 1) Analyser - Pour la détection uniquement. Ce mode génère un fichier JSON de métadonnées marquant les apparences des visages tout au long de la vidéo. Lorsque cela est possible, les apparences de la même personne se voient attribuer le même ID. 2) Combiné - En outre, les visages détectés sont flous(flous). 3) Rédaction : cela active un processus à 2 étapes, ce qui permet la rédaction sélective d’un sous-ensemble de visages détectés. Il prend le fichier de métadonnées d’une passe d’analyse précédente, ainsi que la vidéo source et un sous-ensemble d’ID sélectionnés par l’utilisateur qui nécessitent une rédaction.

Fade

Décrit les propriétés d’un effet Fondu appliqué au média d’entrée.

Filters

Décrit toutes les opérations de filtrage, telles que le désentlacement, la rotation, etc., qui doivent être appliquées au support d’entrée avant l’encodage.

FromAllInputFile

InputDefinition qui examine tous les fichiers fournis pour sélectionner les pistes spécifiées par la propriété IncludedTracks. Généralement utilisé avec AudioTrackByAttribute et VideoTrackByAttribute pour permettre la sélection d’une seule piste sur un ensemble de fichiers d’entrée.

FromEachInputFile

InputDefinition qui examine chaque fichier d’entrée fourni pour sélectionner les pistes spécifiées par la propriété IncludedTracks. Généralement utilisé avec AudioTrackByAttribute et VideoTrackByAttribute pour sélectionner des pistes à partir de chaque fichier donné.

H264Complexity

Indique à l’encodeur comment choisir ses paramètres d’encodage. La valeur par défaut est Équilibrée.

H264Layer

Décrit les paramètres à utiliser lors de l’encodage de la vidéo d’entrée dans une couche de débit de sortie souhaitée avec le codec vidéo H.264.

H264RateControlMode

Mode de contrôle de la fréquence vidéo

H264Video

Décrit toutes les propriétés d’encodage d’une vidéo avec le codec H.264.

H264VideoProfile

Nous prenons actuellement en charge Baseline, Main, High, High422, High444. La valeur par défaut est Auto.

H265Complexity

Indique à l’encodeur comment choisir ses paramètres d’encodage. La qualité offre un taux de compression plus élevé, mais à un coût plus élevé et un temps de calcul plus long. Speed produira un fichier relativement plus volumineux, mais est plus rapide et plus économique. La valeur par défaut est Équilibrée.

H265Layer

Décrit les paramètres à utiliser lors de l’encodage de la vidéo d’entrée dans une couche de débit de sortie souhaitée avec le codec vidéo H.265.

H265Video

Décrit toutes les propriétés d’encodage d’une vidéo avec le codec H.265.

H265VideoProfile

Nous prenons actuellement en charge Main. La valeur par défaut est Auto.

Image

Décrit les propriétés de base pour générer des miniatures à partir de la vidéo d’entrée

ImageFormat

Décrit les propriétés d’un fichier image de sortie.

InputFile

InputDefinition pour un seul fichier. TrackSelections est limité au fichier spécifié.

InsightsType

Définit le type d’insights que vous souhaitez que le service génère. Les valeurs autorisées sont « AudioInsightsOnly », « VideoInsightsOnly » et « AllInsights ». La valeur par défaut est AllInsights. Si vous définissez cette valeur sur AllInsights et que l’entrée est audio uniquement, seules les insights audio sont générés. De même, si l’entrée est vidéo uniquement, seules les insights vidéo sont générés. Il est recommandé de ne pas utiliser AudioInsightsOnly si vous vous attendez à ce que certaines de vos entrées soient uniquement vidéo ; ou utilisez VideoInsightsOnly si vous vous attendez à ce que certaines de vos entrées soient uniquement audio. Vos travaux dans de telles conditions auraient une erreur.

InterleaveOutput

Définit le mode d’entrelacement de la sortie pour contrôler la façon dont l’audio et la vidéo sont stockés au format conteneur. Exemple : définissez InterleavedOutput sur NonInterleavedOutput pour produire des sorties audio uniquement et vidéo dans des fichiers MP4 distincts.

Job

Type de ressource De travail. La progression et l’état peuvent être obtenus en interrogeant un travail ou en vous abonnant à des événements à l’aide d’EventGrid.

JobError

Détails des erreurs JobOutput.

JobErrorCategory

Aide à catégoriser les erreurs.

JobErrorCode

Code d’erreur décrivant l’erreur.

JobErrorDetail

Détails des erreurs JobOutput.

JobInputAsset

Représente une ressource pour l’entrée dans un travail.

JobInputClip

Représente les fichiers d’entrée d’un travail.

JobInputHttp

Représente une entrée de travail HTTPS.

JobInputs

Décrit la liste des entrées d’un travail.

JobInputSequence

Une séquence contient une liste ordonnée de clips où chaque clip est un JobInput. La séquence est traitée comme une entrée unique.

JobOutputAsset

Représente une ressource utilisée en tant que JobOutput.

JobRetry

Indique qu’il peut être possible de réessayer le travail. Si la nouvelle tentative échoue, contactez support Azure via le portail Azure.

JobState

Décrit l’état de JobOutput.

JpgFormat

Décrit les paramètres de production de miniatures JPEG.

JpgImage

Décrit les propriétés permettant de produire une série d’images JPEG à partir de la vidéo d’entrée.

JpgLayer

Décrit les paramètres pour produire une image JPEG à partir de la vidéo d’entrée.

Mp4Format

Décrit les propriétés d’un fichier MP4 ISO de sortie.

MultiBitrateFormat

Décrit les propriétés permettant de produire une collection de fichiers multidébit alignés sur GOP. Le comportement par défaut consiste à produire un fichier de sortie pour chaque couche vidéo qui est multiplexé avec tous les audios. Les fichiers de sortie exacts produits peuvent être contrôlés en spécifiant la collection outputFiles.

OutputFile

Représente un fichier de sortie produit.

PngFormat

Décrit les paramètres de production de miniatures PNG.

PngImage

Décrit les propriétés permettant de produire une série d’images PNG à partir de la vidéo d’entrée.

PngLayer

Décrit les paramètres pour produire une image PNG à partir de la vidéo d’entrée.

PresetConfigurations

Objet de paramètres de configuration facultatifs pour l’encodeur.

Priority

Définit la priorité relative des TransformOutputs dans une transformation. Cela définit la priorité que le service utilise pour le traitement de TransformOutputs. La priorité par défaut est Normal.

Rectangle

Décrit les propriétés d’une fenêtre rectangulaire appliquée au média d’entrée avant de le traiter.

Rotation

Rotation, le cas échéant, à appliquer à la vidéo d’entrée, avant qu’elle soit encodée. La valeur par défaut est Auto

SelectAudioTrackByAttribute

Sélectionnez des pistes audio à partir de l’entrée en spécifiant un attribut et un filtre d’attribut.

SelectAudioTrackById

Sélectionnez des pistes audio à partir de l’entrée en spécifiant un identificateur de piste.

SelectVideoTrackByAttribute

Sélectionnez des pistes vidéo dans l’entrée en spécifiant un attribut et un filtre d’attribut.

SelectVideoTrackById

Sélectionnez des pistes vidéo dans l’entrée en spécifiant un identificateur de piste.

StandardEncoderPreset

Décrit tous les paramètres à utiliser lors de l’encodage de la vidéo d’entrée avec l’encodeur standard.

StretchMode

Mode de redimensionnement : comment la vidéo d’entrée sera redimensionnée pour s’adapter aux résolutions de sortie souhaitées. La valeur par défaut est AutoSize

systemData

Métadonnées relatives à la création et à la dernière modification de la ressource.

TrackAttribute

TrackAttribute par lequel filtrer les pistes.

TransportStreamFormat

Décrit les propriétés de génération d’un ou plusieurs fichiers vidéo de sortie de flux de transport MPEG-2 (ISO/IEC 13818-1).

UtcClipTime

Spécifie l’heure du clip en tant que position d’heure Utc dans le fichier multimédia. L’heure Utc peut pointer vers une position différente selon que le fichier multimédia commence à partir d’un horodatage de zéro ou non.

Video

Décrit les propriétés de base pour l’encodage de la vidéo d’entrée.

VideoAnalyzerPreset

Un préréglage d’analyseur vidéo qui extrait des insights (métadonnées enrichies) à partir de l’audio et de la vidéo, et génère un fichier au format JSON.

VideoOverlay

Décrit les propriétés d’une superposition vidéo.

VideoSyncMode

Mode de synchronisation vidéo

VideoTrackDescriptor

TrackSelection pour sélectionner des pistes vidéo.

AacAudio

Décrit les paramètres d’encodage audio AAC (Advanced Audio Codec).

Nom Type Description
@odata.type string:

#Microsoft.Media.AacAudio

Discriminateur pour les types dérivés.

bitrate

integer

Débit, en bits par seconde, de l’audio encodé en sortie.

channels

integer

Nombre de canaux dans l’audio.

label

string

Étiquette facultative pour le codec. L’étiquette peut être utilisée pour contrôler le comportement de multiplexage.

profile

AacAudioProfile

Profil d’encodage à utiliser lors de l’encodage audio avec AAC.

samplingRate

integer

Taux d’échantillonnage à utiliser pour l’encodage en hertz.

AacAudioProfile

Profil d’encodage à utiliser lors de l’encodage audio avec AAC.

Nom Type Description
AacLc

string

Spécifie que l’audio de sortie doit être encodé en AAC Low Complexity Profile (AAC-LC).

HeAacV1

string

Spécifie que l’audio de sortie doit être encodé dans le profil HE-AAC v1.

HeAacV2

string

Spécifie que l’audio de sortie doit être encodé dans le profil HE-AAC v2.

AbsoluteClipTime

Spécifie l’heure du clip comme position de temps absolue dans le fichier multimédia. L’heure absolue peut pointer vers une position différente selon que le fichier multimédia commence à partir d’un horodatage de zéro ou non.

Nom Type Description
@odata.type string:

#Microsoft.Media.AbsoluteClipTime

Discriminateur pour les types dérivés.

time

string

Position temporelle sur le chronologie du média d’entrée. Il est généralement spécifié en tant que période de ISO8601. par exemple PT30S pendant 30 secondes.

AnalysisResolution

Spécifie la résolution maximale à laquelle votre vidéo est analysée. Le comportement par défaut est « SourceResolution », qui maintient la vidéo d’entrée à sa résolution d’origine lors de l’analyse. L’utilisation de « StandardDefinition » permet de redimensionner les vidéos d’entrée à la définition standard tout en préservant le rapport d’aspect approprié. Elle ne sera redimensionnée que si la vidéo est d’une résolution plus élevée. Par exemple, une entrée 1920x1080 est mise à l’échelle à 640x360 avant le traitement. Le passage à « StandardDefinition » réduit le temps nécessaire pour traiter la vidéo haute résolution. Cela peut également réduire le coût d’utilisation de ce composant (voir https://azure.microsoft.com/en-us/pricing/details/media-services/#analytics pour plus d’informations). Toutefois, les visages qui finissent par être trop petits dans la vidéo redimensionnée peuvent ne pas être détectés.

Nom Type Description
SourceResolution

string

StandardDefinition

string

AttributeFilter

Type d’AttributFilter à appliquer à TrackAttribute afin de sélectionner les pistes.

Nom Type Description
All

string

Toutes les pistes seront incluses.

Bottom

string

La première piste est incluse lorsque l’attribut est trié dans l’ordre croissant. Généralement utilisé pour sélectionner le plus petit débit binaire.

Top

string

La première piste est incluse lorsque l’attribut est trié dans l’ordre décroissant. Généralement utilisé pour sélectionner le débit le plus élevé.

ValueEquals

string

Toutes les pistes qui ont un attribut égal à la valeur donnée seront incluses.

Audio

Définit les propriétés communes pour tous les codecs audio.

Nom Type Description
@odata.type string:

#Microsoft.Media.Audio

Discriminateur pour les types dérivés.

bitrate

integer

Débit, en bits par seconde, de l’audio encodé en sortie.

channels

integer

Nombre de canaux dans l’audio.

label

string

Étiquette facultative pour le codec. L’étiquette peut être utilisée pour contrôler le comportement de multiplexage.

samplingRate

integer

Taux d’échantillonnage à utiliser pour l’encodage en hertz.

AudioAnalysisMode

Détermine l’ensemble des opérations d’analyse audio à effectuer. S’il n’est pas spécifié, le Standard AudioAnalysisMode est choisi.

Nom Type Description
Basic

string

Ce mode effectue une transcription de la parole en texte et la génération d’un fichier de sous-titres/CC au format VTT. La sortie de ce mode comprend un fichier JSON Insights incluant uniquement les mots clés, la transcription et les informations relatives au minutage. La détection automatique de la langue et la diarisation de l’orateur ne sont pas incluses dans ce mode.

Standard

string

Effectue toutes les opérations incluses dans le mode De base, en plus d’effectuer la détection de la langue et la diarisation de l’orateur.

AudioAnalyzerPreset

La présélection d’Audio Analyzer applique un ensemble prédéfini d’opérations d’analyse basées sur l’IA, y compris la transcription vocale. Actuellement, le préréglage prend en charge le traitement du contenu avec une seule piste audio.

Nom Type Description
@odata.type string:

#Microsoft.Media.AudioAnalyzerPreset

Discriminateur pour les types dérivés.

audioLanguage

string

Langue de la charge utile audio dans l’entrée au format BCP-47 « language tag-region » (par exemple , « en-US »). Si vous connaissez la langue de votre contenu, il est recommandé de le spécifier. La langue doit être spécifiée explicitement pour AudioAnalysisMode ::Basic, car la détection automatique de la langue n’est pas incluse en mode de base. Si la langue n’est pas spécifiée ou a la valeur Null, la fonctionnalité de détection automatique de la langue choisit la première langue détectée qu’elle utilise pendant la durée de traitement du fichier. Actuellement, elle ne prend pas en charge le basculement dynamique d’une langue à l’autre après la détection de la première langue. La détection automatique fonctionne mieux avec les enregistrements audio avec une voix clairement discernable. Si la détection automatique ne parvient pas à trouver la langue, la transcription est de secours vers « en-US ». La liste des langues prises en charge est disponible ici : https://go.microsoft.com/fwlink/?linkid=2109463

experimentalOptions

object

Dictionnaire contenant des paires de valeurs de clé pour les paramètres non exposés dans la présélection elle-même

mode

AudioAnalysisMode

Détermine l’ensemble des opérations d’analyse audio à effectuer. S’il n’est pas spécifié, le Standard AudioAnalysisMode est choisi.

AudioOverlay

Décrit les propriétés d’une superposition audio.

Nom Type Description
@odata.type string:

#Microsoft.Media.AudioOverlay

Discriminateur pour les types dérivés.

audioGainLevel

number

Niveau de gain de l’audio dans la superposition. La valeur doit se trouver dans la plage [0, 1.0]. La valeur par défaut est 1.0.

end

string

Position de fin, en référence à la vidéo d’entrée, à laquelle la superposition se termine. La valeur doit être au format ISO 8601. Par exemple, PT30S pour terminer la superposition à 30 secondes dans la vidéo d’entrée. Si elle n’est pas spécifiée ou si la valeur est supérieure à la durée de la vidéo d’entrée, la superposition sera appliquée jusqu’à la fin de la vidéo d’entrée si la durée du média de superposition est supérieure à la durée de la vidéo d’entrée, sinon la superposition durera aussi longtemps que la durée du média de superposition.

fadeInDuration

string

Durée pendant laquelle la superposition est fondue dans la vidéo d’entrée. La valeur doit être au format de durée ISO 8601. S’il n’est pas spécifié, le comportement par défaut est de ne pas avoir de fondu en (identique à PT0S).

fadeOutDuration

string

Durée pendant laquelle la superposition disparaît de la vidéo d’entrée. La valeur doit être au format de durée ISO 8601. S’il n’est pas spécifié, le comportement par défaut est de ne pas avoir de fondu (identique à PT0S).

inputLabel

string

Étiquette de l’entrée de travail qui doit être utilisée comme superposition. L’entrée doit spécifier exactement un fichier. Vous pouvez spécifier un fichier image au format JPG, PNG, GIF ou BMP, un fichier audio (par exemple un fichier WAV, MP3, WMA ou M4A), ou un fichier vidéo. Consultez https://aka.ms/mesformats la liste complète des formats de fichiers audio et vidéo pris en charge.

start

string

Position de début, en référence à la vidéo d’entrée, à laquelle la superposition démarre. La valeur doit être au format ISO 8601. Par exemple, PT05S pour démarrer la superposition à 5 secondes dans la vidéo d’entrée. Si elle n’est pas spécifiée, la superposition commence à partir du début de la vidéo d’entrée.

AudioTrackDescriptor

TrackSelection pour sélectionner des pistes audio.

Nom Type Description
@odata.type string:

#Microsoft.Media.AudioTrackDescriptor

Discriminateur pour les types dérivés.

channelMapping

ChannelMapping

Désignation facultative pour les pistes audio monocanal. Peut être utilisé pour combiner les pistes en pistes audio stéréo ou multicanal.

BlurType

Type flou

Nom Type Description
Black

string

Noir : filtre noir

Box

string

Box : filtre de débogage, cadre englobant uniquement

High

string

Élevé : filtre de flou confus

Low

string

Faible : filtre de flou box-car

Med

string

Med : filtre flou gaussien

BuiltInStandardEncoderPreset

Décrit une présélection intégrée pour encoder la vidéo d’entrée avec l’encodeur standard.

Nom Type Description
@odata.type string:

#Microsoft.Media.BuiltInStandardEncoderPreset

Discriminateur pour les types dérivés.

configurations

PresetConfigurations

Paramètres de configuration facultatifs pour l’encodeur. Les configurations sont uniquement prises en charge pour ContentAwareEncoding et H265ContentAwareEncoding BuiltInStandardEncoderPreset.

presetName

EncoderNamedPreset

Présélection intégrée à utiliser pour l’encodage de vidéos.

ChannelMapping

Désignation facultative pour les pistes audio à canal unique. Peut être utilisé pour combiner les pistes en pistes audio stéréo ou multicanal.

Nom Type Description
BackLeft

string

Canal arrière gauche. Parfois appelé canal surround gauche.

BackRight

string

Canal arrière droit. Parfois appelé canal surround droit.

Center

string

Canal central.

FrontLeft

string

Canal avant gauche.

FrontRight

string

Canal avant droit.

LowFrequencyEffects

string

Canal d’effets basse fréquence. Parfois appelé subwoofer.

StereoLeft

string

Canal stéréo gauche. Parfois appelé Mix vers le bas gauche.

StereoRight

string

Canal stéréo droit. Parfois appelé Down Mix Right.

Complexity

Permet de configurer les paramètres de l’encodeur afin de contrôler l’équilibre entre la vitesse et la qualité. Exemple : définissez Complexité sur Vitesse pour accélérer l’encodage, mais réduire l’efficacité de compression.

Nom Type Description
Balanced

string

Configure l’encodeur pour qu’il utilise des paramètres qui permettent d’atteindre un équilibre entre vitesse et qualité.

Quality

string

Configure l’encodeur pour qu’il utilise des paramètres optimisés pour produire une sortie de qualité supérieure au détriment d’un temps d’encodage global plus lent.

Speed

string

Configure l’encodeur pour qu’il utilise des paramètres optimisés pour accélérer l’encodage. La qualité est sacrifiée pour réduire le temps d’encodage.

CopyAudio

Indicateur de codec, qui indique à l’encodeur de copier le flux binaire audio d’entrée.

Nom Type Description
@odata.type string:

#Microsoft.Media.CopyAudio

Discriminateur pour les types dérivés.

label

string

Étiquette facultative pour le codec. L’étiquette peut être utilisée pour contrôler le comportement de multiplexage.

CopyVideo

Indicateur de codec, qui indique à l’encodeur de copier le flux binaire vidéo d’entrée sans réencodage.

Nom Type Description
@odata.type string:

#Microsoft.Media.CopyVideo

Discriminateur pour les types dérivés.

label

string

Étiquette facultative pour le codec. L’étiquette peut être utilisée pour contrôler le comportement de multiplexage.

createdByType

Type d’identité qui a créé la ressource.

Nom Type Description
Application

string

Key

string

ManagedIdentity

string

User

string

DDAudio

Décrit les paramètres d’encodage audio Dolby Digital Audio Codec (AC3). L’implémentation actuelle de la prise en charge de L’audio numérique Dolby est la suivante : numéros de canal audio à 1 (mono), 2 (stéréo), 6 (5.1side) ; Fréquence d’échantillonnage audio : 32 K/44,1 K/48 Hz ; Les valeurs de débit audio comme spécification AC3 prennent en charge : 32000, 40000, 48000, 56000, 64000, 80000, 96000, 112000, 128000, 160000, 192000, 224000, 256000, 320000, 384000, 448000, 512000, 576000, 640000 bps.

Nom Type Description
@odata.type string:

#Microsoft.Media.DDAudio

Discriminateur pour les types dérivés.

bitrate

integer

Débit, en bits par seconde, de l’audio encodé en sortie.

channels

integer

Nombre de canaux dans l’audio.

label

string

Étiquette facultative pour le codec. L’étiquette peut être utilisée pour contrôler le comportement de multiplexage.

samplingRate

integer

Taux d’échantillonnage à utiliser pour l’encodage en hertz.

Deinterlace

Décrit les paramètres de désentlacement.

Nom Type Description
mode

DeinterlaceMode

Mode de désentlacement. La valeur par défaut est AutoPixelAdaptive.

parity

DeinterlaceParity

La parité de champ pour le désentlacement est définie par défaut sur Auto.

DeinterlaceMode

Mode de désentlacement. La valeur par défaut est AutoPixelAdaptive.

Nom Type Description
AutoPixelAdaptive

string

Appliquez le désentlacement adaptatif automatique des pixels sur chaque image de la vidéo d’entrée.

Off

string

Désactive le désentlacement de la vidéo source.

DeinterlaceParity

La parité de champ pour le désentlacement est définie par défaut sur Auto.

Nom Type Description
Auto

string

Détecter automatiquement l’ordre des champs

BottomFieldFirst

string

Appliquez le premier traitement du champ inférieur de la vidéo d’entrée.

TopFieldFirst

string

Appliquez le premier traitement du champ supérieur de la vidéo d’entrée.

EncoderNamedPreset

Présélection intégrée à utiliser pour l’encodage de vidéos.

Nom Type Description
AACGoodQualityAudio

string

Produit un seul fichier MP4 contenant uniquement l’audio stéréo AAC encodé à 192 kbit/s.

AdaptiveStreaming

string

Produit un ensemble de fichiers MP4 alignés sur GOP avec audio vidéo H.264 et stéréo AAC. Génère automatiquement une échelle de vitesse de transmission basée sur la résolution d’entrée, la vitesse de transmission et la fréquence d’images. Le préréglage généré automatiquement ne dépassera jamais la résolution d’entrée. Par exemple, si l’entrée est en 720p, la sortie restera au mieux en 720p.

ContentAwareEncoding

string

Produit un ensemble de fichiers MP4 alignés sur le groupe d’images en utilisant un encodage adapté au contenu. Étant donné un contenu d’entrée, le service effectue une analyse initiale légère du contenu d’entrée et utilise les résultats pour déterminer le nombre optimal de couches, le débit approprié et les paramètres de résolution pour la livraison par diffusion en continu adaptative. Ce préréglage est particulièrement efficace pour les vidéos de complexité faible ou moyenne, où les fichiers de sortie auront des vitesses de transmission inférieures, mais une qualité qui permettra aux viewers d’avoir une bonne expérience. La sortie contiendra des fichiers MP4 avec vidéo et audio entrelacées.

ContentAwareEncodingExperimental

string

Expose une présélection expérimentale pour l’encodage prenant en charge le contenu. Étant donné un contenu d’entrée, le service tente de déterminer automatiquement le nombre optimal de couches, le débit approprié et les paramètres de résolution pour la remise par streaming adaptatif. Les algorithmes sous-jacents continueront à évoluer au fil du temps. La sortie contiendra des fichiers MP4 avec vidéo et audio entrelacées.

CopyAllBitrateNonInterleaved

string

Copiez tous les flux vidéo et audio de la ressource d’entrée en tant que fichiers de sortie vidéo et audio non entrelacés. Cette présélection permet de découper une ressource existante ou de convertir un groupe de fichiers MP4 alignés sur une image clé en tant que ressource pouvant être diffusée en continu.

DDGoodQualityAudio

string

Produit un seul fichier MP4 contenant uniquement l’audio stéréo DD(Digital Dolby) encodé à 192 kbit/s.

H264MultipleBitrate1080p

string

Produit un ensemble de 8 fichiers MP4 alignés sur le GOP, allant de 6 000 kbit/s à 400 kbit/s, et un audio AAC stéréo. La résolution commence à 1080p et descend à 180p.

H264MultipleBitrate720p

string

Produit un ensemble de 6 fichiers MP4 alignés sur le GOP, allant de 3400 kbit/s à 400 kbit/s, et un audio AAC stéréo. La résolution commence à 720p et descend à 180p.

H264MultipleBitrateSD

string

Produit un ensemble de 5 fichiers MP4 alignés sur le GOP, allant de 1900 kbits/s à 400 kbit/s, et un audio AAC stéréo. La résolution commence à 480p et descend à 240p.

H264SingleBitrate1080p

string

Produit un fichier MP4 dans lequel la vidéo est encodée avec le codec H.264 à 6750 kbit/s et une hauteur d’image de 1 080 pixels, et où l’audio stéréo est encodé avec le codec AAC-LC à 128 kbit/s.

H264SingleBitrate720p

string

Produit un fichier MP4 où la vidéo est encodée avec le codec H.264 à 4500 kbit/s et une hauteur d’image de 720 pixels, et où l’audio stéréo est encodé avec le codec AAC-LC à 128 kbit/s.

H264SingleBitrateSD

string

Produit un fichier MP4 dans lequel la vidéo est encodée avec le codec H.264 à 2200 kbit/s et une hauteur d’image de 480 pixels, et où l’audio stéréo est encodé avec le codec AAC-LC à 128 kbit/s.

H265AdaptiveStreaming

string

Produit un ensemble de fichiers MP4 alignés sur le groupe d’images avec une vidéo H.265 et un son AAC stéréo. Génère automatiquement une échelle de vitesse de transmission basée sur la résolution d’entrée, la vitesse de transmission et la fréquence d’images. Le préréglage généré automatiquement ne dépassera jamais la résolution d’entrée. Par exemple, si l’entrée est en 720p, la sortie restera au mieux en 720p.

H265ContentAwareEncoding

string

Produit un ensemble de fichiers MP4 alignés sur le groupe d’images en utilisant un encodage adapté au contenu. Étant donné un contenu d’entrée, le service effectue une analyse initiale légère du contenu d’entrée et utilise les résultats pour déterminer le nombre optimal de couches, le débit approprié et les paramètres de résolution pour la livraison par diffusion en continu adaptative. Ce préréglage est particulièrement efficace pour les vidéos de complexité faible ou moyenne, où les fichiers de sortie auront des vitesses de transmission inférieures, mais une qualité qui permettra aux viewers d’avoir une bonne expérience. La sortie contiendra des fichiers MP4 avec vidéo et audio entrelacées.

H265SingleBitrate1080p

string

Produit un fichier MP4 dans lequel la vidéo est encodée avec le codec H.265 à 3500 kbit/s et une hauteur d’image de 1 080 pixels, et où l’audio stéréo est encodé avec le codec AAC-LC à 128 kbit/s.

H265SingleBitrate4K

string

Produit un fichier MP4 dans lequel la vidéo est encodée avec le codec H.265 à 9500 kbit/s et une hauteur d’image de 2160 pixels, et où l’audio stéréo est encodé avec le codec AAC-LC à 128 kbit/s.

H265SingleBitrate720p

string

Produit un fichier MP4 dans lequel la vidéo est encodée avec le codec H.265 à 1800 kbit/s et une hauteur d’image de 720 pixels, et où l’audio stéréo est encodé avec le codec AAC-LC à 128 kbit/s.

EntropyMode

Mode d’entropie à utiliser pour cette couche. S’il n’est pas spécifié, l’encodeur choisit le mode approprié pour le profil et le niveau.

Nom Type Description
Cabac

string

Encodage de l’entropie cabac (Context Adaptive Binary Arithmetic Coder).

Cavlc

string

Encodage d’entropie CAVLC (Context Adaptive Variable Length Coder).

ErrorAdditionalInfo

Informations supplémentaires sur l’erreur de gestion des ressources.

Nom Type Description
info

object

Informations supplémentaires

type

string

Type d’informations supplémentaires.

ErrorDetail

Détail de l’erreur.

Nom Type Description
additionalInfo

ErrorAdditionalInfo[]

Informations supplémentaires sur l’erreur.

code

string

Code d'erreur.

details

ErrorDetail[]

Détails de l’erreur.

message

string

Message d’erreur.

target

string

Cible d’erreur.

ErrorResponse

Réponse d’erreur

Nom Type Description
error

ErrorDetail

Objet error.

FaceDetectorPreset

Décrit tous les paramètres à utiliser lors de l’analyse d’une vidéo afin de détecter (et éventuellement d’éditer) tous les visages présents.

Nom Type Description
@odata.type string:

#Microsoft.Media.FaceDetectorPreset

Discriminateur pour les types dérivés.

blurType

BlurType

Type flou

experimentalOptions

object

Dictionnaire contenant des paires de valeurs de clé pour les paramètres non exposés dans la présélection elle-même

mode

FaceRedactorMode

Ce mode permet de choisir entre les paramètres suivants : 1) Analyser - Pour la détection uniquement. Ce mode génère un fichier JSON de métadonnées marquant les apparences des visages tout au long de la vidéo. Lorsque cela est possible, les apparences de la même personne se voient attribuer le même ID. 2) Combiné - En outre, les visages détectés sont flous(flous). 3) Rédaction : cela active un processus à 2 étapes, ce qui permet la rédaction sélective d’un sous-ensemble de visages détectés. Il prend le fichier de métadonnées d’une passe d’analyse précédente, ainsi que la vidéo source et un sous-ensemble d’ID sélectionnés par l’utilisateur qui nécessitent une rédaction.

resolution

AnalysisResolution

Spécifie la résolution maximale à laquelle votre vidéo est analysée. Le comportement par défaut est « SourceResolution », qui maintient la vidéo d’entrée à sa résolution d’origine lors de l’analyse. L’utilisation de « StandardDefinition » redimensionne les vidéos d’entrée en fonction de la définition standard tout en conservant les proportions appropriées. Elle ne sera redimensionnée que si la vidéo est d’une résolution plus élevée. Par exemple, une entrée de 1920 x 1080 est mise à l’échelle à 640 x 360 avant le traitement. Le passage à « StandardDefinition » réduit le temps nécessaire au traitement de la vidéo haute résolution. Cela peut également réduire le coût d’utilisation de ce composant (voir https://azure.microsoft.com/en-us/pricing/details/media-services/#analytics pour plus d’informations). Toutefois, les visages qui finissent par être trop petits dans la vidéo redimensionnée peuvent ne pas être détectés.

FaceRedactorMode

Ce mode permet de choisir entre les paramètres suivants : 1) Analyser - Pour la détection uniquement. Ce mode génère un fichier JSON de métadonnées marquant les apparences des visages tout au long de la vidéo. Lorsque cela est possible, les apparences de la même personne se voient attribuer le même ID. 2) Combiné - En outre, les visages détectés sont flous(flous). 3) Rédaction : cela active un processus à 2 étapes, ce qui permet la rédaction sélective d’un sous-ensemble de visages détectés. Il prend le fichier de métadonnées d’une passe d’analyse précédente, ainsi que la vidéo source et un sous-ensemble d’ID sélectionnés par l’utilisateur qui nécessitent une rédaction.

Nom Type Description
Analyze

string

Le mode Analyse détecte les visages et génère un fichier de métadonnées avec les résultats. Permet de modifier le fichier de métadonnées avant que les visages ne soient flous avec le mode Rédaction.

Combined

string

Le mode combiné effectue les étapes Analyser et Vider en une seule passe lorsque la modification des visages analysés n’est pas souhaitée.

Redact

string

Le mode Rédaction utilise le fichier de métadonnées à partir du mode Analyse et supprime les visages trouvés.

Fade

Décrit les propriétés d’un effet Fondu appliqué au média d’entrée.

Nom Type Description
duration

string

Durée de l’effet de fondu dans la vidéo. La valeur peut être au format ISO 8601 (par exemple, PT05S pour faire disparaître une couleur entrée/sortie pendant 5 secondes), ou un nombre d’images (par exemple, 10 pour faire disparaître 10 images à partir de l’heure de début), ou une valeur relative à la durée du flux (par exemple, 10 % pour faire disparaître 10 % de la durée du flux)

fadeColor

string

Couleur de l’entrée/sortie fondue. il peut s’agir des couleurs https://developer.mozilla.org/en-US/docs/Web/CSS/color_value/color_keywords CSS Level1 ou d’une valeur RVB/hexadécimale : par exemple rvb(255,0,0), 0xFF0000 ou #FF0000

start

string

Position dans la vidéo d’entrée à partir de l’endroit où commencer à disparaître. La valeur peut être au format ISO 8601 (par exemple, PT05S pour commencer à 5 secondes) ou un nombre de cadres (par exemple, 10 pour commencer au dixième cadre) ou une valeur relative à la durée du flux (par exemple, 10 % pour commencer à 10 % de la durée du flux). La valeur par défaut est 0

Filters

Décrit toutes les opérations de filtrage, telles que le désentlacement, la rotation, etc., qui doivent être appliquées au support d’entrée avant l’encodage.

Nom Type Description
crop

Rectangle

Paramètres de la fenêtre rectangulaire avec lesquelles rogner la vidéo d’entrée.

deinterlace

Deinterlace

Paramètres de désentlacement.

fadeIn

Fade

Décrit les propriétés d’un effet Fondu appliqué au média d’entrée.

fadeOut

Fade

Décrit les propriétés d’un effet Fondu appliqué au média d’entrée.

overlays Overlay[]:

Propriétés des superpositions à appliquer à la vidéo d’entrée. Il peut s’agir de superpositions audio, image ou vidéo.

rotation

Rotation

Rotation, le cas échéant, à appliquer à la vidéo d’entrée, avant qu’elle soit encodée. La valeur par défaut est Auto

FromAllInputFile

InputDefinition qui examine tous les fichiers fournis pour sélectionner les pistes spécifiées par la propriété IncludedTracks. Généralement utilisé avec AudioTrackByAttribute et VideoTrackByAttribute pour permettre la sélection d’une seule piste sur un ensemble de fichiers d’entrée.

Nom Type Description
@odata.type string:

#Microsoft.Media.FromAllInputFile

Discriminateur pour les types dérivés.

includedTracks TrackDescriptor[]:

Liste des TrackDescriptors qui définissent les métadonnées et la sélection des pistes dans l’entrée.

FromEachInputFile

InputDefinition qui examine chaque fichier d’entrée fourni pour sélectionner les pistes spécifiées par la propriété IncludedTracks. Généralement utilisé avec AudioTrackByAttribute et VideoTrackByAttribute pour sélectionner des pistes à partir de chaque fichier donné.

Nom Type Description
@odata.type string:

#Microsoft.Media.FromEachInputFile

Discriminateur pour les types dérivés.

includedTracks TrackDescriptor[]:

Liste des TrackDescriptors qui définissent les métadonnées et la sélection des pistes dans l’entrée.

H264Complexity

Indique à l’encodeur comment choisir ses paramètres d’encodage. La valeur par défaut est Équilibrée.

Nom Type Description
Balanced

string

Indique à l’encodeur d’utiliser des paramètres qui permettent d’équilibrer la vitesse et la qualité.

Quality

string

Indique à l’encodeur d’utiliser des paramètres optimisés pour produire une sortie de qualité supérieure au détriment d’un temps d’encodage global plus lent.

Speed

string

Indique à l’encodeur d’utiliser des paramètres optimisés pour un encodage plus rapide. La qualité est sacrifiée pour réduire le temps d’encodage.

H264Layer

Décrit les paramètres à utiliser lors de l’encodage de la vidéo d’entrée dans une couche de débit de sortie souhaitée avec le codec vidéo H.264.

Nom Type Description
adaptiveBFrame

boolean

Indique si les images B adaptatives doivent être utilisées lors de l’encodage de cette couche. S’il n’est pas spécifié, l’encodeur l’active chaque fois que le profil vidéo autorise son utilisation.

bFrames

integer

Nombre d’images B à utiliser lors de l’encodage de cette couche. S’il n’est pas spécifié, l’encodeur choisit un nombre approprié en fonction du profil et du niveau vidéo.

bitrate

integer

Débit moyen en bits par seconde auquel encoder la vidéo d’entrée lors de la génération de cette couche. Ce champ est obligatoire.

bufferWindow

string

Longueur de la fenêtre de la mémoire tampon VBV. La valeur doit être au format ISO 8601. La valeur doit être comprise dans la plage [0,1-100] secondes. La valeur par défaut est de 5 secondes (par exemple, PT5S).

crf

number

Valeur de CRF à utiliser lors de l’encodage de cette couche. Ce paramètre prend effet lorsque RateControlMode du codec vidéo est défini en mode CRF. La plage de valeur CRF est comprise entre 0 et 51, où des valeurs inférieures entraîneraient une meilleure qualité, au détriment de tailles de fichiers plus élevées. Des valeurs plus élevées signifient plus de compression, mais à un moment donné, une dégradation de la qualité sera remarquée. La valeur par défaut est 23.

entropyMode

EntropyMode

Mode d’entropie à utiliser pour cette couche. S’il n’est pas spécifié, l’encodeur choisit le mode approprié pour le profil et le niveau.

frameRate

string

Fréquence d’images (en images par seconde) à laquelle encoder cette couche. La valeur peut être sous la forme de M/N où M et N sont des entiers (par exemple, 30000/1001) ou sous la forme d’un nombre (par exemple, 30 ou 29,97). L’encodeur applique des contraintes sur les fréquences d’images autorisées en fonction du profil et du niveau. Si elle n’est pas spécifiée, l’encodeur utilise la même fréquence d’images que la vidéo d’entrée.

height

string

Hauteur de la vidéo de sortie pour cette couche. La valeur peut être absolue (en pixels) ou relative (en pourcentage). Par exemple, 50 % signifie que la vidéo de sortie a deux fois moins de pixels en hauteur que l’entrée.

label

string

Étiquette alphanumérique pour cette couche, qui peut être utilisée dans le multiplexage de différentes couches vidéo et audio, ou dans le nommage du fichier de sortie.

level

string

Nous prenons actuellement en charge level jusqu’à la version 6.2. La valeur peut être Auto ou un nombre qui correspond au profil H.264. Si elle n’est pas spécifiée, la valeur par défaut est Auto, ce qui permet à l’encodeur de choisir le niveau approprié pour cette couche.

maxBitrate

integer

Débit maximal (en bits par seconde), auquel la mémoire tampon VBV doit être supposée être rechargée. S’il n’est pas spécifié, la valeur par défaut est la même que la vitesse de transmission.

profile

H264VideoProfile

Nous prenons actuellement en charge Baseline, Main, High, High422, High444. La valeur par défaut est Auto.

referenceFrames

integer

Nombre de cadres de référence à utiliser lors de l’encodage de cette couche. S’il n’est pas spécifié, l’encodeur détermine un nombre approprié en fonction du paramètre de complexité de l’encodeur.

slices

integer

Nombre de tranches à utiliser lors de l’encodage de cette couche. Si elle n’est pas spécifiée, la valeur par défaut est égale à zéro, ce qui signifie que l’encodeur utilise une seule tranche pour chaque image.

width

string

Largeur de la vidéo de sortie pour cette couche. La valeur peut être absolue (en pixels) ou relative (en pourcentage). Par exemple, 50 % signifie que la vidéo de sortie a deux fois moins de pixels de largeur que l’entrée.

H264RateControlMode

Mode de contrôle de la fréquence vidéo

Nom Type Description
ABR

string

Mode de vitesse de transmission moyenne (ABR) qui atteint la vitesse de transmission cible : mode par défaut.

CBR

string

Mode CBR (Vitesse de transmission constante) qui resserre les variations de débit autour de la vitesse de transmission cible.

CRF

string

Mode CRF (Constant Rate Factor) qui cible une qualité subjective constante.

H264Video

Décrit toutes les propriétés d’encodage d’une vidéo avec le codec H.264.

Nom Type Description
@odata.type string:

#Microsoft.Media.H264Video

Discriminateur pour les types dérivés.

complexity

H264Complexity

Indique à l’encodeur comment choisir ses paramètres d’encodage. La valeur par défaut est Équilibrée.

keyFrameInterval

string

Distance entre deux images clés. La valeur doit être différente de zéro dans la plage [0,5, 20] secondes, spécifiée au format ISO 8601. La valeur par défaut est 2 secondes (PT2S). Notez que ce paramètre est ignoré si VideoSyncMode.Passthrough est défini, où la valeur KeyFrameInterval suit le paramètre de source d’entrée.

label

string

Étiquette facultative pour le codec. L’étiquette peut être utilisée pour contrôler le comportement de multiplexage.

layers

H264Layer[]

Collection de couches H.264 de sortie à produire par l’encodeur.

rateControlMode

H264RateControlMode

Mode de contrôle de la fréquence vidéo

sceneChangeDetection

boolean

Le fait que l’encodeur doit insérer ou non des cadres clés au niveau de la scène change. Si elle n’est pas spécifiée, la valeur par défaut est false. Cet indicateur doit avoir la valeur true uniquement lorsque l’encodeur est configuré pour produire une seule vidéo de sortie.

stretchMode

StretchMode

Mode de redimensionnement : comment la vidéo d’entrée sera redimensionnée pour s’adapter à la ou aux résolutions de sortie souhaitées. La valeur par défaut est AutoSize

syncMode

VideoSyncMode

Mode de synchronisation vidéo

H264VideoProfile

Nous prenons actuellement en charge Baseline, Main, High, High422, High444. La valeur par défaut est Auto.

Nom Type Description
Auto

string

Indique à l’encodeur de déterminer automatiquement le profil H.264 approprié.

Baseline

string

Profil de référence

High

string

Profil élevé.

High422

string

Profil élevé 4 :2 :2.

High444

string

Profil prédictif élevé 4 :4 :4.

Main

string

Profil principal

H265Complexity

Indique à l’encodeur comment choisir ses paramètres d’encodage. La qualité offre un taux de compression plus élevé, mais à un coût plus élevé et un temps de calcul plus long. Speed produira un fichier relativement plus volumineux, mais est plus rapide et plus économique. La valeur par défaut est Équilibrée.

Nom Type Description
Balanced

string

Indique à l’encodeur d’utiliser des paramètres qui permettent d’atteindre un équilibre entre vitesse et qualité.

Quality

string

Indique à l’encodeur d’utiliser des paramètres optimisés pour produire une sortie de qualité supérieure au détriment d’un temps d’encodage global plus lent.

Speed

string

Indique à l’encodeur d’utiliser des paramètres optimisés pour accélérer l’encodage. La qualité est sacrifiée pour réduire le temps d’encodage.

H265Layer

Décrit les paramètres à utiliser lors de l’encodage de la vidéo d’entrée dans une couche de débit de sortie souhaitée avec le codec vidéo H.265.

Nom Type Description
adaptiveBFrame

boolean

Spécifie si les images B adaptatives doivent être utilisées lors de l’encodage de cette couche. S’il n’est pas spécifié, l’encodeur l’active chaque fois que le profil vidéo autorise son utilisation.

bFrames

integer

Nombre d’images B à utiliser lors de l’encodage de cette couche. S’il n’est pas spécifié, l’encodeur choisit un nombre approprié en fonction du profil et du niveau vidéo.

bitrate

integer

Débit moyen en bits par seconde auquel encoder la vidéo d’entrée lors de la génération de cette couche. Par exemple : une vitesse de transmission cible de 3 000 Kbits/s ou 3 Mbits/s signifie que cette valeur doit être 3000000 Il s’agit d’un champ obligatoire.

bufferWindow

string

Longueur de la fenêtre de la mémoire tampon VBV. La valeur doit être au format ISO 8601. La valeur doit être comprise dans la plage [0,1-100] secondes. La valeur par défaut est de 5 secondes (par exemple, PT5S).

crf

number

Valeur de CRF à utiliser lors de l’encodage de cette couche. Ce paramètre prend effet lorsque RateControlMode du codec vidéo est défini en mode CRF. La plage de valeur CRF est comprise entre 0 et 51, où des valeurs inférieures entraîneraient une meilleure qualité, au détriment de tailles de fichiers plus élevées. Des valeurs plus élevées signifient plus de compression, mais à un moment donné, une dégradation de la qualité sera remarquée. La valeur par défaut est 28.

frameRate

string

Fréquence d’images (en images par seconde) à laquelle encoder cette couche. La valeur peut être sous la forme de M/N où M et N sont des entiers (par exemple, 30000/1001) ou sous la forme d’un nombre (par exemple, 30 ou 29,97). L’encodeur applique des contraintes sur les fréquences d’images autorisées en fonction du profil et du niveau. Si elle n’est pas spécifiée, l’encodeur utilise la même fréquence d’images que la vidéo d’entrée.

height

string

Hauteur de la vidéo de sortie pour cette couche. La valeur peut être absolue (en pixels) ou relative (en pourcentage). Par exemple, 50 % signifie que la vidéo de sortie a deux fois moins de pixels en hauteur que l’entrée.

label

string

Étiquette alphanumérique pour cette couche, qui peut être utilisée dans le multiplexage de différentes couches vidéo et audio, ou dans le nommage du fichier de sortie.

level

string

Nous prenons actuellement en charge Level jusqu’à 6.2. La valeur peut être Auto ou un nombre qui correspond au profil H.265. S’il n’est pas spécifié, la valeur par défaut est Auto, ce qui permet à l’encodeur de choisir le niveau approprié pour cette couche.

maxBitrate

integer

Débit maximal (en bits par seconde), auquel la mémoire tampon VBV doit être supposée être rechargée. S’il n’est pas spécifié, la valeur par défaut est la même que la vitesse de transmission.

profile

H265VideoProfile

Nous prenons actuellement en charge Main. La valeur par défaut est Auto.

referenceFrames

integer

Nombre de cadres de référence à utiliser lors de l’encodage de cette couche. S’il n’est pas spécifié, l’encodeur détermine un nombre approprié en fonction du paramètre de complexité de l’encodeur.

slices

integer

Nombre de tranches à utiliser lors de l’encodage de cette couche. Si elle n’est pas spécifiée, la valeur par défaut est égale à zéro, ce qui signifie que l’encodeur utilise une seule tranche pour chaque image.

width

string

Largeur de la vidéo de sortie pour cette couche. La valeur peut être absolue (en pixels) ou relative (en pourcentage). Par exemple, 50 % signifie que la vidéo de sortie a deux fois moins de pixels de largeur que l’entrée.

H265Video

Décrit toutes les propriétés d’encodage d’une vidéo avec le codec H.265.

Nom Type Description
@odata.type string:

#Microsoft.Media.H265Video

Discriminateur pour les types dérivés.

complexity

H265Complexity

Indique à l’encodeur comment choisir ses paramètres d’encodage. La qualité fournit un taux de compression plus élevé, mais à un coût plus élevé et un temps de calcul plus long. La vitesse produit un fichier relativement plus volumineux, mais est plus rapide et plus économique. La valeur par défaut est Équilibrée.

keyFrameInterval

string

Distance entre deux images clés. La valeur doit être différente de zéro dans la plage [0,5, 20] secondes, spécifiée au format ISO 8601. La valeur par défaut est 2 secondes (PT2S). Notez que ce paramètre est ignoré si VideoSyncMode.Passthrough est défini, où la valeur KeyFrameInterval suit le paramètre de source d’entrée.

label

string

Étiquette facultative pour le codec. L’étiquette peut être utilisée pour contrôler le comportement de multiplexage.

layers

H265Layer[]

Collection de couches H.265 de sortie à produire par l’encodeur.

sceneChangeDetection

boolean

Spécifie si l’encodeur doit insérer des cadres clés lors des modifications de scène. Si elle n’est pas spécifiée, la valeur par défaut est false. Cet indicateur doit avoir la valeur true uniquement lorsque l’encodeur est configuré pour produire une seule vidéo de sortie.

stretchMode

StretchMode

Mode de redimensionnement : comment la vidéo d’entrée sera redimensionnée pour s’adapter à la ou aux résolutions de sortie souhaitées. La valeur par défaut est AutoSize

syncMode

VideoSyncMode

Mode de synchronisation vidéo

H265VideoProfile

Nous prenons actuellement en charge Main. La valeur par défaut est Auto.

Nom Type Description
Auto

string

Indique à l’encodeur de déterminer automatiquement le profil H.265 approprié.

Main

string

Profil principal (https://x265.readthedocs.io/en/default/cli.html?highlight=profile#profile-level-tier)

Main10

string

Profil principal 10 (https://en.wikipedia.org/wiki/High_Efficiency_Video_Coding#Main_10)

Image

Décrit les propriétés de base pour générer des miniatures à partir de la vidéo d’entrée

Nom Type Description
@odata.type string:

#Microsoft.Media.Image

Discriminateur pour les types dérivés.

keyFrameInterval

string

Distance entre deux images clés. La valeur doit être différente de zéro dans la plage [0,5, 20] secondes, spécifiée au format ISO 8601. La valeur par défaut est 2 secondes (PT2S). Notez que ce paramètre est ignoré si VideoSyncMode.Passthrough est défini, où la valeur KeyFrameInterval suit le paramètre de source d’entrée.

label

string

Étiquette facultative pour le codec. L’étiquette peut être utilisée pour contrôler le comportement de multiplexage.

range

string

Position par rapport à l’heure de début prédéfinie de la transformation dans la vidéo d’entrée à laquelle arrêter la génération de miniatures. La valeur peut être au format ISO 8601 (par exemple, PT5M30S s’arrêter à 5 minutes et 30 secondes à partir de l’heure de début) ou un nombre d’images (par exemple, 300 pour s’arrêter à la 300e image de l’image au début. Si cette valeur est 1, cela signifie produire une seule miniature à l’heure de début) ou une valeur relative à la durée du flux (par exemple, 50 % pour s’arrêter à la moitié de la durée du flux à partir de l’heure de début). La valeur par défaut est 100 %, ce qui signifie qu’elle s’arrête à la fin du flux.

start

string

Position dans la vidéo d’entrée à partir de laquelle commencer à générer des miniatures. La valeur peut être au format ISO 8601 (par exemple, PT05S pour commencer à 5 secondes) ou un nombre de cadres (par exemple, 10 pour commencer au dixième cadre) ou une valeur relative à la durée du flux (par exemple, 10 % pour commencer à 10 % de la durée du flux). Prend également en charge une macro {Best}, qui indique à l’encodeur de sélectionner la meilleure miniature parmi les premières secondes de la vidéo pour ne produire qu’une seule miniature, quels que soient les autres paramètres pour Étape et Plage. La valeur par défaut est macro {Best}.

step

string

Intervalles auxquels les miniatures sont générées. La valeur peut être au format ISO 8601 (par exemple, PT05S pour une image toutes les 5 secondes), ou un nombre d’images (par exemple, 30 pour une image toutes les 30 images) ou une valeur relative à la durée du flux (par exemple, 10 % pour une image toutes les 10 % de la durée du flux). Remarque : La valeur de l’étape affecte la première miniature générée, qui peut ne pas être exactement celle spécifiée à l’heure de début de la présélection de transformation. Cela est dû à l’encodeur, qui tente de sélectionner la meilleure miniature entre l’heure de début et la position de l’étape à partir de l’heure de début comme première sortie. Comme la valeur par défaut est 10 %, cela signifie que si le flux a une longue durée, la première miniature générée peut être loin de celle spécifiée au début. Essayez de sélectionner la valeur raisonnable pour Étape si la première miniature est attendue proche de l’heure de début, ou définissez Valeur de plage sur 1 si une seule miniature est nécessaire au début.

stretchMode

StretchMode

Mode de redimensionnement : comment la vidéo d’entrée sera redimensionnée pour s’adapter à la ou aux résolutions de sortie souhaitées. La valeur par défaut est AutoSize

syncMode

VideoSyncMode

Mode de synchronisation vidéo

ImageFormat

Décrit les propriétés d’un fichier image de sortie.

Nom Type Description
@odata.type string:

#Microsoft.Media.ImageFormat

Discriminateur pour les types dérivés.

filenamePattern

string

Modèle d’affectation de noms de fichiers utilisé pour la création de fichiers de sortie. Les macros suivantes sont prises en charge dans le nom de fichier : {Nom_base} : macro d’extension qui utilisera le nom du fichier vidéo d’entrée. Si le nom de base (le suffixe de fichier n’est pas inclus) du fichier vidéo d’entrée est inférieur à 32 caractères, le nom de base des fichiers vidéo d’entrée est utilisé. Si la longueur du nom de base du fichier vidéo d’entrée dépasse 32 caractères, le nom de base est tronqué aux 32 premiers caractères de la longueur totale. {Extension} : extension appropriée pour ce format. {Label} : étiquette affectée au codec/couche. {Index} : index unique pour les miniatures. Applicable uniquement aux miniatures. {AudioStream} : chaîne « Audio » plus numéro de flux audio (à partir de 1). {Débit binaire} : débit audio/vidéo en Kbits/s. Non applicable aux miniatures. {Codec} : type du codec audio/vidéo. {Résolution} : résolution vidéo. Toutes les macros non sous-affectées sont réduites et supprimées du nom de fichier.

InputFile

InputDefinition pour un seul fichier. TrackSelections est limité au fichier spécifié.

Nom Type Description
@odata.type string:

#Microsoft.Media.InputFile

Discriminateur pour les types dérivés.

filename

string

Nom du fichier auquel cette définition d’entrée s’applique.

includedTracks TrackDescriptor[]:

Liste des TrackDescriptors qui définissent les métadonnées et la sélection des pistes dans l’entrée.

InsightsType

Définit le type d’insights que vous souhaitez que le service génère. Les valeurs autorisées sont « AudioInsightsOnly », « VideoInsightsOnly » et « AllInsights ». La valeur par défaut est AllInsights. Si vous définissez cette valeur sur AllInsights et que l’entrée est audio uniquement, seules les insights audio sont générés. De même, si l’entrée est vidéo uniquement, seules les insights vidéo sont générés. Il est recommandé de ne pas utiliser AudioInsightsOnly si vous vous attendez à ce que certaines de vos entrées soient uniquement vidéo ; ou utilisez VideoInsightsOnly si vous vous attendez à ce que certaines de vos entrées soient uniquement audio. Vos travaux dans de telles conditions auraient une erreur.

Nom Type Description
AllInsights

string

Générez des insights audio et vidéo. Échoue si les insights audio ou vidéo échouent.

AudioInsightsOnly

string

Générez des insights audio uniquement. Ignorez la vidéo même si elle est présente. Échoue si aucun audio n’est présent.

VideoInsightsOnly

string

Générer des insights vidéo uniquement. Ignorer l’audio s’il est présent. Échoue si aucune vidéo n’est présente.

InterleaveOutput

Définit le mode d’entrelacement de la sortie pour contrôler la façon dont l’audio et la vidéo sont stockés au format conteneur. Exemple : définissez InterleavedOutput sur NonInterleavedOutput pour produire des sorties audio uniquement et vidéo dans des fichiers MP4 distincts.

Nom Type Description
InterleavedOutput

string

La sortie inclut à la fois l’audio et la vidéo.

NonInterleavedOutput

string

La sortie est vidéo uniquement ou audio.

Job

Type de ressource De travail. La progression et l’état peuvent être obtenus en interrogeant un travail ou en vous abonnant à des événements à l’aide d’EventGrid.

Nom Type Description
id

string

ID de ressource complet pour la ressource. Ex - /subscriptions/{subscriptionId}/resourceGroups/{resourceGroupName}/providers/{resourceProviderNamespace}/{resourceType}/{resourceName}

name

string

nom de la ressource.

properties.correlationData

object

Le client a fourni des paires clé/valeur qui seront retournées dans les événements d’état Job et JobOutput.

properties.created

string

Date et heure UTC auxquelles le client a créé le travail, au format « AAAA-MM-JJThh :mm :ssZ ».

properties.description

string

Description facultative du travail fournie par le client.

properties.endTime

string

Date et heure UTC auxquelles ce travail a terminé le traitement.

properties.input JobInput:

Entrées du travail.

properties.lastModified

string

Date et heure UTC auxquelles le client a mis à jour le travail, au format « AAAA-MM-JJThh :mm :ssZ ».

properties.outputs JobOutput[]:

JobOutputAsset[]

Sorties du travail.

properties.priority

Priority

Priorité avec laquelle le travail doit être traité. Les travaux de priorité plus élevée sont traités avant ceux de priorité plus faible. Si aucune valeur n’est définie, la priorité par défaut est « normale ».

properties.startTime

string

Date et heure UTC auxquelles ce travail a commencé le traitement.

properties.state

JobState

État actuel du travail.

systemData

systemData

Métadonnées système relatives à cette ressource.

type

string

Type de la ressource. Par exemple, « Microsoft.Compute/virtualMachines » ou « Microsoft.Storage/storageAccounts »

JobError

Détails des erreurs JobOutput.

Nom Type Description
category

JobErrorCategory

Aide à catégoriser les erreurs.

code

JobErrorCode

Code d’erreur décrivant l’erreur.

details

JobErrorDetail[]

Tableau de détails sur les erreurs spécifiques qui ont conduit à cette erreur signalée.

message

string

Représentation de l’erreur qui dépend du langage lisible.

retry

JobRetry

Indique qu’il peut être possible de réessayer le travail. Si la nouvelle tentative échoue, contactez support Azure via le portail Azure.

JobErrorCategory

Aide à catégoriser les erreurs.

Nom Type Description
Account

string

L’erreur est liée aux informations de compte.

Configuration

string

L’erreur est liée à la configuration.

Content

string

L’erreur est liée aux données dans les fichiers d’entrée.

Download

string

L’erreur est liée au téléchargement.

Service

string

L’erreur est liée au service.

Upload

string

L’erreur est liée au chargement.

JobErrorCode

Code d’erreur décrivant l’erreur.

Nom Type Description
ConfigurationUnsupported

string

Un problème s’est produit avec la combinaison des fichiers d’entrée et des paramètres de configuration appliqués, corrigez les paramètres de configuration et réessayez avec la même entrée, ou modifiez l’entrée pour qu’elle corresponde à la configuration.

ContentMalformed

string

Un problème s’est produit avec le contenu d’entrée (par exemple : fichiers zéro octet ou fichiers endommagés/non décodables), case activée les fichiers d’entrée.

ContentUnsupported

string

Un problème s’est produit avec le format de l’entrée (fichier multimédia non valide ou fichier/codec non pris en charge), case activée la validité des fichiers d’entrée.

DownloadNotAccessible

string

Lors de la tentative de téléchargement des fichiers d’entrée, les fichiers n’étaient pas accessibles, veuillez case activée la disponibilité de la source.

DownloadTransientError

string

Lors de la tentative de téléchargement des fichiers d’entrée, un problème s’est produit lors du transfert (service de stockage, erreurs réseau), consultez les détails et case activée votre source.

IdentityUnsupported

string

Une erreur s’est produite lors de la vérification de l’identité du compte. Vérifiez et corrigez les configurations d’identité et réessayez. En cas d’échec, contactez le support technique.

ServiceError

string

Erreur de service irrécupérable, contactez le support.

ServiceTransientError

string

Erreur temporaire. Veuillez réessayer. Si la nouvelle tentative échoue, contactez le support technique.

UploadNotAccessible

string

Lorsque vous essayez de charger les fichiers de sortie, la destination n’était pas accessible, veuillez case activée la disponibilité de la destination.

UploadTransientError

string

Lors de la tentative de chargement des fichiers de sortie, un problème s’est produit lors du transfert (service de stockage, erreurs réseau). Consultez les détails et case activée votre destination.

JobErrorDetail

Détails des erreurs JobOutput.

Nom Type Description
code

string

Code décrivant le détail de l’erreur.

message

string

Représentation lisible de l’erreur.

JobInputAsset

Représente une ressource pour l’entrée dans un travail.

Nom Type Description
@odata.type string:

#Microsoft.Media.JobInputAsset

Discriminateur pour les types dérivés.

assetName

string

Nom de la ressource d’entrée.

end ClipTime:

Définit un point sur le chronologie du média d’entrée auquel le traitement se terminera. La valeur par défaut est la fin du média d’entrée.

files

string[]

Liste des fichiers. Obligatoire pour JobInputHttp. Maximum de 4 000 caractères chacun. Les chaînes de requête ne seront pas retournées dans les réponses de service pour empêcher l’exposition des données sensibles.

inputDefinitions InputDefinition[]:

Définit une liste d’InputDefinitions. Pour chaque InputDefinition, il définit une liste de sélections de pistes et de métadonnées associées.

label

string

Étiquette affectée à un JobInputClip, qui est utilisé pour satisfaire une référence utilisée dans la transformation. Par exemple, une transformation peut être créée afin de prendre un fichier image avec l’étiquette « xyz » et de l’appliquer en tant que superposition à la vidéo d’entrée avant son encodage. Lors de l’envoi d’un travail, l’un des JobInputs doit être le fichier image et il doit avoir l’étiquette « xyz ».

start ClipTime:

Définit un point sur le chronologie du média d’entrée à partir duquel le traitement démarrera. La valeur par défaut est le début du média d’entrée.

JobInputClip

Représente les fichiers d’entrée d’un travail.

Nom Type Description
@odata.type string:

#Microsoft.Media.JobInputClip

Discriminateur pour les types dérivés.

end ClipTime:

Définit un point sur le chronologie du média d’entrée auquel le traitement se terminera. La valeur par défaut est la fin du média d’entrée.

files

string[]

Liste des fichiers. Obligatoire pour JobInputHttp. Maximum de 4 000 caractères chacun. Les chaînes de requête ne seront pas retournées dans les réponses de service pour empêcher l’exposition des données sensibles.

inputDefinitions InputDefinition[]:

Définit une liste d’InputDefinitions. Pour chaque InputDefinition, il définit une liste de sélections de pistes et de métadonnées associées.

label

string

Étiquette affectée à un JobInputClip, qui est utilisé pour satisfaire une référence utilisée dans la transformation. Par exemple, une transformation peut être créée afin de prendre un fichier image avec l’étiquette « xyz » et de l’appliquer en tant que superposition à la vidéo d’entrée avant son encodage. Lors de l’envoi d’un travail, l’un des JobInputs doit être le fichier image et il doit avoir l’étiquette « xyz ».

start ClipTime:

Définit un point sur le chronologie du média d’entrée à partir duquel le traitement démarrera. La valeur par défaut est le début du média d’entrée.

JobInputHttp

Représente une entrée de travail HTTPS.

Nom Type Description
@odata.type string:

#Microsoft.Media.JobInputHttp

Discriminateur pour les types dérivés.

baseUri

string

URI de base pour l’entrée de travail HTTPS. Il sera concaténé avec les noms de fichiers fournis. Si aucun URI de base n’est fourni, la liste de fichiers fournie est supposée être des URI complets. Longueur maximale de 4 000 caractères. Les chaînes de requête ne seront pas retournées dans les réponses de service pour empêcher l’exposition des données sensibles.

end ClipTime:

Définit un point sur le chronologie du média d’entrée auquel le traitement se terminera. La valeur par défaut est la fin du média d’entrée.

files

string[]

Liste des fichiers. Obligatoire pour JobInputHttp. Maximum de 4 000 caractères chacun. Les chaînes de requête ne seront pas retournées dans les réponses de service pour empêcher l’exposition des données sensibles.

inputDefinitions InputDefinition[]:

Définit une liste d’InputDefinitions. Pour chaque InputDefinition, il définit une liste de sélections de pistes et de métadonnées associées.

label

string

Étiquette affectée à un JobInputClip, qui est utilisé pour satisfaire une référence utilisée dans la transformation. Par exemple, une transformation peut être créée afin de prendre un fichier image avec l’étiquette « xyz » et de l’appliquer en tant que superposition à la vidéo d’entrée avant son encodage. Lors de l’envoi d’un travail, l’un des JobInputs doit être le fichier image et il doit avoir l’étiquette « xyz ».

start ClipTime:

Définit un point sur le chronologie du média d’entrée à partir duquel le traitement démarrera. La valeur par défaut est le début du média d’entrée.

JobInputs

Décrit la liste des entrées d’un travail.

Nom Type Description
@odata.type string:

#Microsoft.Media.JobInputs

Discriminateur pour les types dérivés.

inputs JobInput[]:

Liste des entrées d’un travail.

JobInputSequence

Une séquence contient une liste ordonnée de clips où chaque clip est un JobInput. La séquence est traitée comme une entrée unique.

Nom Type Description
@odata.type string:

#Microsoft.Media.JobInputSequence

Discriminateur pour les types dérivés.

inputs JobInputClip[]:

JobInputs qui composent le chronologie.

JobOutputAsset

Représente une ressource utilisée en tant que JobOutput.

Nom Type Description
@odata.type string:

#Microsoft.Media.JobOutputAsset

Discriminateur pour les types dérivés.

assetName

string

Nom de la ressource de sortie.

endTime

string

Date et heure UTC auxquelles le traitement de la sortie du travail a été terminé.

error

JobError

Si l’objet JobOutput est à l’état Erreur, il contient les détails de l’erreur.

label

string

Étiquette qui est affectée à un JobOutput afin d’aider à l’identifier de manière unique. Cela est utile lorsque votre transformation comporte plusieurs TransformOutput, alors que votre travail a plusieurs JobOutput. Dans ce cas, lorsque vous envoyez le travail, vous ajoutez au moins deux JobOutputs, dans le même ordre que TransformOutputs dans la transformation. Par la suite, lorsque vous récupérez le travail, par le biais d’événements ou sur une demande GET, vous pouvez utiliser l’étiquette pour identifier facilement le JobOutput. Si aucune étiquette n’est fournie, la valeur par défaut « {presetName}_{outputIndex} » est utilisée, où le nom de la présélection est le nom de la présélection dans le TransformOutput correspondant et l’index de sortie est l’index relatif de ce JobOutput dans le travail. Notez que cet index est identique à l’index relatif de l’objet TransformOutput correspondant dans sa transformation.

presetOverride Preset:

Préréglage utilisé pour remplacer la présélection dans la sortie de transformation correspondante.

progress

integer

Si l’objet JobOutput est à l’état Traitement, il contient le pourcentage d’achèvement du travail. La valeur est une estimation qui n’est pas destinée à être utilisée pour prédire les temps d’achèvement du travail. Pour déterminer si l’objet JobOutput est terminé, utilisez la propriété State.

startTime

string

Date et heure UTC auxquelles la sortie du travail a commencé le traitement.

state

JobState

Décrit l’état de JobOutput.

JobRetry

Indique qu’il peut être possible de réessayer le travail. Si la nouvelle tentative échoue, contactez support Azure via le portail Azure.

Nom Type Description
DoNotRetry

string

Le problème doit être examiné, puis le travail doit être renvoyé avec des corrections ou retenté une fois le problème sous-jacent corrigé.

MayRetry

string

Le problème peut être résolu après une période d’attente et une nouvelle soumission du même travail.

JobState

Décrit l’état de JobOutput.

Nom Type Description
Canceled

string

Le travail a été annulé. Il s’agit d’un état final pour le travail.

Canceling

string

Le travail est en cours d’annulation. Il s’agit d’un état temporaire pour le travail.

Error

string

Le travail a rencontré une erreur. Il s’agit d’un état final pour le travail.

Finished

string

Le travail est terminé. Il s’agit d’un état final pour le travail.

Processing

string

Le travail est en cours de traitement. Il s’agit d’un état temporaire pour le travail.

Queued

string

Le travail est dans un état mis en file d’attente et attend que les ressources soient disponibles. État temporaire.

Scheduled

string

Le travail est planifié pour s’exécuter sur une ressource disponible. Il s’agit d’un état temporaire, entre les états mis en file d’attente et les états de traitement.

JpgFormat

Décrit les paramètres de production de miniatures JPEG.

Nom Type Description
@odata.type string:

#Microsoft.Media.JpgFormat

Discriminateur pour les types dérivés.

filenamePattern

string

Modèle d’affectation de noms de fichiers utilisé pour la création de fichiers de sortie. Les macros suivantes sont prises en charge dans le nom de fichier : {Nom_base} : macro d’extension qui utilisera le nom du fichier vidéo d’entrée. Si le nom de base (le suffixe de fichier n’est pas inclus) du fichier vidéo d’entrée est inférieur à 32 caractères, le nom de base des fichiers vidéo d’entrée est utilisé. Si la longueur du nom de base du fichier vidéo d’entrée dépasse 32 caractères, le nom de base est tronqué aux 32 premiers caractères de la longueur totale. {Extension} : extension appropriée pour ce format. {Label} : étiquette affectée au codec/couche. {Index} : index unique pour les miniatures. Applicable uniquement aux miniatures. {AudioStream} : chaîne « Audio » plus numéro de flux audio (à partir de 1). {Débit binaire} : débit audio/vidéo en Kbits/s. Non applicable aux miniatures. {Codec} : type du codec audio/vidéo. {Résolution} : résolution vidéo. Toutes les macros non sous-affectées sont réduites et supprimées du nom de fichier.

JpgImage

Décrit les propriétés permettant de produire une série d’images JPEG à partir de la vidéo d’entrée.

Nom Type Description
@odata.type string:

#Microsoft.Media.JpgImage

Discriminateur pour les types dérivés.

keyFrameInterval

string

Distance entre deux images clés. La valeur doit être différente de zéro dans la plage [0,5, 20] secondes, spécifiée au format ISO 8601. La valeur par défaut est 2 secondes (PT2S). Notez que ce paramètre est ignoré si VideoSyncMode.Passthrough est défini, où la valeur KeyFrameInterval suit le paramètre de source d’entrée.

label

string

Étiquette facultative pour le codec. L’étiquette peut être utilisée pour contrôler le comportement de multiplexage.

layers

JpgLayer[]

Collection de couches d’image JPEG de sortie à produire par l’encodeur.

range

string

Position par rapport à l’heure de début prédéfinie de la transformation dans la vidéo d’entrée à laquelle arrêter la génération de miniatures. La valeur peut être au format ISO 8601 (par exemple, PT5M30S s’arrêter à 5 minutes et 30 secondes à partir de l’heure de début) ou un nombre d’images (par exemple, 300 pour s’arrêter à la 300e image de l’image au début. Si cette valeur est 1, cela signifie produire une seule miniature à l’heure de début) ou une valeur relative à la durée du flux (par exemple, 50 % pour s’arrêter à la moitié de la durée du flux à partir de l’heure de début). La valeur par défaut est 100 %, ce qui signifie qu’elle s’arrête à la fin du flux.

spriteColumn

integer

Définit le nombre de colonnes utilisées dans l’image de sprite miniature. Le nombre de lignes est automatiquement calculé et un fichier VTT est généré avec les mappages de coordonnées pour chaque miniature du sprite. Remarque : cette valeur doit être un entier positif et une valeur appropriée est recommandée afin que la résolution de l’image de sortie ne dépasse pas la limite de résolution maximale de pixels JPEG 65535x65535.

start

string

Position dans la vidéo d’entrée à partir de laquelle commencer à générer des miniatures. La valeur peut être au format ISO 8601 (par exemple, PT05S pour commencer à 5 secondes) ou un nombre de cadres (par exemple, 10 pour commencer au dixième cadre) ou une valeur relative à la durée du flux (par exemple, 10 % pour commencer à 10 % de la durée du flux). Prend également en charge une macro {Best}, qui indique à l’encodeur de sélectionner la meilleure miniature parmi les premières secondes de la vidéo pour ne produire qu’une seule miniature, quels que soient les autres paramètres pour Étape et Plage. La valeur par défaut est macro {Best}.

step

string

Intervalles auxquels les miniatures sont générées. La valeur peut être au format ISO 8601 (par exemple, PT05S pour une image toutes les 5 secondes), ou un nombre d’images (par exemple, 30 pour une image toutes les 30 images) ou une valeur relative à la durée du flux (par exemple, 10 % pour une image toutes les 10 % de la durée du flux). Remarque : La valeur de l’étape affecte la première miniature générée, qui peut ne pas être exactement celle spécifiée à l’heure de début de la présélection de transformation. Cela est dû à l’encodeur, qui tente de sélectionner la meilleure miniature entre l’heure de début et la position de l’étape à partir de l’heure de début comme première sortie. Comme la valeur par défaut est 10 %, cela signifie que si le flux a une longue durée, la première miniature générée peut être loin de celle spécifiée au début. Essayez de sélectionner la valeur raisonnable pour Étape si la première miniature est attendue proche de l’heure de début, ou définissez Valeur de plage sur 1 si une seule miniature est nécessaire au début.

stretchMode

StretchMode

Mode de redimensionnement : comment la vidéo d’entrée sera redimensionnée pour s’adapter à la ou aux résolutions de sortie souhaitées. La valeur par défaut est AutoSize

syncMode

VideoSyncMode

Mode de synchronisation vidéo

JpgLayer

Décrit les paramètres pour produire une image JPEG à partir de la vidéo d’entrée.

Nom Type Description
height

string

Hauteur de la vidéo de sortie pour cette couche. La valeur peut être absolue (en pixels) ou relative (en pourcentage). Par exemple, 50 % signifie que la vidéo de sortie a deux fois moins de pixels en hauteur que l’entrée.

label

string

Étiquette alphanumérique pour cette couche, qui peut être utilisée dans le multiplexage de différentes couches vidéo et audio, ou dans le nommage du fichier de sortie.

quality

integer

Qualité de compression de la sortie JPEG. La plage est comprise entre 0 et 100 et la valeur par défaut est 70.

width

string

Largeur de la vidéo de sortie pour cette couche. La valeur peut être absolue (en pixels) ou relative (en pourcentage). Par exemple, 50 % signifie que la vidéo de sortie a deux fois moins de pixels de largeur que l’entrée.

Mp4Format

Décrit les propriétés d’un fichier MP4 ISO de sortie.

Nom Type Description
@odata.type string:

#Microsoft.Media.Mp4Format

Discriminateur pour les types dérivés.

filenamePattern

string

Modèle d’affectation de noms de fichiers utilisé pour la création de fichiers de sortie. Les macros suivantes sont prises en charge dans le nom de fichier : {Nom_base} : macro d’extension qui utilisera le nom du fichier vidéo d’entrée. Si le nom de base (le suffixe de fichier n’est pas inclus) du fichier vidéo d’entrée est inférieur à 32 caractères, le nom de base des fichiers vidéo d’entrée est utilisé. Si la longueur du nom de base du fichier vidéo d’entrée dépasse 32 caractères, le nom de base est tronqué aux 32 premiers caractères de la longueur totale. {Extension} : extension appropriée pour ce format. {Label} : étiquette affectée au codec/couche. {Index} : index unique pour les miniatures. Applicable uniquement aux miniatures. {AudioStream} : chaîne « Audio » plus numéro de flux audio (à partir de 1). {Débit binaire} : débit audio/vidéo en Kbits/s. Non applicable aux miniatures. {Codec} : type du codec audio/vidéo. {Résolution} : résolution vidéo. Toutes les macros non sous-affectées sont réduites et supprimées du nom de fichier.

outputFiles

OutputFile[]

Liste des fichiers de sortie à produire. Chaque entrée de la liste est un ensemble d’étiquettes de couche audio et vidéo à multipler.

MultiBitrateFormat

Décrit les propriétés permettant de produire une collection de fichiers multidébit alignés sur GOP. Le comportement par défaut consiste à produire un fichier de sortie pour chaque couche vidéo qui est multiplexé avec tous les audios. Les fichiers de sortie exacts produits peuvent être contrôlés en spécifiant la collection outputFiles.

Nom Type Description
@odata.type string:

#Microsoft.Media.MultiBitrateFormat

Discriminateur pour les types dérivés.

filenamePattern

string

Modèle d’affectation de noms de fichiers utilisé pour la création de fichiers de sortie. Les macros suivantes sont prises en charge dans le nom de fichier : {Nom_base} : macro d’extension qui utilisera le nom du fichier vidéo d’entrée. Si le nom de base (le suffixe de fichier n’est pas inclus) du fichier vidéo d’entrée est inférieur à 32 caractères, le nom de base des fichiers vidéo d’entrée est utilisé. Si la longueur du nom de base du fichier vidéo d’entrée dépasse 32 caractères, le nom de base est tronqué aux 32 premiers caractères de la longueur totale. {Extension} : extension appropriée pour ce format. {Label} : étiquette affectée au codec/couche. {Index} : index unique pour les miniatures. Applicable uniquement aux miniatures. {AudioStream} : chaîne « Audio » plus numéro de flux audio (à partir de 1). {Débit binaire} : débit audio/vidéo en Kbits/s. Non applicable aux miniatures. {Codec} : type du codec audio/vidéo. {Résolution} : résolution vidéo. Toutes les macros non sous-affectées sont réduites et supprimées du nom de fichier.

outputFiles

OutputFile[]

Liste des fichiers de sortie à produire. Chaque entrée de la liste est un ensemble d’étiquettes de couche audio et vidéo à multipler.

OutputFile

Représente un fichier de sortie produit.

Nom Type Description
labels

string[]

Liste des étiquettes qui décrivent comment l’encodeur doit multiplexer la vidéo et l’audio dans un fichier de sortie. Par exemple, si l’encodeur produit deux couches vidéo avec des étiquettes v1 et v2, et une couche audio avec l’étiquette a1, un tableau comme « [v1, a1] » indique à l’encodeur de produire un fichier de sortie avec la piste vidéo représentée par v1 et la piste audio représentée par a1.

PngFormat

Décrit les paramètres de production de miniatures PNG.

Nom Type Description
@odata.type string:

#Microsoft.Media.PngFormat

Discriminateur pour les types dérivés.

filenamePattern

string

Modèle d’affectation de noms de fichiers utilisé pour la création de fichiers de sortie. Les macros suivantes sont prises en charge dans le nom de fichier : {Nom_base} : macro d’extension qui utilisera le nom du fichier vidéo d’entrée. Si le nom de base (le suffixe de fichier n’est pas inclus) du fichier vidéo d’entrée est inférieur à 32 caractères, le nom de base des fichiers vidéo d’entrée est utilisé. Si la longueur du nom de base du fichier vidéo d’entrée dépasse 32 caractères, le nom de base est tronqué aux 32 premiers caractères de la longueur totale. {Extension} : extension appropriée pour ce format. {Label} : étiquette affectée au codec/couche. {Index} : index unique pour les miniatures. Applicable uniquement aux miniatures. {AudioStream} : chaîne « Audio » plus numéro de flux audio (à partir de 1). {Débit binaire} : débit audio/vidéo en Kbits/s. Non applicable aux miniatures. {Codec} : type du codec audio/vidéo. {Résolution} : résolution vidéo. Toutes les macros non sous-affectées sont réduites et supprimées du nom de fichier.

PngImage

Décrit les propriétés permettant de produire une série d’images PNG à partir de la vidéo d’entrée.

Nom Type Description
@odata.type string:

#Microsoft.Media.PngImage

Discriminateur pour les types dérivés.

keyFrameInterval

string

Distance entre deux images clés. La valeur doit être différente de zéro dans la plage [0,5, 20] secondes, spécifiée au format ISO 8601. La valeur par défaut est 2 secondes (PT2S). Notez que ce paramètre est ignoré si VideoSyncMode.Passthrough est défini, où la valeur KeyFrameInterval suit le paramètre de source d’entrée.

label

string

Étiquette facultative pour le codec. L’étiquette peut être utilisée pour contrôler le comportement de multiplexage.

layers

PngLayer[]

Collection de couches d’image PNG de sortie à produire par l’encodeur.

range

string

Position par rapport à l’heure de début prédéfinie de la transformation dans la vidéo d’entrée à laquelle arrêter la génération de miniatures. La valeur peut être au format ISO 8601 (par exemple, PT5M30S s’arrêter à 5 minutes et 30 secondes à partir de l’heure de début) ou un nombre d’images (par exemple, 300 pour s’arrêter à la 300e image de l’image au début. Si cette valeur est 1, cela signifie produire une seule miniature à l’heure de début) ou une valeur relative à la durée du flux (par exemple, 50 % pour s’arrêter à la moitié de la durée du flux à partir de l’heure de début). La valeur par défaut est 100 %, ce qui signifie qu’elle s’arrête à la fin du flux.

start

string

Position dans la vidéo d’entrée à partir de laquelle commencer à générer des miniatures. La valeur peut être au format ISO 8601 (par exemple, PT05S pour commencer à 5 secondes) ou un nombre de cadres (par exemple, 10 pour commencer au dixième cadre) ou une valeur relative à la durée du flux (par exemple, 10 % pour commencer à 10 % de la durée du flux). Prend également en charge une macro {Best}, qui indique à l’encodeur de sélectionner la meilleure miniature parmi les premières secondes de la vidéo pour ne produire qu’une seule miniature, quels que soient les autres paramètres pour Étape et Plage. La valeur par défaut est macro {Best}.

step

string

Intervalles auxquels les miniatures sont générées. La valeur peut être au format ISO 8601 (par exemple, PT05S pour une image toutes les 5 secondes), ou un nombre d’images (par exemple, 30 pour une image toutes les 30 images) ou une valeur relative à la durée du flux (par exemple, 10 % pour une image toutes les 10 % de la durée du flux). Remarque : La valeur de l’étape affecte la première miniature générée, qui peut ne pas être exactement celle spécifiée à l’heure de début de la présélection de transformation. Cela est dû à l’encodeur, qui tente de sélectionner la meilleure miniature entre l’heure de début et la position de l’étape à partir de l’heure de début comme première sortie. Comme la valeur par défaut est 10 %, cela signifie que si le flux a une longue durée, la première miniature générée peut être loin de celle spécifiée au début. Essayez de sélectionner la valeur raisonnable pour Étape si la première miniature est attendue proche de l’heure de début, ou définissez Valeur de plage sur 1 si une seule miniature est nécessaire au début.

stretchMode

StretchMode

Mode de redimensionnement : comment la vidéo d’entrée sera redimensionnée pour s’adapter à la ou aux résolutions de sortie souhaitées. La valeur par défaut est AutoSize

syncMode

VideoSyncMode

Mode de synchronisation vidéo

PngLayer

Décrit les paramètres pour produire une image PNG à partir de la vidéo d’entrée.

Nom Type Description
height

string

Hauteur de la vidéo de sortie pour cette couche. La valeur peut être absolue (en pixels) ou relative (en pourcentage). Par exemple, 50 % signifie que la vidéo de sortie a deux fois moins de pixels en hauteur que l’entrée.

label

string

Étiquette alphanumérique pour cette couche, qui peut être utilisée dans le multiplexage de différentes couches vidéo et audio, ou dans le nommage du fichier de sortie.

width

string

Largeur de la vidéo de sortie pour cette couche. La valeur peut être absolue (en pixels) ou relative (en pourcentage). Par exemple, 50 % signifie que la vidéo de sortie a deux fois moins de pixels de largeur que l’entrée.

PresetConfigurations

Objet de paramètres de configuration facultatifs pour l’encodeur.

Nom Type Description
complexity

Complexity

Permet de configurer les paramètres de l’encodeur afin de contrôler l’équilibre entre la vitesse et la qualité. Exemple : définissez Complexité sur Vitesse pour accélérer l’encodage, mais réduire l’efficacité de compression.

interleaveOutput

InterleaveOutput

Définit le mode d’entrelacement de la sortie pour contrôler la façon dont l’audio et la vidéo sont stockés au format conteneur. Exemple : définissez InterleavedOutput sur NonInterleavedOutput pour produire des sorties audio uniquement et vidéo dans des fichiers MP4 distincts.

keyFrameIntervalInSeconds

number

Intervalle d’images clés en secondes. Exemple : définissez KeyFrameIntervalInSeconds sur 2 pour réduire la mise en mémoire tampon de lecture pour certains joueurs.

maxBitrateBps

integer

Débit maximal en bits par seconde (seuil pour la couche vidéo supérieure). Exemple : définissez MaxBitrateBps sur 6000000 pour éviter de produire des sorties à débit binaire très élevé pour le contenu présentant une complexité élevée.

maxHeight

integer

Hauteur maximale des couches vidéo de sortie. Exemple : définissez MaxHeight sur 720 pour produire des couches de sortie allant jusqu’à 720P, même si l’entrée est 4K.

maxLayers

integer

Nombre maximal de couches vidéo de sortie. Exemple : définissez MaxLayers sur 4 pour vous assurer qu’au maximum 4 couches de sortie sont produites pour contrôler le coût global de la tâche d’encodage.

minBitrateBps

integer

Débit minimal en bits par seconde (seuil pour la couche vidéo inférieure). Exemple : définissez MinBitrateBps sur 200000 pour avoir une couche inférieure qui couvre les utilisateurs avec une bande passante réseau faible.

minHeight

integer

Hauteur minimale des couches vidéo de sortie. Exemple : définissez MinHeight sur 360 pour éviter les couches de sortie de plus petites résolutions comme 180P.

Priority

Définit la priorité relative des TransformOutputs dans une transformation. Cela définit la priorité que le service utilise pour le traitement de TransformOutputs. La priorité par défaut est Normal.

Nom Type Description
High

string

Utilisé pour les TransformOutputs qui doivent être prioritaires sur d’autres.

Low

string

Utilisé pour les TransformOutputs qui peuvent être générés après les TransformOutputs normaux et de priorité élevée.

Normal

string

Utilisé pour les TransformOutputs qui peuvent être générés à priorité Normale.

Rectangle

Décrit les propriétés d’une fenêtre rectangulaire appliquée au média d’entrée avant de le traiter.

Nom Type Description
height

string

Hauteur de la zone rectangulaire en pixels. Il peut s’agir d’une valeur absolue en pixels (par exemple, 100) ou par rapport à la taille de la vidéo (par exemple, 50 %).

left

string

Nombre de pixels à partir de la marge de gauche. Il peut s’agir d’une valeur absolue en pixels (par exemple, 100) ou par rapport à la taille de la vidéo (par exemple, 50 %).

top

string

Nombre de pixels à partir de la marge supérieure. Il peut s’agir d’une valeur absolue en pixels (par exemple, 100) ou par rapport à la taille de la vidéo (par exemple, 50 %).

width

string

Largeur de la zone rectangulaire en pixels. Il peut s’agir d’une valeur absolue en pixels (par exemple, 100) ou par rapport à la taille de la vidéo (par exemple, 50 %).

Rotation

Rotation, le cas échéant, à appliquer à la vidéo d’entrée, avant qu’elle soit encodée. La valeur par défaut est Auto

Nom Type Description
Auto

string

Détecter et faire pivoter automatiquement en fonction des besoins.

None

string

Ne faites pas pivoter la vidéo. Si le format de sortie le prend en charge, toutes les métadonnées relatives à la rotation sont conservées intactes.

Rotate0

string

Ne faites pas pivoter la vidéo, mais supprimez les métadonnées relatives à la rotation.

Rotate180

string

Faire pivoter de 180 degrés dans le sens des aiguilles d’une montre.

Rotate270

string

Faire pivoter de 270 degrés dans le sens des aiguilles d’une montre.

Rotate90

string

Faire pivoter de 90 degrés dans le sens des aiguilles d’une montre.

SelectAudioTrackByAttribute

Sélectionnez des pistes audio à partir de l’entrée en spécifiant un attribut et un filtre d’attribut.

Nom Type Description
@odata.type string:

#Microsoft.Media.SelectAudioTrackByAttribute

Discriminateur pour les types dérivés.

attribute

TrackAttribute

TrackAttribute par lequel filtrer les pistes.

channelMapping

ChannelMapping

Désignation facultative pour les pistes audio monocanal. Peut être utilisé pour combiner les pistes en pistes audio stéréo ou multicanal.

filter

AttributeFilter

Type d’AttributFilter à appliquer à TrackAttribute afin de sélectionner les pistes.

filterValue

string

Valeur par laquelle filtrer les pistes. Utilisé uniquement lorsque AttributeFilter.ValueEquals est spécifié pour la propriété Filter.

SelectAudioTrackById

Sélectionnez des pistes audio à partir de l’entrée en spécifiant un identificateur de piste.

Nom Type Description
@odata.type string:

#Microsoft.Media.SelectAudioTrackById

Discriminateur pour les types dérivés.

channelMapping

ChannelMapping

Désignation facultative pour les pistes audio monocanal. Peut être utilisé pour combiner les pistes en pistes audio stéréo ou multicanal.

trackId

integer

Identificateur de suivi à sélectionner

SelectVideoTrackByAttribute

Sélectionnez des pistes vidéo dans l’entrée en spécifiant un attribut et un filtre d’attribut.

Nom Type Description
@odata.type string:

#Microsoft.Media.SelectVideoTrackByAttribute

Discriminateur pour les types dérivés.

attribute

TrackAttribute

TrackAttribute par lequel filtrer les pistes.

filter

AttributeFilter

Type d’AttributFilter à appliquer à TrackAttribute afin de sélectionner les pistes.

filterValue

string

Valeur par laquelle filtrer les pistes. Utilisé uniquement lorsque AttributeFilter.ValueEquals est spécifié pour la propriété Filter. Pour TrackAttribute.Bitrate, il doit s’agir d’une valeur entière en bits par seconde (par exemple , « 1500000 »). TrackAttribute.Language n’est pas pris en charge pour les pistes vidéo.

SelectVideoTrackById

Sélectionnez des pistes vidéo dans l’entrée en spécifiant un identificateur de piste.

Nom Type Description
@odata.type string:

#Microsoft.Media.SelectVideoTrackById

Discriminateur pour les types dérivés.

trackId

integer

Identificateur de suivi à sélectionner

StandardEncoderPreset

Décrit tous les paramètres à utiliser lors de l’encodage de la vidéo d’entrée avec l’encodeur standard.

Nom Type Description
@odata.type string:

#Microsoft.Media.StandardEncoderPreset

Discriminateur pour les types dérivés.

codecs Codec[]:

Liste des codecs à utiliser lors de l’encodage de la vidéo d’entrée.

experimentalOptions

object

Dictionnaire contenant des paires de valeurs de clé pour les paramètres non exposés dans la présélection elle-même

filters

Filters

Une ou plusieurs opérations de filtrage appliquées au média d’entrée avant l’encodage.

formats Format[]:

Liste des sorties à produire par l’encodeur.

StretchMode

Mode de redimensionnement : comment la vidéo d’entrée sera redimensionnée pour s’adapter aux résolutions de sortie souhaitées. La valeur par défaut est AutoSize

Nom Type Description
AutoFit

string

Padez la sortie (avec la boîte aux lettres ou la zone de pilier) pour respecter la résolution de sortie, tout en vous assurant que la région vidéo active dans la sortie a le même rapport d’aspect que l’entrée. Par exemple, si l’entrée est 1920x1080 et que la présélection d’encodage demande 1280x1280, la sortie sera à 1280x1280, qui contient un rectangle interne de 1280x720 au rapport d’aspect de 16 :9, et les zones de piliers de 280 pixels de large à gauche et à droite.

AutoSize

string

Remplacez la résolution de sortie et modifiez-la pour qu’elle corresponde au rapport d’affichage de l’entrée, sans remplissage. Par exemple, si l’entrée est 1920x1080 et la présélection d’encodage demande 1280x1280, la valeur dans la présélection est remplacée, et la sortie sera à 1280x720, qui conserve les proportions d’entrée en 16:9.

None

string

Respectez strictement la résolution de sortie sans tenir compte du rapport d’aspect en pixels ou de l’affichage de la vidéo d’entrée.

systemData

Métadonnées relatives à la création et à la dernière modification de la ressource.

Nom Type Description
createdAt

string

Horodatage de la création de ressources (UTC).

createdBy

string

Identité qui a créé la ressource.

createdByType

createdByType

Type d’identité qui a créé la ressource.

lastModifiedAt

string

Horodatage de la dernière modification de la ressource (UTC)

lastModifiedBy

string

Identité qui a modifié la ressource pour la dernière fois.

lastModifiedByType

createdByType

Type d’identité qui a modifié la ressource pour la dernière fois.

TrackAttribute

TrackAttribute par lequel filtrer les pistes.

Nom Type Description
Bitrate

string

Vitesse de transmission de la piste.

Language

string

Langue de la piste.

TransportStreamFormat

Décrit les propriétés de génération d’un ou plusieurs fichiers vidéo de sortie de flux de transport MPEG-2 (ISO/IEC 13818-1).

Nom Type Description
@odata.type string:

#Microsoft.Media.TransportStreamFormat

Discriminateur pour les types dérivés.

filenamePattern

string

Modèle d’affectation de noms de fichiers utilisé pour la création de fichiers de sortie. Les macros suivantes sont prises en charge dans le nom de fichier : {Nom_base} : macro d’extension qui utilisera le nom du fichier vidéo d’entrée. Si le nom de base (le suffixe de fichier n’est pas inclus) du fichier vidéo d’entrée est inférieur à 32 caractères, le nom de base des fichiers vidéo d’entrée est utilisé. Si la longueur du nom de base du fichier vidéo d’entrée dépasse 32 caractères, le nom de base est tronqué aux 32 premiers caractères de la longueur totale. {Extension} : extension appropriée pour ce format. {Label} : étiquette affectée au codec/couche. {Index} : index unique pour les miniatures. Applicable uniquement aux miniatures. {AudioStream} : chaîne « Audio » plus numéro de flux audio (à partir de 1). {Débit binaire} : débit audio/vidéo en Kbits/s. Non applicable aux miniatures. {Codec} : type du codec audio/vidéo. {Résolution} : résolution vidéo. Toutes les macros non sous-affectées sont réduites et supprimées du nom de fichier.

outputFiles

OutputFile[]

Liste des fichiers de sortie à produire. Chaque entrée de la liste est un ensemble d’étiquettes de couche audio et vidéo à multipler.

UtcClipTime

Spécifie l’heure du clip en tant que position d’heure Utc dans le fichier multimédia. L’heure Utc peut pointer vers une position différente selon que le fichier multimédia commence à partir d’un horodatage de zéro ou non.

Nom Type Description
@odata.type string:

#Microsoft.Media.UtcClipTime

Discriminateur pour les types dérivés.

time

string

Position de l’heure sur le chronologie du média d’entrée en fonction de l’heure UTC.

Video

Décrit les propriétés de base pour l’encodage de la vidéo d’entrée.

Nom Type Description
@odata.type string:

#Microsoft.Media.Video

Discriminateur pour les types dérivés.

keyFrameInterval

string

Distance entre deux images clés. La valeur doit être différente de zéro dans la plage [0,5, 20] secondes, spécifiée au format ISO 8601. La valeur par défaut est 2 secondes (PT2S). Notez que ce paramètre est ignoré si VideoSyncMode.Passthrough est défini, où la valeur KeyFrameInterval suit le paramètre de source d’entrée.

label

string

Étiquette facultative pour le codec. L’étiquette peut être utilisée pour contrôler le comportement de multiplexage.

stretchMode

StretchMode

Mode de redimensionnement : comment la vidéo d’entrée sera redimensionnée pour s’adapter à la ou aux résolutions de sortie souhaitées. La valeur par défaut est AutoSize

syncMode

VideoSyncMode

Mode de synchronisation vidéo

VideoAnalyzerPreset

Un préréglage d’analyseur vidéo qui extrait des insights (métadonnées enrichies) à partir de l’audio et de la vidéo, et génère un fichier au format JSON.

Nom Type Description
@odata.type string:

#Microsoft.Media.VideoAnalyzerPreset

Discriminateur pour les types dérivés.

audioLanguage

string

Langue de la charge utile audio dans l’entrée au format BCP-47 « language tag-region » (par exemple , « en-US »). Si vous connaissez la langue de votre contenu, il est recommandé de le spécifier. La langue doit être spécifiée explicitement pour AudioAnalysisMode ::Basic, car la détection automatique de la langue n’est pas incluse en mode de base. Si la langue n’est pas spécifiée ou a la valeur Null, la fonctionnalité de détection automatique de la langue choisit la première langue détectée qu’elle utilise pendant la durée de traitement du fichier. Actuellement, elle ne prend pas en charge le basculement dynamique d’une langue à l’autre après la détection de la première langue. La détection automatique fonctionne mieux avec les enregistrements audio avec une voix clairement discernable. Si la détection automatique ne parvient pas à trouver la langue, la transcription est de secours vers « en-US ». La liste des langues prises en charge est disponible ici : https://go.microsoft.com/fwlink/?linkid=2109463

experimentalOptions

object

Dictionnaire contenant des paires de valeurs de clé pour les paramètres non exposés dans la présélection elle-même

insightsToExtract

InsightsType

Définit le type d’insights que vous souhaitez que le service génère. Les valeurs autorisées sont « AudioInsightsOnly », « VideoInsightsOnly » et « AllInsights ». La valeur par défaut est AllInsights. Si vous définissez cette valeur sur AllInsights et que l’entrée est audio uniquement, seules les insights audio sont générés. De même, si l’entrée est vidéo uniquement, seules les insights vidéo sont générés. Il est recommandé de ne pas utiliser AudioInsightsOnly si vous vous attendez à ce que certaines de vos entrées soient uniquement vidéo ; ou utilisez VideoInsightsOnly si vous vous attendez à ce que certaines de vos entrées soient uniquement audio. Vos travaux dans de telles conditions auraient une erreur.

mode

AudioAnalysisMode

Détermine l’ensemble des opérations d’analyse audio à effectuer. S’il n’est pas spécifié, le Standard AudioAnalysisMode est choisi.

VideoOverlay

Décrit les propriétés d’une superposition vidéo.

Nom Type Description
@odata.type string:

#Microsoft.Media.VideoOverlay

Discriminateur pour les types dérivés.

audioGainLevel

number

Niveau de gain de l’audio dans la superposition. La valeur doit se trouver dans la plage [0, 1.0]. La valeur par défaut est 1.0.

cropRectangle

Rectangle

Fenêtre rectangulaire facultative utilisée pour rogner l’image ou la vidéo de superposition.

end

string

Position de fin, en référence à la vidéo d’entrée, à laquelle la superposition se termine. La valeur doit être au format ISO 8601. Par exemple, PT30S pour terminer la superposition à 30 secondes dans la vidéo d’entrée. Si elle n’est pas spécifiée ou si la valeur est supérieure à la durée de la vidéo d’entrée, la superposition sera appliquée jusqu’à la fin de la vidéo d’entrée si la durée du média de superposition est supérieure à la durée de la vidéo d’entrée, sinon la superposition durera aussi longtemps que la durée du média de superposition.

fadeInDuration

string

Durée pendant laquelle la superposition est fondue dans la vidéo d’entrée. La valeur doit être au format de durée ISO 8601. S’il n’est pas spécifié, le comportement par défaut est de ne pas avoir de fondu en (identique à PT0S).

fadeOutDuration

string

Durée pendant laquelle la superposition disparaît de la vidéo d’entrée. La valeur doit être au format de durée ISO 8601. S’il n’est pas spécifié, le comportement par défaut est de ne pas avoir de fondu (identique à PT0S).

inputLabel

string

Étiquette de l’entrée de travail qui doit être utilisée comme superposition. L’entrée doit spécifier exactement un fichier. Vous pouvez spécifier un fichier image au format JPG, PNG, GIF ou BMP, un fichier audio (par exemple un fichier WAV, MP3, WMA ou M4A), ou un fichier vidéo. Consultez https://aka.ms/mesformats la liste complète des formats de fichiers audio et vidéo pris en charge.

opacity

number

Opacité de la superposition. Il s’agit d’une valeur dans la plage [0 - 1.0]. La valeur par défaut est 1.0, ce qui signifie que la superposition est opaque.

position

Rectangle

Emplacement dans la vidéo d’entrée où la superposition est appliquée.

start

string

Position de début, en référence à la vidéo d’entrée, à laquelle la superposition démarre. La valeur doit être au format ISO 8601. Par exemple, PT05S pour démarrer la superposition à 5 secondes dans la vidéo d’entrée. Si elle n’est pas spécifiée, la superposition commence à partir du début de la vidéo d’entrée.

VideoSyncMode

Mode de synchronisation vidéo

Nom Type Description
Auto

string

Il s’agit de la méthode par défaut. Choisit entre Cfr et Vfr en fonction des fonctionnalités du muxer. Pour le format de sortie MP4, le mode par défaut est Cfr.

Cfr

string

Les images d’entrée sont répétées et/ou supprimées en fonction des besoins pour obtenir exactement la fréquence d’images constante demandée. Recommandé lorsque la fréquence d’images de sortie est explicitement définie à une valeur spécifiée

Passthrough

string

Les horodatages de présentation sur les images sont passés du fichier d’entrée au enregistreur de fichier de sortie. Recommandé lorsque la source d’entrée a une fréquence d’images variable et tente de produire plusieurs couches pour la diffusion en continu adaptative dans la sortie qui ont des limites de GOP alignées. Remarque : si deux images ou plus dans l’entrée ont des horodatages en double, la sortie aura également le même comportement

Vfr

string

Similaire au mode passthrough, mais si l’entrée a des images qui ont des horodatages en double, une seule image est passée à la sortie, et d’autres sont supprimées. Recommandé lorsque le nombre d’images de sortie est censé être égal au nombre d’images d’entrée. Par exemple, la sortie est utilisée pour calculer une métrique de qualité comme PSNR par rapport à l’entrée

VideoTrackDescriptor

TrackSelection pour sélectionner des pistes vidéo.

Nom Type Description
@odata.type string:

#Microsoft.Media.VideoTrackDescriptor

Discriminateur pour les types dérivés.