Transforms - Create Or Update
Créer ou mettre à jour une transformation
Crée ou met à jour une transformation.
PUT https://management.azure.com/subscriptions/{subscriptionId}/resourceGroups/{resourceGroupName}/providers/Microsoft.Media/mediaServices/{accountName}/transforms/{transformName}?api-version=2022-07-01
Paramètres URI
Nom | Dans | Obligatoire | Type | Description |
---|---|---|---|---|
account
|
path | True |
string |
Nom du compte Media Services. |
resource
|
path | True |
string |
Nom du groupe de ressources au sein de l’abonnement Azure. |
subscription
|
path | True |
string |
Identificateur unique d’un abonnement Microsoft Azure. |
transform
|
path | True |
string |
Nom de la transformation. |
api-version
|
query | True |
string |
Version de l’API à utiliser avec la demande cliente. |
Corps de la demande
Nom | Obligatoire | Type | Description |
---|---|---|---|
properties.outputs | True |
Tableau d’un ou plusieurs TransformOutputs que la transformation doit générer. |
|
properties.description |
string |
Description détaillée facultative de la transformation. |
Réponses
Nom | Type | Description |
---|---|---|
200 OK |
Ok |
|
201 Created |
Date de création |
|
Other Status Codes |
Informations détaillées sur les erreurs. |
Exemples
Create or update a Transform
Exemple de requête
PUT https://management.azure.com/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/contosoresources/providers/Microsoft.Media/mediaServices/contosomedia/transforms/createdTransform?api-version=2022-07-01
{
"properties": {
"description": "Example Transform to illustrate create and update.",
"outputs": [
{
"preset": {
"@odata.type": "#Microsoft.Media.BuiltInStandardEncoderPreset",
"presetName": "AdaptiveStreaming"
}
}
]
}
}
Exemple de réponse
{
"name": "createdTransform",
"id": "/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/contosoresources/providers/Microsoft.Media/mediaservices/contosomedia/transforms/createdTransform",
"type": "Microsoft.Media/mediaservices/transforms",
"properties": {
"created": "2022-10-17T23:14:31.7664818Z",
"description": "Example Transform to illustrate create and update.",
"lastModified": "2022-10-17T23:14:31.7664818Z",
"outputs": [
{
"onError": "StopProcessingJob",
"relativePriority": "Normal",
"preset": {
"@odata.type": "#Microsoft.Media.BuiltInStandardEncoderPreset",
"presetName": "AdaptiveStreaming"
}
}
]
},
"systemData": {
"createdBy": "contoso@microsoft.com",
"createdByType": "User",
"createdAt": "2022-10-17T23:14:31.7664818Z",
"lastModifiedBy": "contoso@microsoft.com",
"lastModifiedByType": "User",
"lastModifiedAt": "2022-10-17T23:14:31.7664818Z"
}
}
{
"name": "createdTransform",
"id": "/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/contosoresources/providers/Microsoft.Media/mediaservices/contosomedia/transforms/createdTransform",
"type": "Microsoft.Media/mediaservices/transforms",
"properties": {
"created": "2022-10-17T23:14:31.7664818Z",
"description": "Example Transform to illustrate create and update.",
"lastModified": "2022-10-17T23:14:31.7664818Z",
"outputs": [
{
"onError": "StopProcessingJob",
"relativePriority": "Normal",
"preset": {
"@odata.type": "#Microsoft.Media.BuiltInStandardEncoderPreset",
"presetName": "AdaptiveStreaming"
}
}
]
},
"systemData": {
"createdBy": "contoso@microsoft.com",
"createdByType": "User",
"createdAt": "2022-10-17T23:14:31.7664818Z",
"lastModifiedBy": "contoso@microsoft.com",
"lastModifiedByType": "User",
"lastModifiedAt": "2022-10-17T23:14:31.7664818Z"
}
}
Définitions
Nom | Description |
---|---|
Aac |
Décrit les paramètres d’encodage audio AAC (Advanced Audio Codec). |
Aac |
Profil d’encodage à utiliser lors de l’encodage audio avec AAC. |
Analysis |
Spécifie la résolution maximale à laquelle votre vidéo est analysée. Le comportement par défaut est « SourceResolution », qui maintient la vidéo d’entrée à sa résolution d’origine lors de l’analyse. L’utilisation de « StandardDefinition » redimensionne les vidéos d’entrée en fonction de la définition standard tout en conservant les proportions appropriées. Elle ne sera redimensionnée que si la vidéo est d’une résolution plus élevée. Par exemple, une entrée de 1920 x 1080 est mise à l’échelle à 640 x 360 avant le traitement. Le passage à « StandardDefinition » réduit le temps nécessaire au traitement de la vidéo haute résolution. Il peut également réduire le coût d’utilisation de ce composant (voir https://azure.microsoft.com/en-us/pricing/details/media-services/#analytics pour plus d’informations). Toutefois, les visages qui finissent par être trop petits dans la vidéo redimensionnée peuvent ne pas être détectés. |
Audio |
Définit les propriétés communes pour tous les codecs audio. |
Audio |
Détermine l’ensemble des opérations d’analyse audio à effectuer. S’il n’est pas spécifié, le Standard AudioAnalysisMode est choisi. |
Audio |
La présélection d’Audio Analyzer applique un ensemble prédéfini d’opérations d’analyse basées sur l’IA, y compris la transcription vocale. Actuellement, le préréglage prend en charge le traitement du contenu avec une seule piste audio. |
Audio |
Décrit les propriétés d’une superposition audio. |
Blur |
Type de flou |
Built |
Décrit une présélection intégrée pour encoder la vidéo d’entrée avec l’encodeur standard. |
Complexity |
Permet de configurer les paramètres de l’encodeur afin de contrôler l’équilibre entre la vitesse et la qualité. Exemple : définissez Complexité sur Vitesse pour accélérer l’encodage, mais réduire l’efficacité de la compression. |
Copy |
Indicateur de codec, qui indique à l’encodeur de copier le flux binaire audio d’entrée. |
Copy |
Indicateur de codec, qui indique à l’encodeur de copier le flux binaire vidéo d’entrée sans réencodage. |
created |
Type d’identité qui a créé la ressource. |
DDAudio |
Décrit les paramètres d’encodage audio Dolby Digital Audio Codec (AC3). L’implémentation actuelle de la prise en charge Dolby Digital Audio est la suivante : numéros de canal audio à 1((mono), 2(stéréo), 6(5.1side) ; Taux de fréquence d’échantillonnage audio à : 32 K/44,1 K/48 Hz ; Les valeurs de débit audio comme la spécification AC3 prennent en charge : 32000, 40000, 48000, 56000, 64000, 80000, 96000, 112000, 128000, 160000, 192000, 224000, 256000, 320000, 384000, 448000, 512000, 576000, 640000 bps. |
Deinterlace |
Décrit les paramètres de désentlacement. |
Deinterlace |
Mode de désentlacement. La valeur par défaut est AutoPixelAdaptive. |
Deinterlace |
La parité de champ pour le désentlacement est définie par défaut sur Auto. |
Encoder |
Préréglage intégré à utiliser pour l’encodage de vidéos. |
Entropy |
Mode d’entropie à utiliser pour cette couche. S’il n’est pas spécifié, l’encodeur choisit le mode approprié pour le profil et le niveau. |
Error |
Informations supplémentaires sur l’erreur de gestion des ressources. |
Error |
Détail de l’erreur. |
Error |
Réponse d’erreur |
Face |
Décrit tous les paramètres à utiliser lors de l’analyse d’une vidéo afin de détecter (et éventuellement d’effacer) tous les visages présents. |
Face |
Ce mode offre la possibilité de choisir entre les paramètres suivants : 1) Analyser - Pour la détection uniquement. Ce mode génère un fichier JSON de métadonnées marquant l’apparence des visages tout au long de la vidéo. Lorsque cela est possible, les apparences de la même personne se voient attribuer le même ID. 2) Combiné - En outre, les visages détectés sont éparses(flous). 3) Rédaction : permet un processus à 2 passes, ce qui permet la rédaction sélective d’un sous-ensemble de visages détectés. Il prend le fichier de métadonnées d’une passe d’analyse précédente, ainsi que la vidéo source et un sous-ensemble d’ID sélectionnés par l’utilisateur qui nécessitent une rédaction. |
Fade |
Décrit les propriétés d’un effet Fondu appliqué au média d’entrée. |
Filters |
Décrit toutes les opérations de filtrage, telles que le désentlacement, la rotation, etc. qui doivent être appliquées au média d’entrée avant l’encodage. |
H264Complexity |
Indique à l’encodeur comment choisir ses paramètres d’encodage. La valeur par défaut est Équilibrée. |
H264Layer |
Décrit les paramètres à utiliser lors de l’encodage de la vidéo d’entrée dans une couche de débit de sortie souhaitée avec le codec vidéo H.264. |
H264Rate |
Mode de contrôle de la fréquence vidéo |
H264Video |
Décrit toutes les propriétés d’encodage d’une vidéo avec le codec H.264. |
H264Video |
Nous prenons actuellement en charge Baseline, Main, High, High422, High444. La valeur par défaut est Auto. |
H265Complexity |
Indique à l’encodeur comment choisir ses paramètres d’encodage. La qualité offre un taux de compression plus élevé, mais à un coût plus élevé et un temps de calcul plus long. Speed produira un fichier relativement plus volumineux, mais est plus rapide et plus économique. La valeur par défaut est Équilibrée. |
H265Layer |
Décrit les paramètres à utiliser lors de l’encodage de la vidéo d’entrée dans une couche de débit de sortie souhaitée avec le codec vidéo H.265. |
H265Video |
Décrit toutes les propriétés d’encodage d’une vidéo avec le codec H.265. |
H265Video |
Nous prenons actuellement en charge Main. La valeur par défaut est Auto. |
Image |
Décrit les propriétés de base pour générer des miniatures à partir de la vidéo d’entrée |
Image |
Décrit les propriétés d’un fichier image de sortie. |
Insights |
Définit le type d’insights que vous souhaitez que le service génère. Les valeurs autorisées sont « AudioInsightsOnly », « VideoInsightsOnly » et « AllInsights ». La valeur par défaut est AllInsights. Si vous définissez cette valeur sur AllInsights et que l’entrée est audio uniquement, seuls les insights audio sont générés. De même, si l’entrée est uniquement vidéo, seuls les insights vidéo sont générés. Il est recommandé de ne pas utiliser AudioInsightsOnly si vous vous attendez à ce que certaines de vos entrées soient uniquement vidéo ; ou utilisez VideoInsightsOnly si vous vous attendez à ce que certaines de vos entrées soient audio uniquement. Vos travaux dans de telles conditions seraient erronés. |
Interleave |
Définit le mode entrelacement de la sortie pour contrôler la façon dont l’audio et la vidéo sont stockés au format conteneur. Exemple : définissez InterleavedOutput sur NonInterleavedOutput pour produire des sorties audio uniquement et vidéo dans des fichiers MP4 distincts. |
Jpg |
Décrit les paramètres de production de miniatures JPEG. |
Jpg |
Décrit les propriétés permettant de produire une série d’images JPEG à partir de la vidéo d’entrée. |
Jpg |
Décrit les paramètres pour produire une image JPEG à partir de la vidéo d’entrée. |
Mp4Format |
Décrit les propriétés d’un fichier MP4 ISO de sortie. |
Multi |
Décrit les propriétés permettant de produire une collection de fichiers multi-débit alignés sur le goP. Le comportement par défaut consiste à produire un fichier de sortie pour chaque couche vidéo qui est muxé avec tous les audios. Les fichiers de sortie exacts produits peuvent être contrôlés en spécifiant la collection outputFiles. |
On |
Une transformation peut définir plusieurs sorties. Cette propriété définit ce que le service doit faire en cas d’échec d’une sortie : soit continuer à produire d’autres sorties, soit arrêter les autres sorties. L’état global du travail ne reflète pas les échecs des sorties spécifiées avec « ContinueJob ». La valeur par défaut est « StopProcessingJob ». |
Output |
Représente un fichier de sortie produit. |
Png |
Décrit les paramètres de production de miniatures PNG. |
Png |
Décrit les propriétés permettant de produire une série d’images PNG à partir de la vidéo d’entrée. |
Png |
Décrit les paramètres pour produire une image PNG à partir de la vidéo d’entrée. |
Preset |
Objet de paramètres de configuration facultatifs pour l’encodeur. |
Priority |
Définit la priorité relative des TransformOutputs dans une transformation. Cela définit la priorité que le service utilise pour traiter TransformOutputs. La priorité par défaut est Normal. |
Rectangle |
Décrit les propriétés d’une fenêtre rectangulaire appliquée au média d’entrée avant de le traiter. |
Rotation |
Rotation, le cas échéant, à appliquer à la vidéo d’entrée, avant qu’elle ne soit encodée. La valeur par défaut est Auto |
Standard |
Décrit tous les paramètres à utiliser lors de l’encodage de la vidéo d’entrée avec l’encodeur standard. |
Stretch |
Mode de redimensionnement : comment la vidéo d’entrée sera redimensionnée pour s’adapter aux résolutions de sortie souhaitées. La valeur par défaut est AutoSize |
system |
Métadonnées relatives à la création et à la dernière modification de la ressource. |
Transform |
Une transformation encapsule les règles ou les instructions permettant de générer les sorties souhaitées à partir d’un support d’entrée, par exemple en transcodant ou en extrayant des insights. Une fois la transformation créée, elle peut être appliquée au média d’entrée en créant des travaux. |
Transform |
Décrit les propriétés d’un TransformOutput, qui sont les règles à appliquer lors de la génération de la sortie souhaitée. |
Transport |
Décrit les propriétés permettant de générer un ou plusieurs fichiers vidéo de sortie MPEG-2 Transport Stream (ISO/IEC 13818-1). |
Video |
Décrit les propriétés de base pour l’encodage de la vidéo d’entrée. |
Video |
Un préréglage d’analyseur vidéo qui extrait des insights (métadonnées enrichies) à partir de l’audio et de la vidéo, et génère un fichier au format JSON. |
Video |
Décrit les propriétés d’une superposition vidéo. |
Video |
Mode de synchronisation vidéo |
AacAudio
Décrit les paramètres d’encodage audio AAC (Advanced Audio Codec).
Nom | Type | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
Discriminateur pour les types dérivés. |
bitrate |
integer |
Débit, en bits par seconde, de l’audio encodé en sortie. |
channels |
integer |
Nombre de canaux dans l’audio. |
label |
string |
Étiquette facultative pour le codec. L’étiquette peut être utilisée pour contrôler le comportement du muxing. |
profile |
Profil d’encodage à utiliser lors de l’encodage audio avec AAC. |
|
samplingRate |
integer |
Taux d’échantillonnage à utiliser pour l’encodage en hertz. |
AacAudioProfile
Profil d’encodage à utiliser lors de l’encodage audio avec AAC.
Nom | Type | Description |
---|---|---|
AacLc |
string |
Spécifie que l’audio de sortie doit être encodé dans AAC Low Complexity Profile (AAC-LC). |
HeAacV1 |
string |
Spécifie que l’audio de sortie doit être encodé dans le profil HE-AAC v1. |
HeAacV2 |
string |
Spécifie que l’audio de sortie doit être encodé dans le profil HE-AAC v2. |
AnalysisResolution
Spécifie la résolution maximale à laquelle votre vidéo est analysée. Le comportement par défaut est « SourceResolution », qui maintient la vidéo d’entrée à sa résolution d’origine lors de l’analyse. L’utilisation de « StandardDefinition » redimensionne les vidéos d’entrée en fonction de la définition standard tout en conservant les proportions appropriées. Elle ne sera redimensionnée que si la vidéo est d’une résolution plus élevée. Par exemple, une entrée de 1920 x 1080 est mise à l’échelle à 640 x 360 avant le traitement. Le passage à « StandardDefinition » réduit le temps nécessaire au traitement de la vidéo haute résolution. Il peut également réduire le coût d’utilisation de ce composant (voir https://azure.microsoft.com/en-us/pricing/details/media-services/#analytics pour plus d’informations). Toutefois, les visages qui finissent par être trop petits dans la vidéo redimensionnée peuvent ne pas être détectés.
Nom | Type | Description |
---|---|---|
SourceResolution |
string |
|
StandardDefinition |
string |
Audio
Définit les propriétés communes pour tous les codecs audio.
Nom | Type | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
Discriminateur pour les types dérivés. |
bitrate |
integer |
Débit, en bits par seconde, de l’audio encodé en sortie. |
channels |
integer |
Nombre de canaux dans l’audio. |
label |
string |
Étiquette facultative pour le codec. L’étiquette peut être utilisée pour contrôler le comportement de multiplexage. |
samplingRate |
integer |
Taux d’échantillonnage à utiliser pour l’encodage en hertz. |
AudioAnalysisMode
Détermine l’ensemble des opérations d’analyse audio à effectuer. S’il n’est pas spécifié, le Standard AudioAnalysisMode est choisi.
Nom | Type | Description |
---|---|---|
Basic |
string |
Ce mode effectue une transcription de la parole en texte et la génération d’un fichier de sous-titres/CC au format VTT. La sortie de ce mode comprend un fichier JSON Insights incluant uniquement les mots clés, la transcription et les informations relatives au minutage. La détection automatique de la langue et la diarisation de l’orateur ne sont pas incluses dans ce mode. |
Standard |
string |
Effectue toutes les opérations incluses dans le mode De base, en effectuant également la détection de langue et la diarisation de l’orateur. |
AudioAnalyzerPreset
La présélection d’Audio Analyzer applique un ensemble prédéfini d’opérations d’analyse basées sur l’IA, y compris la transcription vocale. Actuellement, le préréglage prend en charge le traitement du contenu avec une seule piste audio.
Nom | Type | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
Discriminateur pour les types dérivés. |
audioLanguage |
string |
Langue de la charge utile audio dans l’entrée au format BCP-47 « language tag-region » (par exemple , « en-US »). Si vous connaissez la langue de votre contenu, il est recommandé de le spécifier. La langue doit être spécifiée explicitement pour AudioAnalysisMode ::Basic, car la détection automatique de la langue n’est pas incluse en mode de base. Si la langue n’est pas spécifiée ou a la valeur Null, la fonctionnalité de détection automatique de la langue choisit la première langue détectée qu’elle utilise pendant la durée de traitement du fichier. Actuellement, elle ne prend pas en charge le basculement dynamique d’une langue à l’autre après la détection de la première langue. La détection automatique fonctionne mieux avec les enregistrements audio avec une voix clairement discernable. Si la détection automatique ne parvient pas à trouver la langue, la transcription est de secours vers « en-US ». La liste des langues prises en charge est disponible ici : https://go.microsoft.com/fwlink/?linkid=2109463 |
experimentalOptions |
object |
Dictionnaire contenant des paires de valeurs de clé pour les paramètres non exposés dans la présélection elle-même |
mode |
Détermine l’ensemble des opérations d’analyse audio à effectuer. S’il n’est pas spécifié, le Standard AudioAnalysisMode est choisi. |
AudioOverlay
Décrit les propriétés d’une superposition audio.
Nom | Type | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
Discriminateur pour les types dérivés. |
audioGainLevel |
number |
Niveau de gain de l’audio dans la superposition. La valeur doit se trouver dans la plage [0, 1.0]. La valeur par défaut est 1.0. |
end |
string |
Position de fin, en référence à la vidéo d’entrée, à laquelle la superposition se termine. La valeur doit être au format ISO 8601. Par exemple, PT30S pour terminer la superposition à 30 secondes dans la vidéo d’entrée. Si elle n’est pas spécifiée ou si la valeur est supérieure à la durée de la vidéo d’entrée, la superposition sera appliquée jusqu’à la fin de la vidéo d’entrée si la durée du média de superposition est supérieure à la durée de la vidéo d’entrée, sinon la superposition durera aussi longtemps que la durée du média de superposition. |
fadeInDuration |
string |
Durée pendant laquelle la superposition est fondue dans la vidéo d’entrée. La valeur doit être au format de durée ISO 8601. S’il n’est pas spécifié, le comportement par défaut est de ne pas avoir de fondu en (identique à PT0S). |
fadeOutDuration |
string |
Durée pendant laquelle la superposition disparaît de la vidéo d’entrée. La valeur doit être au format de durée ISO 8601. S’il n’est pas spécifié, le comportement par défaut est de ne pas avoir de fondu (identique à PT0S). |
inputLabel |
string |
Étiquette de l’entrée de travail qui doit être utilisée comme superposition. L’entrée doit spécifier exactement un fichier. Vous pouvez spécifier un fichier image au format JPG, PNG, GIF ou BMP, un fichier audio (par exemple un fichier WAV, MP3, WMA ou M4A), ou un fichier vidéo. Consultez https://aka.ms/mesformats la liste complète des formats de fichiers audio et vidéo pris en charge. |
start |
string |
Position de début, en référence à la vidéo d’entrée, à laquelle la superposition démarre. La valeur doit être au format ISO 8601. Par exemple, PT05S pour démarrer la superposition à 5 secondes dans la vidéo d’entrée. Si elle n’est pas spécifiée, la superposition commence à partir du début de la vidéo d’entrée. |
BlurType
Type de flou
Nom | Type | Description |
---|---|---|
Black |
string |
Noir : filtre noir |
Box |
string |
Box : filtre de débogage, cadre englobant uniquement |
High |
string |
Élevé : confusion du filtre de flou |
Low |
string |
Faible : filtre de flou de voiture de boîte |
Med |
string |
Med : filtre de flou gaussien |
BuiltInStandardEncoderPreset
Décrit une présélection intégrée pour encoder la vidéo d’entrée avec l’encodeur standard.
Nom | Type | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
Discriminateur pour les types dérivés. |
configurations |
Paramètres de configuration facultatifs pour l’encodeur. Les configurations sont uniquement prises en charge pour ContentAwareEncoding et H265ContentAwareEncoding BuiltInStandardEncoderPreset. |
|
presetName |
Présélection intégrée à utiliser pour l’encodage de vidéos. |
Complexity
Permet de configurer les paramètres de l’encodeur afin de contrôler l’équilibre entre la vitesse et la qualité. Exemple : définissez Complexité sur Vitesse pour accélérer l’encodage, mais réduire l’efficacité de la compression.
Nom | Type | Description |
---|---|---|
Balanced |
string |
Configure l’encodeur pour qu’il utilise des paramètres qui permettent d’atteindre un équilibre entre vitesse et qualité. |
Quality |
string |
Configure l’encodeur pour utiliser des paramètres optimisés pour produire une sortie de meilleure qualité au détriment d’un temps d’encodage global plus lent. |
Speed |
string |
Configure l’encodeur pour utiliser des paramètres optimisés pour un encodage plus rapide. La qualité est sacrifiée pour réduire le temps d’encodage. |
CopyAudio
Indicateur de codec, qui indique à l’encodeur de copier le flux binaire audio d’entrée.
Nom | Type | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
Discriminateur pour les types dérivés. |
label |
string |
Étiquette facultative pour le codec. L’étiquette peut être utilisée pour contrôler le comportement de multiplexage. |
CopyVideo
Indicateur de codec, qui indique à l’encodeur de copier le flux binaire vidéo d’entrée sans réencodage.
Nom | Type | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
Discriminateur pour les types dérivés. |
label |
string |
Étiquette facultative pour le codec. L’étiquette peut être utilisée pour contrôler le comportement de multiplexage. |
createdByType
Type d’identité qui a créé la ressource.
Nom | Type | Description |
---|---|---|
Application |
string |
|
Key |
string |
|
ManagedIdentity |
string |
|
User |
string |
DDAudio
Décrit les paramètres d’encodage audio Dolby Digital Audio Codec (AC3). L’implémentation actuelle de la prise en charge Dolby Digital Audio est la suivante : numéros de canal audio à 1((mono), 2(stéréo), 6(5.1side) ; Taux de fréquence d’échantillonnage audio à : 32 K/44,1 K/48 Hz ; Les valeurs de débit audio comme la spécification AC3 prennent en charge : 32000, 40000, 48000, 56000, 64000, 80000, 96000, 112000, 128000, 160000, 192000, 224000, 256000, 320000, 384000, 448000, 512000, 576000, 640000 bps.
Nom | Type | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
Discriminateur pour les types dérivés. |
bitrate |
integer |
Débit, en bits par seconde, de l’audio encodé de sortie. |
channels |
integer |
Nombre de canaux dans l’audio. |
label |
string |
Étiquette facultative pour le codec. L’étiquette peut être utilisée pour contrôler le comportement du muxing. |
samplingRate |
integer |
Taux d’échantillonnage à utiliser pour l’encodage en hertz. |
Deinterlace
Décrit les paramètres de désentlacement.
Nom | Type | Description |
---|---|---|
mode |
Mode de désinterlacation. La valeur par défaut est AutoPixelAdaptive. |
|
parity |
La parité de champ pour le désentlacement, par défaut, est Auto. |
DeinterlaceMode
Mode de désentlacement. La valeur par défaut est AutoPixelAdaptive.
Nom | Type | Description |
---|---|---|
AutoPixelAdaptive |
string |
Appliquez le désentlacement adaptatif automatique des pixels sur chaque image de la vidéo d’entrée. |
Off |
string |
Désactive le désentlacement de la vidéo source. |
DeinterlaceParity
La parité de champ pour le désentlacement est définie par défaut sur Auto.
Nom | Type | Description |
---|---|---|
Auto |
string |
Détecter automatiquement l’ordre des champs |
BottomFieldFirst |
string |
Appliquez le premier traitement du champ inférieur de la vidéo d’entrée. |
TopFieldFirst |
string |
Appliquez le premier traitement du champ supérieur de la vidéo d’entrée. |
EncoderNamedPreset
Préréglage intégré à utiliser pour l’encodage de vidéos.
Nom | Type | Description |
---|---|---|
AACGoodQualityAudio |
string |
Produit un fichier MP4 unique contenant uniquement de l’audio stéréo AAC encodé à 192 kbits/s. |
AdaptiveStreaming |
string |
Produit un ensemble de fichiers MP4 alignés sur LE GOP avec la vidéo H.264 et l’audio stéréo AAC. Génère automatiquement une échelle de vitesse de transmission basée sur la résolution d’entrée, la vitesse de transmission et la fréquence d’images. Le préréglage généré automatiquement ne dépassera jamais la résolution d’entrée. Par exemple, si l’entrée est en 720p, la sortie restera au mieux en 720p. |
ContentAwareEncoding |
string |
Produit un ensemble de fichiers MP4 alignés sur le groupe d’images en utilisant un encodage adapté au contenu. Étant donné un contenu d’entrée, le service effectue une analyse initiale légère du contenu d’entrée et utilise les résultats pour déterminer le nombre optimal de couches, le débit approprié et les paramètres de résolution pour la livraison par diffusion en continu adaptative. Ce préréglage est particulièrement efficace pour les vidéos de complexité faible ou moyenne, où les fichiers de sortie auront des vitesses de transmission inférieures, mais une qualité qui permettra aux viewers d’avoir une bonne expérience. La sortie contiendra des fichiers MP4 avec vidéo et audio entrelacées. |
ContentAwareEncodingExperimental |
string |
Expose une présélection expérimentale pour l’encodage prenant en charge le contenu. Étant donné un contenu d’entrée, le service tente de déterminer automatiquement le nombre optimal de couches, le débit approprié et les paramètres de résolution pour la remise par streaming adaptatif. Les algorithmes sous-jacents continueront à évoluer au fil du temps. La sortie contiendra des fichiers MP4 avec vidéo et audio entrelacées. |
CopyAllBitrateNonInterleaved |
string |
Copiez tous les flux vidéo et audio de la ressource d’entrée en tant que fichiers de sortie vidéo et audio non entrelacés. Cette présélection permet de découper une ressource existante ou de convertir un groupe de fichiers MP4 alignés sur une image clé en tant que ressource pouvant être diffusée en continu. |
DDGoodQualityAudio |
string |
Produit un fichier MP4 unique contenant uniquement de l’audio stéréo DD(Digital Dolby) encodé à 192 kbits/s. |
H264MultipleBitrate1080p |
string |
Produit un ensemble de 8 fichiers MP4 alignés sur le GOP, allant de 6 000 kbits/s à 400 kbits/s, et de l’audio stéréo AAC. La résolution commence à 1080p et descend à 180p. |
H264MultipleBitrate720p |
string |
Produit un ensemble de 6 fichiers MP4 alignés sur le goP, allant de 3400 kbits/s à 400 kbits/s, et de l’audio stéréo AAC. La résolution commence à 720p et descend à 180p. |
H264MultipleBitrateSD |
string |
Produit un ensemble de 5 fichiers MP4 alignés sur le goP, allant de 1900 kbits/s à 400 kbits/s, et de l’audio stéréo AAC. La résolution commence à 480p et descend à 240p. |
H264SingleBitrate1080p |
string |
Produit un fichier MP4 dans lequel la vidéo est encodée avec le codec H.264 à 6750 kbits/s et une hauteur d’image de 1 080 pixels, et l’audio stéréo est encodé avec le codec AAC-LC à 128 kbits/s. |
H264SingleBitrate720p |
string |
Produit un fichier MP4 dans lequel la vidéo est encodée avec le codec H.264 à 4 500 kbit/s et une hauteur d’image de 720 pixels, et l’audio stéréo est encodé avec le codec AAC-LC à 128 kbits/s. |
H264SingleBitrateSD |
string |
Produit un fichier MP4 dans lequel la vidéo est encodée avec le codec H.264 à 2200 kbits/s et une hauteur d’image de 480 pixels, et l’audio stéréo est encodé avec le codec AAC-LC à 128 kbits/s. |
H265AdaptiveStreaming |
string |
Produit un ensemble de fichiers MP4 alignés sur le groupe d’images avec une vidéo H.265 et un son AAC stéréo. Génère automatiquement une échelle de vitesse de transmission basée sur la résolution d’entrée, la vitesse de transmission et la fréquence d’images. Le préréglage généré automatiquement ne dépassera jamais la résolution d’entrée. Par exemple, si l’entrée est en 720p, la sortie restera au mieux en 720p. |
H265ContentAwareEncoding |
string |
Produit un ensemble de fichiers MP4 alignés sur le groupe d’images en utilisant un encodage adapté au contenu. Étant donné un contenu d’entrée, le service effectue une analyse initiale légère du contenu d’entrée et utilise les résultats pour déterminer le nombre optimal de couches, le débit approprié et les paramètres de résolution pour la livraison par diffusion en continu adaptative. Ce préréglage est particulièrement efficace pour les vidéos de complexité faible ou moyenne, où les fichiers de sortie auront des vitesses de transmission inférieures, mais une qualité qui permettra aux viewers d’avoir une bonne expérience. La sortie contiendra des fichiers MP4 avec vidéo et audio entrelacées. |
H265SingleBitrate1080p |
string |
Produit un fichier MP4 dans lequel la vidéo est encodée avec le codec H.265 à 3 500 kbit/s et une hauteur d’image de 1 080 pixels, et l’audio stéréo est encodé avec le codec AAC-LC à 128 kbits/s. |
H265SingleBitrate4K |
string |
Produit un fichier MP4 où la vidéo est encodée avec le codec H.265 à 9500 kbit/s et une hauteur d’image de 2160 pixels, et l’audio stéréo est encodé avec le codec AAC-LC à 128 kbits/s. |
H265SingleBitrate720p |
string |
Produit un fichier MP4 dans lequel la vidéo est encodée avec le codec H.265 à 1800 kbits/s et une hauteur d’image de 720 pixels, et l’audio stéréo est encodé avec le codec AAC-LC à 128 kbits/s. |
EntropyMode
Mode d’entropie à utiliser pour cette couche. S’il n’est pas spécifié, l’encodeur choisit le mode approprié pour le profil et le niveau.
Nom | Type | Description |
---|---|---|
Cabac |
string |
Encodage d’entropie cabac (Context Adaptive Binary Arithmetic Coder). |
Cavlc |
string |
Encodage d’entropie CAVLC (Context Adaptive Variable Length Coder). |
ErrorAdditionalInfo
Informations supplémentaires sur l’erreur de gestion des ressources.
Nom | Type | Description |
---|---|---|
info |
object |
Informations supplémentaires |
type |
string |
Type d’informations supplémentaires. |
ErrorDetail
Détail de l’erreur.
Nom | Type | Description |
---|---|---|
additionalInfo |
Informations supplémentaires sur l’erreur. |
|
code |
string |
Code d'erreur. |
details |
Détails de l’erreur. |
|
message |
string |
Message d’erreur. |
target |
string |
Cible d’erreur. |
ErrorResponse
Réponse d’erreur
Nom | Type | Description |
---|---|---|
error |
Objet d’erreur. |
FaceDetectorPreset
Décrit tous les paramètres à utiliser lors de l’analyse d’une vidéo afin de détecter (et éventuellement d’effacer) tous les visages présents.
Nom | Type | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
Discriminateur pour les types dérivés. |
blurType |
Type flou |
|
experimentalOptions |
object |
Dictionnaire contenant des paires de valeurs de clé pour les paramètres non exposés dans la présélection elle-même |
mode |
Ce mode permet de choisir entre les paramètres suivants : 1) Analyser - Pour la détection uniquement. Ce mode génère un fichier JSON de métadonnées marquant les apparences des visages tout au long de la vidéo. Lorsque cela est possible, les apparences de la même personne se voient attribuer le même ID. 2) Combiné - En outre, les visages détectés sont flous(flous). 3) Rédaction : cela active un processus à 2 étapes, ce qui permet la rédaction sélective d’un sous-ensemble de visages détectés. Il prend le fichier de métadonnées d’une passe d’analyse précédente, ainsi que la vidéo source et un sous-ensemble d’ID sélectionnés par l’utilisateur qui nécessitent une rédaction. |
|
resolution |
Spécifie la résolution maximale à laquelle votre vidéo est analysée. Le comportement par défaut est « SourceResolution », qui maintient la vidéo d’entrée à sa résolution d’origine lors de l’analyse. L’utilisation de « StandardDefinition » permet de redimensionner les vidéos d’entrée à la définition standard tout en préservant le rapport d’aspect approprié. Elle ne sera redimensionnée que si la vidéo est d’une résolution plus élevée. Par exemple, une entrée 1920x1080 est mise à l’échelle à 640x360 avant le traitement. Le passage à « StandardDefinition » réduit le temps nécessaire pour traiter la vidéo haute résolution. Cela peut également réduire le coût d’utilisation de ce composant (voir https://azure.microsoft.com/en-us/pricing/details/media-services/#analytics pour plus d’informations). Toutefois, les visages qui finissent par être trop petits dans la vidéo redimensionnée peuvent ne pas être détectés. |
FaceRedactorMode
Ce mode offre la possibilité de choisir entre les paramètres suivants : 1) Analyser - Pour la détection uniquement. Ce mode génère un fichier JSON de métadonnées marquant l’apparence des visages tout au long de la vidéo. Lorsque cela est possible, les apparences de la même personne se voient attribuer le même ID. 2) Combiné - En outre, les visages détectés sont éparses(flous). 3) Rédaction : permet un processus à 2 passes, ce qui permet la rédaction sélective d’un sous-ensemble de visages détectés. Il prend le fichier de métadonnées d’une passe d’analyse précédente, ainsi que la vidéo source et un sous-ensemble d’ID sélectionnés par l’utilisateur qui nécessitent une rédaction.
Nom | Type | Description |
---|---|---|
Analyze |
string |
Le mode Analyse détecte les visages et génère un fichier de métadonnées avec les résultats. Permet de modifier le fichier de métadonnées avant que les visages ne soient flous avec le mode Rédaction. |
Combined |
string |
Le mode combiné effectue les étapes Analyser et Rédaction en une seule passe lorsque la modification des visages analysés n’est pas souhaitée. |
Redact |
string |
Le mode Rédaction utilise le fichier de métadonnées du mode Analyse et réacte les visages trouvés. |
Fade
Décrit les propriétés d’un effet Fondu appliqué au média d’entrée.
Nom | Type | Description |
---|---|---|
duration |
string |
Durée de l’effet de fondu dans la vidéo. La valeur peut être au format ISO 8601 (par exemple, PT05S pour faire disparaître une couleur entrée/sortie pendant 5 secondes), ou un nombre d’images (par exemple, 10 pour faire disparaître 10 images à partir de l’heure de début), ou une valeur relative à la durée du flux (par exemple, 10 % pour faire disparaître 10 % de la durée du flux) |
fadeColor |
string |
Couleur de l’entrée/sortie fondue. il peut s’agir des couleurs https://developer.mozilla.org/en-US/docs/Web/CSS/color_value/color_keywords CSS Level1 ou d’une valeur RVB/hexadécimale : par exemple rvb(255,0,0), 0xFF0000 ou #FF0000 |
start |
string |
Position dans la vidéo d’entrée à partir de l’endroit où commencer à disparaître. La valeur peut être au format ISO 8601 (par exemple, PT05S pour commencer à 5 secondes) ou un nombre de cadres (par exemple, 10 pour commencer au dixième cadre) ou une valeur relative à la durée du flux (par exemple, 10 % pour commencer à 10 % de la durée du flux). La valeur par défaut est 0 |
Filters
Décrit toutes les opérations de filtrage, telles que le désentlacement, la rotation, etc. qui doivent être appliquées au média d’entrée avant l’encodage.
Nom | Type | Description |
---|---|---|
crop |
Paramètres de la fenêtre rectangulaire avec laquelle rogner la vidéo d’entrée. |
|
deinterlace |
Paramètres de désentlacement. |
|
fadeIn |
Décrit les propriétés d’un effet Fondu appliqué au média d’entrée. |
|
fadeOut |
Décrit les propriétés d’un effet Fondu appliqué au média d’entrée. |
|
overlays | Overlay[]: |
Propriétés des superpositions à appliquer à la vidéo d’entrée. Il peut s’agir de superpositions audio, image ou vidéo. |
rotation |
Rotation, le cas échéant, à appliquer à la vidéo d’entrée, avant qu’elle ne soit encodée. La valeur par défaut est Auto |
H264Complexity
Indique à l’encodeur comment choisir ses paramètres d’encodage. La valeur par défaut est Équilibrée.
Nom | Type | Description |
---|---|---|
Balanced |
string |
Indique à l’encodeur d’utiliser des paramètres qui permettent d’équilibrer la vitesse et la qualité. |
Quality |
string |
Indique à l’encodeur d’utiliser des paramètres optimisés pour produire une sortie de qualité supérieure au détriment d’un temps d’encodage global plus lent. |
Speed |
string |
Indique à l’encodeur d’utiliser des paramètres optimisés pour un encodage plus rapide. La qualité est sacrifiée pour réduire le temps d’encodage. |
H264Layer
Décrit les paramètres à utiliser lors de l’encodage de la vidéo d’entrée dans une couche de débit de sortie souhaitée avec le codec vidéo H.264.
Nom | Type | Description |
---|---|---|
adaptiveBFrame |
boolean |
Indique si les images B adaptatives doivent être utilisées lors de l’encodage de cette couche. S’il n’est pas spécifié, l’encodeur l’active chaque fois que le profil vidéo autorise son utilisation. |
bFrames |
integer |
Nombre d’images B à utiliser lors de l’encodage de cette couche. S’il n’est pas spécifié, l’encodeur choisit un nombre approprié en fonction du profil et du niveau vidéo. |
bitrate |
integer |
Débit moyen en bits par seconde auquel encoder la vidéo d’entrée lors de la génération de cette couche. Ce champ est obligatoire. |
bufferWindow |
string |
Longueur de la fenêtre de la mémoire tampon VBV. La valeur doit être au format ISO 8601. La valeur doit être comprise dans la plage [0,1-100] secondes. La valeur par défaut est de 5 secondes (par exemple, PT5S). |
crf |
number |
Valeur de CRF à utiliser lors de l’encodage de cette couche. Ce paramètre prend effet lorsque RateControlMode du codec vidéo est défini en mode CRF. La plage de valeur CRF est comprise entre 0 et 51, où des valeurs inférieures entraîneraient une meilleure qualité, au détriment de tailles de fichiers plus élevées. Des valeurs plus élevées signifient plus de compression, mais à un moment donné, une dégradation de la qualité sera remarquée. La valeur par défaut est 23. |
entropyMode |
Mode d’entropie à utiliser pour cette couche. S’il n’est pas spécifié, l’encodeur choisit le mode approprié pour le profil et le niveau. |
|
frameRate |
string |
Fréquence d’images (en images par seconde) à laquelle encoder cette couche. La valeur peut être sous la forme de M/N où M et N sont des entiers (par exemple, 30000/1001) ou sous la forme d’un nombre (par exemple, 30 ou 29,97). L’encodeur applique des contraintes sur les fréquences d’images autorisées en fonction du profil et du niveau. Si elle n’est pas spécifiée, l’encodeur utilise la même fréquence d’images que la vidéo d’entrée. |
height |
string |
Hauteur de la vidéo de sortie pour cette couche. La valeur peut être absolue (en pixels) ou relative (en pourcentage). Par exemple, 50 % signifie que la vidéo de sortie a deux fois moins de pixels en hauteur que l’entrée. |
label |
string |
Étiquette alphanumérique pour cette couche, qui peut être utilisée dans le multiplexage de différentes couches vidéo et audio, ou dans le nommage du fichier de sortie. |
level |
string |
Nous prenons actuellement en charge level jusqu’à la version 6.2. La valeur peut être Auto ou un nombre qui correspond au profil H.264. Si elle n’est pas spécifiée, la valeur par défaut est Auto, ce qui permet à l’encodeur de choisir le niveau approprié pour cette couche. |
maxBitrate |
integer |
Débit maximal (en bits par seconde), auquel la mémoire tampon VBV doit être supposée être rechargée. S’il n’est pas spécifié, la valeur par défaut est la même que la vitesse de transmission. |
profile |
Nous prenons actuellement en charge Baseline, Main, High, High422, High444. La valeur par défaut est Auto. |
|
referenceFrames |
integer |
Nombre de cadres de référence à utiliser lors de l’encodage de cette couche. S’il n’est pas spécifié, l’encodeur détermine un nombre approprié en fonction du paramètre de complexité de l’encodeur. |
slices |
integer |
Nombre de tranches à utiliser lors de l’encodage de cette couche. Si elle n’est pas spécifiée, la valeur par défaut est égale à zéro, ce qui signifie que l’encodeur utilise une seule tranche pour chaque image. |
width |
string |
Largeur de la vidéo de sortie pour cette couche. La valeur peut être absolue (en pixels) ou relative (en pourcentage). Par exemple, 50 % signifie que la vidéo de sortie a deux fois moins de pixels de largeur que l’entrée. |
H264RateControlMode
Mode de contrôle de la fréquence vidéo
Nom | Type | Description |
---|---|---|
ABR |
string |
Mode de vitesse de transmission moyenne (ABR) qui atteint la vitesse de transmission cible : mode par défaut. |
CBR |
string |
Mode CBR (Vitesse de transmission constante) qui resserre les variations de débit autour de la vitesse de transmission cible. |
CRF |
string |
Mode CRF (Constant Rate Factor) qui cible une qualité subjective constante. |
H264Video
Décrit toutes les propriétés d’encodage d’une vidéo avec le codec H.264.
Nom | Type | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
Discriminateur pour les types dérivés. |
complexity |
Indique à l’encodeur comment choisir ses paramètres d’encodage. La valeur par défaut est Équilibrée. |
|
keyFrameInterval |
string |
Distance entre deux images clés. La valeur doit être différente de zéro dans la plage [0,5, 20] secondes, spécifiée au format ISO 8601. La valeur par défaut est 2 secondes (PT2S). Notez que ce paramètre est ignoré si VideoSyncMode.Passthrough est défini, où la valeur KeyFrameInterval suit le paramètre de source d’entrée. |
label |
string |
Étiquette facultative pour le codec. L’étiquette peut être utilisée pour contrôler le comportement de multiplexage. |
layers |
Collection de couches H.264 de sortie à produire par l’encodeur. |
|
rateControlMode |
Mode de contrôle de la fréquence vidéo |
|
sceneChangeDetection |
boolean |
Le fait que l’encodeur doit insérer ou non des cadres clés au niveau de la scène change. Si elle n’est pas spécifiée, la valeur par défaut est false. Cet indicateur doit avoir la valeur true uniquement lorsque l’encodeur est configuré pour produire une seule vidéo de sortie. |
stretchMode |
Mode de redimensionnement : comment la vidéo d’entrée sera redimensionnée pour s’adapter à la ou aux résolutions de sortie souhaitées. La valeur par défaut est AutoSize |
|
syncMode |
Mode de synchronisation vidéo |
H264VideoProfile
Nous prenons actuellement en charge Baseline, Main, High, High422, High444. La valeur par défaut est Auto.
Nom | Type | Description |
---|---|---|
Auto |
string |
Indique à l’encodeur de déterminer automatiquement le profil H.264 approprié. |
Baseline |
string |
Profil de référence |
High |
string |
Profil élevé. |
High422 |
string |
Profil 4 :2 :2 élevé. |
High444 |
string |
Profil prédictif 4 :4 :4 élevé. |
Main |
string |
Profil principal |
H265Complexity
Indique à l’encodeur comment choisir ses paramètres d’encodage. La qualité offre un taux de compression plus élevé, mais à un coût plus élevé et un temps de calcul plus long. Speed produira un fichier relativement plus volumineux, mais est plus rapide et plus économique. La valeur par défaut est Équilibrée.
Nom | Type | Description |
---|---|---|
Balanced |
string |
Indique à l’encodeur d’utiliser des paramètres qui permettent d’atteindre un équilibre entre vitesse et qualité. |
Quality |
string |
Indique à l’encodeur d’utiliser des paramètres optimisés pour produire une sortie de qualité supérieure au détriment d’un temps d’encodage global plus lent. |
Speed |
string |
Indique à l’encodeur d’utiliser des paramètres optimisés pour accélérer l’encodage. La qualité est sacrifiée pour réduire le temps d’encodage. |
H265Layer
Décrit les paramètres à utiliser lors de l’encodage de la vidéo d’entrée dans une couche de débit de sortie souhaitée avec le codec vidéo H.265.
Nom | Type | Description |
---|---|---|
adaptiveBFrame |
boolean |
Spécifie si les images B adaptatives doivent être utilisées lors de l’encodage de cette couche. S’il n’est pas spécifié, l’encodeur l’active chaque fois que le profil vidéo autorise son utilisation. |
bFrames |
integer |
Nombre d’images B à utiliser lors de l’encodage de cette couche. S’il n’est pas spécifié, l’encodeur choisit un nombre approprié en fonction du profil et du niveau vidéo. |
bitrate |
integer |
Débit moyen en bits par seconde auquel encoder la vidéo d’entrée lors de la génération de cette couche. Par exemple : une vitesse de transmission cible de 3 000 Kbits/s ou 3 Mbits/s signifie que cette valeur doit être 3000000 Il s’agit d’un champ obligatoire. |
bufferWindow |
string |
Longueur de la fenêtre de la mémoire tampon VBV. La valeur doit être au format ISO 8601. La valeur doit être comprise dans la plage [0,1-100] secondes. La valeur par défaut est de 5 secondes (par exemple, PT5S). |
crf |
number |
Valeur de CRF à utiliser lors de l’encodage de cette couche. Ce paramètre prend effet lorsque RateControlMode du codec vidéo est défini en mode CRF. La plage de valeur CRF est comprise entre 0 et 51, où des valeurs inférieures entraîneraient une meilleure qualité, au détriment de tailles de fichiers plus élevées. Des valeurs plus élevées signifient plus de compression, mais à un moment donné, une dégradation de la qualité sera remarquée. La valeur par défaut est 28. |
frameRate |
string |
Fréquence d’images (en images par seconde) à laquelle encoder cette couche. La valeur peut être sous la forme de M/N où M et N sont des entiers (par exemple, 30000/1001) ou sous la forme d’un nombre (par exemple, 30 ou 29,97). L’encodeur applique des contraintes sur les fréquences d’images autorisées en fonction du profil et du niveau. Si elle n’est pas spécifiée, l’encodeur utilise la même fréquence d’images que la vidéo d’entrée. |
height |
string |
Hauteur de la vidéo de sortie pour cette couche. La valeur peut être absolue (en pixels) ou relative (en pourcentage). Par exemple, 50 % signifie que la vidéo de sortie a deux fois moins de pixels en hauteur que l’entrée. |
label |
string |
Étiquette alphanumérique pour cette couche, qui peut être utilisée dans le multiplexage de différentes couches vidéo et audio, ou dans le nommage du fichier de sortie. |
level |
string |
Nous prenons actuellement en charge level jusqu’à la version 6.2. La valeur peut être Auto ou un nombre qui correspond au profil H.265. Si elle n’est pas spécifiée, la valeur par défaut est Auto, ce qui permet à l’encodeur de choisir le niveau approprié pour cette couche. |
maxBitrate |
integer |
Débit maximal (en bits par seconde), auquel la mémoire tampon VBV doit être supposée être rechargée. S’il n’est pas spécifié, la valeur par défaut est la même que la vitesse de transmission. |
profile |
Nous prenons actuellement en charge Main. La valeur par défaut est Auto. |
|
referenceFrames |
integer |
Nombre de cadres de référence à utiliser lors de l’encodage de cette couche. S’il n’est pas spécifié, l’encodeur détermine un nombre approprié en fonction du paramètre de complexité de l’encodeur. |
slices |
integer |
Nombre de tranches à utiliser lors de l’encodage de cette couche. Si elle n’est pas spécifiée, la valeur par défaut est égale à zéro, ce qui signifie que l’encodeur utilise une seule tranche pour chaque image. |
width |
string |
Largeur de la vidéo de sortie pour cette couche. La valeur peut être absolue (en pixels) ou relative (en pourcentage). Par exemple, 50 % signifie que la vidéo de sortie a deux fois moins de pixels de largeur que l’entrée. |
H265Video
Décrit toutes les propriétés d’encodage d’une vidéo avec le codec H.265.
Nom | Type | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
Discriminateur pour les types dérivés. |
complexity |
Indique à l’encodeur comment choisir ses paramètres d’encodage. La qualité fournit un taux de compression plus élevé, mais à un coût plus élevé et un temps de calcul plus long. La vitesse produit un fichier relativement plus volumineux, mais est plus rapide et plus économique. La valeur par défaut est Équilibrée. |
|
keyFrameInterval |
string |
Distance entre deux images clés. La valeur doit être différente de zéro dans la plage [0,5, 20] secondes, spécifiée au format ISO 8601. La valeur par défaut est 2 secondes (PT2S). Notez que ce paramètre est ignoré si VideoSyncMode.Passthrough est défini, où la valeur KeyFrameInterval suit le paramètre de source d’entrée. |
label |
string |
Étiquette facultative pour le codec. L’étiquette peut être utilisée pour contrôler le comportement de multiplexage. |
layers |
Collection de couches H.265 de sortie à produire par l’encodeur. |
|
sceneChangeDetection |
boolean |
Spécifie si l’encodeur doit insérer des cadres clés lors des modifications de scène. Si elle n’est pas spécifiée, la valeur par défaut est false. Cet indicateur doit avoir la valeur true uniquement lorsque l’encodeur est configuré pour produire une seule vidéo de sortie. |
stretchMode |
Mode de redimensionnement : comment la vidéo d’entrée sera redimensionnée pour s’adapter à la ou aux résolutions de sortie souhaitées. La valeur par défaut est AutoSize |
|
syncMode |
Mode de synchronisation vidéo |
H265VideoProfile
Nous prenons actuellement en charge Main. La valeur par défaut est Auto.
Nom | Type | Description |
---|---|---|
Auto |
string |
Indique à l’encodeur de déterminer automatiquement le profil H.265 approprié. |
Main |
string |
Profil principal (https://x265.readthedocs.io/en/default/cli.html?highlight=profile#profile-level-tier) |
Main10 |
string |
Profil principal 10 (https://en.wikipedia.org/wiki/High_Efficiency_Video_Coding#Main_10) |
Image
Décrit les propriétés de base pour générer des miniatures à partir de la vidéo d’entrée
Nom | Type | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
Discriminateur pour les types dérivés. |
keyFrameInterval |
string |
Distance entre deux images clés. La valeur doit être différente de zéro dans la plage [0,5, 20] secondes, spécifiée au format ISO 8601. La valeur par défaut est 2 secondes (PT2S). Notez que ce paramètre est ignoré si VideoSyncMode.Passthrough est défini, où la valeur KeyFrameInterval suit le paramètre de source d’entrée. |
label |
string |
Étiquette facultative pour le codec. L’étiquette peut être utilisée pour contrôler le comportement de multiplexage. |
range |
string |
Position par rapport à l’heure de début prédéfinie de la transformation dans la vidéo d’entrée à laquelle arrêter la génération de miniatures. La valeur peut être au format ISO 8601 (par exemple, PT5M30S s’arrêter à 5 minutes et 30 secondes à partir de l’heure de début) ou un nombre d’images (par exemple, 300 pour s’arrêter à la 300e image de l’image au début. Si cette valeur est 1, cela signifie produire une seule miniature à l’heure de début) ou une valeur relative à la durée du flux (par exemple, 50 % pour s’arrêter à la moitié de la durée du flux à partir de l’heure de début). La valeur par défaut est 100 %, ce qui signifie qu’elle s’arrête à la fin du flux. |
start |
string |
Position dans la vidéo d’entrée à partir de laquelle commencer à générer des miniatures. La valeur peut être au format ISO 8601 (par exemple, PT05S pour commencer à 5 secondes) ou un nombre de cadres (par exemple, 10 pour commencer au dixième cadre) ou une valeur relative à la durée du flux (par exemple, 10 % pour commencer à 10 % de la durée du flux). Prend également en charge une macro {Best}, qui indique à l’encodeur de sélectionner la meilleure miniature parmi les premières secondes de la vidéo pour ne produire qu’une seule miniature, quels que soient les autres paramètres pour Étape et Plage. La valeur par défaut est macro {Best}. |
step |
string |
Intervalles auxquels les miniatures sont générées. La valeur peut être au format ISO 8601 (par exemple, PT05S pour une image toutes les 5 secondes), ou un nombre d’images (par exemple, 30 pour une image toutes les 30 images) ou une valeur relative à la durée du flux (par exemple, 10 % pour une image toutes les 10 % de la durée du flux). Remarque : La valeur de l’étape affecte la première miniature générée, qui peut ne pas être exactement celle spécifiée à l’heure de début de la présélection de transformation. Cela est dû à l’encodeur, qui tente de sélectionner la meilleure miniature entre l’heure de début et la position de l’étape à partir de l’heure de début comme première sortie. Comme la valeur par défaut est 10 %, cela signifie que si le flux a une longue durée, la première miniature générée peut être loin de celle spécifiée au début. Essayez de sélectionner la valeur raisonnable pour Étape si la première miniature est attendue proche de l’heure de début, ou définissez Valeur de plage sur 1 si une seule miniature est nécessaire au début. |
stretchMode |
Mode de redimensionnement : comment la vidéo d’entrée sera redimensionnée pour s’adapter à la ou aux résolutions de sortie souhaitées. La valeur par défaut est AutoSize |
|
syncMode |
Mode de synchronisation vidéo |
ImageFormat
Décrit les propriétés d’un fichier image de sortie.
Nom | Type | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
Discriminateur pour les types dérivés. |
filenamePattern |
string |
Modèle de nommage de fichiers utilisé pour la création de fichiers de sortie. Les macros suivantes sont prises en charge dans le nom de fichier : {Basename} - Macro d’extension qui utilisera le nom du fichier vidéo d’entrée. Si le nom de base (le suffixe de fichier n’est pas inclus) du fichier vidéo d’entrée contient moins de 32 caractères, le nom de base des fichiers vidéo d’entrée est utilisé. Si la longueur du nom de base du fichier vidéo d’entrée dépasse 32 caractères, le nom de base est tronqué à la longueur totale des 32 premiers caractères. {Extension} : extension appropriée pour ce format. {Label} : étiquette affectée au codec/à la couche. {Index} : index unique pour les miniatures. Applicable uniquement aux miniatures. {AudioStream} - chaîne « Audio » plus numéro de flux audio (commencez à partir de 1). {Bitrate} : débit audio/vidéo en kbits/s. Non applicable aux miniatures. {Codec} : type du codec audio/vidéo. {Résolution} : résolution vidéo. Toutes les macros non sous-traitées sont réduites et supprimées du nom de fichier. |
InsightsType
Définit le type d’insights que vous souhaitez que le service génère. Les valeurs autorisées sont « AudioInsightsOnly », « VideoInsightsOnly » et « AllInsights ». La valeur par défaut est AllInsights. Si vous définissez cette valeur sur AllInsights et que l’entrée est audio uniquement, seuls les insights audio sont générés. De même, si l’entrée est uniquement vidéo, seuls les insights vidéo sont générés. Il est recommandé de ne pas utiliser AudioInsightsOnly si vous vous attendez à ce que certaines de vos entrées soient uniquement vidéo ; ou utilisez VideoInsightsOnly si vous vous attendez à ce que certaines de vos entrées soient audio uniquement. Vos travaux dans de telles conditions seraient erronés.
Nom | Type | Description |
---|---|---|
AllInsights |
string |
Générez des insights audio et vidéo. Échoue si les insights audio ou vidéo échouent. |
AudioInsightsOnly |
string |
Générez des insights audio uniquement. Ignorer la vidéo même si elle est présente. Échoue si aucun audio n’est présent. |
VideoInsightsOnly |
string |
Générer des insights vidéo uniquement. Ignorez l’audio s’il est présent. Échoue si aucune vidéo n’est présente. |
InterleaveOutput
Définit le mode entrelacement de la sortie pour contrôler la façon dont l’audio et la vidéo sont stockés au format conteneur. Exemple : définissez InterleavedOutput sur NonInterleavedOutput pour produire des sorties audio uniquement et vidéo dans des fichiers MP4 distincts.
Nom | Type | Description |
---|---|---|
InterleavedOutput |
string |
La sortie inclut à la fois l’audio et la vidéo. |
NonInterleavedOutput |
string |
La sortie est vidéo uniquement ou audio. |
JpgFormat
Décrit les paramètres de production de miniatures JPEG.
Nom | Type | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
Discriminateur pour les types dérivés. |
filenamePattern |
string |
Modèle de nommage de fichiers utilisé pour la création de fichiers de sortie. Les macros suivantes sont prises en charge dans le nom de fichier : {Basename} - Macro d’extension qui utilisera le nom du fichier vidéo d’entrée. Si le nom de base (le suffixe de fichier n’est pas inclus) du fichier vidéo d’entrée contient moins de 32 caractères, le nom de base des fichiers vidéo d’entrée est utilisé. Si la longueur du nom de base du fichier vidéo d’entrée dépasse 32 caractères, le nom de base est tronqué à la longueur totale des 32 premiers caractères. {Extension} : extension appropriée pour ce format. {Label} : étiquette affectée au codec/à la couche. {Index} : index unique pour les miniatures. Applicable uniquement aux miniatures. {AudioStream} - chaîne « Audio » plus numéro de flux audio (commencez à partir de 1). {Bitrate} : débit audio/vidéo en kbits/s. Non applicable aux miniatures. {Codec} : type du codec audio/vidéo. {Résolution} : résolution vidéo. Toutes les macros non sous-traitées sont réduites et supprimées du nom de fichier. |
JpgImage
Décrit les propriétés permettant de produire une série d’images JPEG à partir de la vidéo d’entrée.
Nom | Type | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
Discriminateur pour les types dérivés. |
keyFrameInterval |
string |
Distance entre deux images clés. La valeur doit être différente de zéro dans la plage [0,5, 20] secondes, spécifiée au format ISO 8601. La valeur par défaut est 2 secondes (PT2S). Notez que ce paramètre est ignoré si VideoSyncMode.Passthrough est défini, où la valeur KeyFrameInterval suit le paramètre de source d’entrée. |
label |
string |
Étiquette facultative pour le codec. L’étiquette peut être utilisée pour contrôler le comportement de multiplexage. |
layers |
Jpg |
Collection de couches d’image JPEG de sortie à produire par l’encodeur. |
range |
string |
Position par rapport à l’heure de début prédéfinie de la transformation dans la vidéo d’entrée à laquelle arrêter la génération de miniatures. La valeur peut être au format ISO 8601 (par exemple, PT5M30S s’arrêter à 5 minutes et 30 secondes à partir de l’heure de début) ou un nombre d’images (par exemple, 300 pour s’arrêter à la 300e image de l’image au début. Si cette valeur est 1, cela signifie produire une seule miniature à l’heure de début) ou une valeur relative à la durée du flux (par exemple, 50 % pour s’arrêter à la moitié de la durée du flux à partir de l’heure de début). La valeur par défaut est 100 %, ce qui signifie qu’elle s’arrête à la fin du flux. |
spriteColumn |
integer |
Définit le nombre de colonnes utilisées dans l’image de sprite miniature. Le nombre de lignes est automatiquement calculé et un fichier VTT est généré avec les mappages de coordonnées pour chaque miniature du sprite. Remarque : cette valeur doit être un entier positif et une valeur appropriée est recommandée afin que la résolution de l’image de sortie ne dépasse pas la limite de résolution maximale de pixels JPEG 65535x65535. |
start |
string |
Position dans la vidéo d’entrée à partir de laquelle commencer à générer des miniatures. La valeur peut être au format ISO 8601 (par exemple, PT05S pour commencer à 5 secondes) ou un nombre de cadres (par exemple, 10 pour commencer au dixième cadre) ou une valeur relative à la durée du flux (par exemple, 10 % pour commencer à 10 % de la durée du flux). Prend également en charge une macro {Best}, qui indique à l’encodeur de sélectionner la meilleure miniature parmi les premières secondes de la vidéo pour ne produire qu’une seule miniature, quels que soient les autres paramètres pour Étape et Plage. La valeur par défaut est macro {Best}. |
step |
string |
Intervalles auxquels les miniatures sont générées. La valeur peut être au format ISO 8601 (par exemple, PT05S pour une image toutes les 5 secondes), ou un nombre d’images (par exemple, 30 pour une image toutes les 30 images) ou une valeur relative à la durée du flux (par exemple, 10 % pour une image toutes les 10 % de la durée du flux). Remarque : La valeur de l’étape affecte la première miniature générée, qui peut ne pas être exactement celle spécifiée à l’heure de début de la présélection de transformation. Cela est dû à l’encodeur, qui tente de sélectionner la meilleure miniature entre l’heure de début et la position de l’étape à partir de l’heure de début comme première sortie. Comme la valeur par défaut est 10 %, cela signifie que si le flux a une longue durée, la première miniature générée peut être loin de celle spécifiée au début. Essayez de sélectionner la valeur raisonnable pour Étape si la première miniature est attendue proche de l’heure de début, ou définissez Valeur de plage sur 1 si une seule miniature est nécessaire au début. |
stretchMode |
Mode de redimensionnement : comment la vidéo d’entrée sera redimensionnée pour s’adapter à la ou aux résolutions de sortie souhaitées. La valeur par défaut est AutoSize |
|
syncMode |
Mode de synchronisation vidéo |
JpgLayer
Décrit les paramètres pour produire une image JPEG à partir de la vidéo d’entrée.
Nom | Type | Description |
---|---|---|
height |
string |
Hauteur de la vidéo de sortie pour cette couche. La valeur peut être absolue (en pixels) ou relative (en pourcentage). Par exemple, 50 % signifie que la vidéo de sortie a deux fois moins de pixels en hauteur que l’entrée. |
label |
string |
Étiquette alphanumérique pour cette couche, qui peut être utilisée dans le multiplexage de différentes couches vidéo et audio, ou dans le nommage du fichier de sortie. |
quality |
integer |
Qualité de compression de la sortie JPEG. La plage est comprise entre 0 et 100 et la valeur par défaut est 70. |
width |
string |
Largeur de la vidéo de sortie pour cette couche. La valeur peut être absolue (en pixels) ou relative (en pourcentage). Par exemple, 50 % signifie que la vidéo de sortie a deux fois moins de pixels de largeur que l’entrée. |
Mp4Format
Décrit les propriétés d’un fichier MP4 ISO de sortie.
Nom | Type | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
Discriminateur pour les types dérivés. |
filenamePattern |
string |
Modèle de nommage de fichiers utilisé pour la création de fichiers de sortie. Les macros suivantes sont prises en charge dans le nom de fichier : {Basename} - Macro d’extension qui utilisera le nom du fichier vidéo d’entrée. Si le nom de base (le suffixe de fichier n’est pas inclus) du fichier vidéo d’entrée contient moins de 32 caractères, le nom de base des fichiers vidéo d’entrée est utilisé. Si la longueur du nom de base du fichier vidéo d’entrée dépasse 32 caractères, le nom de base est tronqué à la longueur totale des 32 premiers caractères. {Extension} : extension appropriée pour ce format. {Label} : étiquette affectée au codec/à la couche. {Index} : index unique pour les miniatures. Applicable uniquement aux miniatures. {AudioStream} - chaîne « Audio » plus numéro de flux audio (commencez à partir de 1). {Bitrate} : débit audio/vidéo en kbits/s. Non applicable aux miniatures. {Codec} : type du codec audio/vidéo. {Résolution} : résolution vidéo. Toutes les macros non sous-traitées sont réduites et supprimées du nom de fichier. |
outputFiles |
Liste des fichiers de sortie à produire. Chaque entrée de la liste est un ensemble d’étiquettes de couche audio et vidéo à ajouter. |
MultiBitrateFormat
Décrit les propriétés permettant de produire une collection de fichiers multi-débit alignés sur le goP. Le comportement par défaut consiste à produire un fichier de sortie pour chaque couche vidéo qui est muxé avec tous les audios. Les fichiers de sortie exacts produits peuvent être contrôlés en spécifiant la collection outputFiles.
Nom | Type | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
Discriminateur pour les types dérivés. |
filenamePattern |
string |
Modèle de nommage de fichiers utilisé pour la création de fichiers de sortie. Les macros suivantes sont prises en charge dans le nom de fichier : {Basename} - Macro d’extension qui utilisera le nom du fichier vidéo d’entrée. Si le nom de base (le suffixe de fichier n’est pas inclus) du fichier vidéo d’entrée contient moins de 32 caractères, le nom de base des fichiers vidéo d’entrée est utilisé. Si la longueur du nom de base du fichier vidéo d’entrée dépasse 32 caractères, le nom de base est tronqué à la longueur totale des 32 premiers caractères. {Extension} : extension appropriée pour ce format. {Label} : étiquette affectée au codec/à la couche. {Index} : index unique pour les miniatures. Applicable uniquement aux miniatures. {AudioStream} - chaîne « Audio » plus numéro de flux audio (commencez à partir de 1). {Bitrate} : débit audio/vidéo en kbits/s. Non applicable aux miniatures. {Codec} : type du codec audio/vidéo. {Résolution} : résolution vidéo. Toutes les macros non sous-traitées sont réduites et supprimées du nom de fichier. |
outputFiles |
Liste des fichiers de sortie à produire. Chaque entrée de la liste est un ensemble d’étiquettes de couche audio et vidéo à ajouter. |
OnErrorType
Une transformation peut définir plusieurs sorties. Cette propriété définit ce que le service doit faire en cas d’échec d’une sortie : soit continuer à produire d’autres sorties, soit arrêter les autres sorties. L’état global du travail ne reflète pas les échecs des sorties spécifiées avec « ContinueJob ». La valeur par défaut est « StopProcessingJob ».
Nom | Type | Description |
---|---|---|
ContinueJob |
string |
Indique au service que si ce TransformOutput échoue, autorisez tout autre TransformOutput à continuer. |
StopProcessingJob |
string |
Indique au service que si ce TransformOutput échoue, tous les autres TransformOutputs incomplets peuvent être arrêtés. |
OutputFile
Représente un fichier de sortie produit.
Nom | Type | Description |
---|---|---|
labels |
string[] |
Liste des étiquettes qui décrivent comment l’encodeur doit multiplexer la vidéo et l’audio dans un fichier de sortie. Par exemple, si l’encodeur produit deux couches vidéo avec des étiquettes v1 et v2, et une couche audio avec l’étiquette a1, un tableau comme « [v1, a1] » indique à l’encodeur de produire un fichier de sortie avec la piste vidéo représentée par v1 et la piste audio représentée par a1. |
PngFormat
Décrit les paramètres de production de miniatures PNG.
Nom | Type | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
Discriminateur pour les types dérivés. |
filenamePattern |
string |
Modèle de nommage de fichiers utilisé pour la création de fichiers de sortie. Les macros suivantes sont prises en charge dans le nom de fichier : {Basename} - Macro d’extension qui utilisera le nom du fichier vidéo d’entrée. Si le nom de base (le suffixe de fichier n’est pas inclus) du fichier vidéo d’entrée contient moins de 32 caractères, le nom de base des fichiers vidéo d’entrée est utilisé. Si la longueur du nom de base du fichier vidéo d’entrée dépasse 32 caractères, le nom de base est tronqué à la longueur totale des 32 premiers caractères. {Extension} : extension appropriée pour ce format. {Label} : étiquette affectée au codec/à la couche. {Index} : index unique pour les miniatures. Applicable uniquement aux miniatures. {AudioStream} - chaîne « Audio » plus numéro de flux audio (commencez à partir de 1). {Bitrate} : débit audio/vidéo en kbits/s. Non applicable aux miniatures. {Codec} : type du codec audio/vidéo. {Résolution} : résolution vidéo. Toutes les macros non sous-traitées sont réduites et supprimées du nom de fichier. |
PngImage
Décrit les propriétés permettant de produire une série d’images PNG à partir de la vidéo d’entrée.
Nom | Type | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
Discriminateur pour les types dérivés. |
keyFrameInterval |
string |
Distance entre deux images clés. La valeur doit être différente de zéro dans la plage [0,5, 20] secondes, spécifiée au format ISO 8601. La valeur par défaut est 2 secondes (PT2S). Notez que ce paramètre est ignoré si VideoSyncMode.Passthrough est défini, où la valeur KeyFrameInterval suit le paramètre de source d’entrée. |
label |
string |
Étiquette facultative pour le codec. L’étiquette peut être utilisée pour contrôler le comportement de multiplexage. |
layers |
Png |
Collection de couches d’image PNG de sortie à produire par l’encodeur. |
range |
string |
Position par rapport à l’heure de début prédéfinie de la transformation dans la vidéo d’entrée à laquelle arrêter la génération de miniatures. La valeur peut être au format ISO 8601 (par exemple, PT5M30S s’arrêter à 5 minutes et 30 secondes à partir de l’heure de début) ou un nombre d’images (par exemple, 300 pour s’arrêter à la 300e image de l’image au début. Si cette valeur est 1, cela signifie produire une seule miniature à l’heure de début) ou une valeur relative à la durée du flux (par exemple, 50 % pour s’arrêter à la moitié de la durée du flux à partir de l’heure de début). La valeur par défaut est 100 %, ce qui signifie qu’elle s’arrête à la fin du flux. |
start |
string |
Position dans la vidéo d’entrée à partir de laquelle commencer à générer des miniatures. La valeur peut être au format ISO 8601 (par exemple, PT05S pour commencer à 5 secondes) ou un nombre de cadres (par exemple, 10 pour commencer au dixième cadre) ou une valeur relative à la durée du flux (par exemple, 10 % pour commencer à 10 % de la durée du flux). Prend également en charge une macro {Best}, qui indique à l’encodeur de sélectionner la meilleure miniature parmi les premières secondes de la vidéo pour ne produire qu’une seule miniature, quels que soient les autres paramètres pour Étape et Plage. La valeur par défaut est macro {Best}. |
step |
string |
Intervalles auxquels les miniatures sont générées. La valeur peut être au format ISO 8601 (par exemple, PT05S pour une image toutes les 5 secondes), ou un nombre d’images (par exemple, 30 pour une image toutes les 30 images) ou une valeur relative à la durée du flux (par exemple, 10 % pour une image toutes les 10 % de la durée du flux). Remarque : La valeur de l’étape affecte la première miniature générée, qui peut ne pas être exactement celle spécifiée à l’heure de début de la présélection de transformation. Cela est dû à l’encodeur, qui tente de sélectionner la meilleure miniature entre l’heure de début et la position de l’étape à partir de l’heure de début comme première sortie. Comme la valeur par défaut est 10 %, cela signifie que si le flux a une longue durée, la première miniature générée peut être loin de celle spécifiée au début. Essayez de sélectionner la valeur raisonnable pour Étape si la première miniature est attendue proche de l’heure de début, ou définissez Valeur de plage sur 1 si une seule miniature est nécessaire au début. |
stretchMode |
Mode de redimensionnement : comment la vidéo d’entrée sera redimensionnée pour s’adapter à la ou aux résolutions de sortie souhaitées. La valeur par défaut est AutoSize |
|
syncMode |
Mode de synchronisation vidéo |
PngLayer
Décrit les paramètres pour produire une image PNG à partir de la vidéo d’entrée.
Nom | Type | Description |
---|---|---|
height |
string |
Hauteur de la vidéo de sortie pour cette couche. La valeur peut être absolue (en pixels) ou relative (en pourcentage). Par exemple, 50 % signifie que la vidéo de sortie a deux fois moins de pixels en hauteur que l’entrée. |
label |
string |
Étiquette alphanumérique de cette couche, qui peut être utilisée dans le multiplexage de différentes couches vidéo et audio, ou dans le nommage du fichier de sortie. |
width |
string |
Largeur de la vidéo de sortie pour cette couche. La valeur peut être absolue (en pixels) ou relative (en pourcentage). Par exemple, 50 % signifie que la vidéo de sortie a deux fois moins de pixels que l’entrée. |
PresetConfigurations
Objet de paramètres de configuration facultatifs pour l’encodeur.
Nom | Type | Description |
---|---|---|
complexity |
Permet de configurer les paramètres de l’encodeur afin de contrôler l’équilibre entre la vitesse et la qualité. Exemple : définissez Complexité sur Vitesse pour accélérer l’encodage, mais réduire l’efficacité de la compression. |
|
interleaveOutput |
Définit le mode entrelacement de la sortie pour contrôler la façon dont l’audio et la vidéo sont stockés au format conteneur. Exemple : définissez InterleavedOutput sur NonInterleavedOutput pour produire des sorties audio uniquement et vidéo dans des fichiers MP4 distincts. |
|
keyFrameIntervalInSeconds |
number |
Intervalle d’images clés en secondes. Exemple : définissez KeyFrameIntervalInSeconds sur 2 pour réduire la mise en mémoire tampon de lecture pour certains joueurs. |
maxBitrateBps |
integer |
Débit maximal en bits par seconde (seuil pour la couche vidéo supérieure). Exemple : définissez MaxBitrateBps sur 6000000 pour éviter de produire des sorties à débit binaire très élevé pour le contenu avec une complexité élevée. |
maxHeight |
integer |
Hauteur maximale des couches vidéo de sortie. Exemple : définissez MaxHeight sur 720 pour produire des couches de sortie allant jusqu’à 720P, même si l’entrée est de 4 Ko. |
maxLayers |
integer |
Nombre maximal de couches vidéo de sortie. Exemple : définissez MaxLayers sur 4 pour vous assurer qu’au maximum 4 couches de sortie sont produites pour contrôler le coût global du travail d’encodage. |
minBitrateBps |
integer |
Débit minimal en bits par seconde (seuil pour la couche vidéo inférieure). Exemple : définissez MinBitrateBps sur 200000 pour avoir une couche inférieure qui couvre les utilisateurs avec une bande passante réseau faible. |
minHeight |
integer |
Hauteur minimale des couches vidéo de sortie. Exemple : définissez MinHeight sur 360 pour éviter les couches de sortie de résolutions plus petites comme 180P. |
Priority
Définit la priorité relative des TransformOutputs dans une transformation. Cela définit la priorité que le service utilise pour traiter TransformOutputs. La priorité par défaut est Normal.
Nom | Type | Description |
---|---|---|
High |
string |
Utilisé pour TransformOutputs qui doivent être prioritaires sur d’autres. |
Low |
string |
Utilisé pour les TransformOutputs qui peuvent être générés après Les TransformOutputs à priorité normale et élevée. |
Normal |
string |
Utilisé pour TransformOutputs qui peuvent être générés à priorité Normale. |
Rectangle
Décrit les propriétés d’une fenêtre rectangulaire appliquée au média d’entrée avant de le traiter.
Nom | Type | Description |
---|---|---|
height |
string |
Hauteur de la zone rectangulaire en pixels. Il peut s’agir d’une valeur absolue en pixels (par exemple, 100) ou par rapport à la taille de la vidéo (par exemple, 50 %). |
left |
string |
Nombre de pixels à partir de la marge de gauche. Il peut s’agir d’une valeur absolue en pixels (par exemple, 100) ou par rapport à la taille de la vidéo (par exemple, 50 %). |
top |
string |
Nombre de pixels à partir de la marge supérieure. Il peut s’agir d’une valeur absolue en pixels (par exemple, 100) ou par rapport à la taille de la vidéo (par exemple, 50 %). |
width |
string |
Largeur de la zone rectangulaire en pixels. Il peut s’agir d’une valeur absolue en pixels (par exemple, 100) ou par rapport à la taille de la vidéo (par exemple, 50 %). |
Rotation
Rotation, le cas échéant, à appliquer à la vidéo d’entrée, avant qu’elle ne soit encodée. La valeur par défaut est Auto
Nom | Type | Description |
---|---|---|
Auto |
string |
Détecter et faire pivoter automatiquement en fonction des besoins. |
None |
string |
Ne faites pas pivoter la vidéo. Si le format de sortie le prend en charge, toutes les métadonnées relatives à la rotation sont conservées intactes. |
Rotate0 |
string |
Ne faites pas pivoter la vidéo, mais supprimez les métadonnées relatives à la rotation. |
Rotate180 |
string |
Faire pivoter de 180 degrés dans le sens des aiguilles d’une montre. |
Rotate270 |
string |
Faire pivoter de 270 degrés dans le sens des aiguilles d’une montre. |
Rotate90 |
string |
Faire pivoter de 90 degrés dans le sens des aiguilles d’une montre. |
StandardEncoderPreset
Décrit tous les paramètres à utiliser lors de l’encodage de la vidéo d’entrée avec l’encodeur standard.
Nom | Type | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
Discriminateur pour les types dérivés. |
codecs | Codec[]: |
Liste des codecs à utiliser lors de l’encodage de la vidéo d’entrée. |
experimentalOptions |
object |
Dictionnaire contenant des paires de valeurs de clé pour les paramètres non exposés dans la présélection elle-même |
filters |
Une ou plusieurs opérations de filtrage appliquées au média d’entrée avant l’encodage. |
|
formats | Format[]: |
Liste des sorties à produire par l’encodeur. |
StretchMode
Mode de redimensionnement : comment la vidéo d’entrée sera redimensionnée pour s’adapter aux résolutions de sortie souhaitées. La valeur par défaut est AutoSize
Nom | Type | Description |
---|---|---|
AutoFit |
string |
Padez la sortie (avec la boîte aux lettres ou la zone de pilier) pour respecter la résolution de sortie, tout en vous assurant que la région vidéo active dans la sortie a le même rapport d’aspect que l’entrée. Par exemple, si l’entrée est 1920x1080 et que la présélection d’encodage demande 1280x1280, la sortie sera à 1280x1280, qui contient un rectangle interne de 1280x720 au rapport d’aspect de 16 :9, et les zones de piliers de 280 pixels de large à gauche et à droite. |
AutoSize |
string |
Remplacez la résolution de sortie et modifiez-la pour qu’elle corresponde au rapport d’affichage de l’entrée, sans remplissage. Par exemple, si l’entrée est 1920x1080 et la présélection d’encodage demande 1280x1280, la valeur dans la présélection est remplacée, et la sortie sera à 1280x720, qui conserve les proportions d’entrée en 16:9. |
None |
string |
Respectez strictement la résolution de sortie sans tenir compte du rapport d’aspect en pixels ou de l’affichage de la vidéo d’entrée. |
systemData
Métadonnées relatives à la création et à la dernière modification de la ressource.
Nom | Type | Description |
---|---|---|
createdAt |
string |
Horodatage de la création de ressources (UTC). |
createdBy |
string |
Identité qui a créé la ressource. |
createdByType |
Type d’identité qui a créé la ressource. |
|
lastModifiedAt |
string |
Horodatage de la dernière modification de la ressource (UTC) |
lastModifiedBy |
string |
Identité qui a modifié la dernière ressource. |
lastModifiedByType |
Type d’identité qui a modifié la dernière ressource. |
Transform
Une transformation encapsule les règles ou les instructions permettant de générer les sorties souhaitées à partir d’un support d’entrée, par exemple en transcodant ou en extrayant des insights. Une fois la transformation créée, elle peut être appliquée au média d’entrée en créant des travaux.
Nom | Type | Description |
---|---|---|
id |
string |
ID de ressource complet pour la ressource. Ex - /subscriptions/{subscriptionId}/resourceGroups/{resourceGroupName}/providers/{resourceProviderNamespace}/{resourceType}/{resourceName} |
name |
string |
nom de la ressource. |
properties.created |
string |
Date et heure UTC de création de la transformation, au format « AAAA-MM-JJThh:mm:ssZ ». |
properties.description |
string |
Description détaillée facultative de la transformation. |
properties.lastModified |
string |
Date et heure UTC de dernière modification de la transformation, au format « AAAA-MM-JJThh:mm:ssZ ». |
properties.outputs |
Tableau d’un ou plusieurs TransformOutputs que la transformation doit générer. |
|
systemData |
Métadonnées système relatives à cette ressource. |
|
type |
string |
Type de la ressource. Par exemple, « Microsoft.Compute/virtualMachines » ou « Microsoft.Storage/storageAccounts » |
TransformOutput
Décrit les propriétés d’un TransformOutput, qui sont les règles à appliquer lors de la génération de la sortie souhaitée.
Nom | Type | Description |
---|---|---|
onError |
Une transformation peut définir plusieurs sorties. Cette propriété définit ce que le service doit faire en cas d’échec d’une sortie : soit continuer à produire d’autres sorties, soit arrêter les autres sorties. L’état global du travail ne reflète pas les échecs des sorties spécifiées avec « ContinueJob ». La valeur par défaut est « StopProcessingJob ». |
|
preset | Preset: |
Présélection qui décrit les opérations qui seront utilisées pour modifier, transcoder ou extraire des insights du fichier source pour générer la sortie. |
relativePriority |
Définit la priorité relative des TransformOutputs dans une transformation. Cela définit la priorité que le service utilise pour traiter TransformOutputs. La priorité par défaut est Normal. |
TransportStreamFormat
Décrit les propriétés permettant de générer un ou plusieurs fichiers vidéo de sortie MPEG-2 Transport Stream (ISO/IEC 13818-1).
Nom | Type | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
Discriminateur pour les types dérivés. |
filenamePattern |
string |
Modèle de nommage de fichiers utilisé pour la création de fichiers de sortie. Les macros suivantes sont prises en charge dans le nom de fichier : {Basename} - Macro d’extension qui utilisera le nom du fichier vidéo d’entrée. Si le nom de base (le suffixe de fichier n’est pas inclus) du fichier vidéo d’entrée contient moins de 32 caractères, le nom de base des fichiers vidéo d’entrée est utilisé. Si la longueur du nom de base du fichier vidéo d’entrée dépasse 32 caractères, le nom de base est tronqué à la longueur totale des 32 premiers caractères. {Extension} : extension appropriée pour ce format. {Label} : étiquette affectée au codec/à la couche. {Index} : index unique pour les miniatures. Applicable uniquement aux miniatures. {AudioStream} - chaîne « Audio » plus numéro de flux audio (commencez à partir de 1). {Bitrate} : débit audio/vidéo en kbits/s. Non applicable aux miniatures. {Codec} : type du codec audio/vidéo. {Résolution} : résolution vidéo. Toutes les macros non sous-traitées sont réduites et supprimées du nom de fichier. |
outputFiles |
Liste des fichiers de sortie à produire. Chaque entrée de la liste est un ensemble d’étiquettes de couche audio et vidéo à ajouter. |
Video
Décrit les propriétés de base pour l’encodage de la vidéo d’entrée.
Nom | Type | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
Discriminateur pour les types dérivés. |
keyFrameInterval |
string |
Distance entre deux images clés. La valeur doit être différente de zéro dans la plage [0,5, 20] secondes, spécifiée au format ISO 8601. La valeur par défaut est 2 secondes (PT2S). Notez que ce paramètre est ignoré si VideoSyncMode.Passthrough est défini, où la valeur KeyFrameInterval suit le paramètre de source d’entrée. |
label |
string |
Étiquette facultative pour le codec. L’étiquette peut être utilisée pour contrôler le comportement de multiplexage. |
stretchMode |
Mode de redimensionnement : comment la vidéo d’entrée sera redimensionnée pour s’adapter à la ou aux résolutions de sortie souhaitées. La valeur par défaut est AutoSize |
|
syncMode |
Mode de synchronisation vidéo |
VideoAnalyzerPreset
Un préréglage d’analyseur vidéo qui extrait des insights (métadonnées enrichies) à partir de l’audio et de la vidéo, et génère un fichier au format JSON.
Nom | Type | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
Discriminateur pour les types dérivés. |
audioLanguage |
string |
Langue de la charge utile audio dans l’entrée au format BCP-47 « language tag-region » (par exemple , « en-US »). Si vous connaissez la langue de votre contenu, il est recommandé de le spécifier. La langue doit être spécifiée explicitement pour AudioAnalysisMode ::Basic, car la détection automatique de la langue n’est pas incluse en mode de base. Si la langue n’est pas spécifiée ou a la valeur Null, la fonctionnalité de détection automatique de la langue choisit la première langue détectée qu’elle utilise pendant la durée de traitement du fichier. Actuellement, elle ne prend pas en charge le basculement dynamique d’une langue à l’autre après la détection de la première langue. La détection automatique fonctionne mieux avec les enregistrements audio avec une voix clairement discernable. Si la détection automatique ne parvient pas à trouver la langue, la transcription est de secours vers « en-US ». La liste des langues prises en charge est disponible ici : https://go.microsoft.com/fwlink/?linkid=2109463 |
experimentalOptions |
object |
Dictionnaire contenant des paires clé-valeur pour les paramètres non exposés dans la présélection elle-même |
insightsToExtract |
Définit le type d’insights que vous souhaitez que le service génère. Les valeurs autorisées sont « AudioInsightsOnly », « VideoInsightsOnly » et « AllInsights ». La valeur par défaut est AllInsights. Si vous définissez cette valeur sur AllInsights et que l’entrée est audio uniquement, seules les insights audio sont générés. De même, si l’entrée est vidéo uniquement, seules les insights vidéo sont générés. Il est recommandé de ne pas utiliser AudioInsightsOnly si vous vous attendez à ce que certaines de vos entrées soient uniquement vidéo ; ou utilisez VideoInsightsOnly si vous vous attendez à ce que certaines de vos entrées soient uniquement audio. Vos travaux dans de telles conditions auraient une erreur. |
|
mode |
Détermine l’ensemble des opérations d’analyse audio à effectuer. S’il n’est pas spécifié, le Standard AudioAnalysisMode est choisi. |
VideoOverlay
Décrit les propriétés d’une superposition vidéo.
Nom | Type | Description |
---|---|---|
@odata.type |
string:
#Microsoft. |
Discriminateur pour les types dérivés. |
audioGainLevel |
number |
Niveau de gain de l’audio dans la superposition. La valeur doit se trouver dans la plage [0, 1.0]. La valeur par défaut est 1.0. |
cropRectangle |
Fenêtre rectangulaire facultative utilisée pour rogner l’image ou la vidéo de superposition. |
|
end |
string |
Position de fin, en référence à la vidéo d’entrée, à laquelle la superposition se termine. La valeur doit être au format ISO 8601. Par exemple, PT30S pour terminer la superposition à 30 secondes dans la vidéo d’entrée. Si elle n’est pas spécifiée ou si la valeur est supérieure à la durée de la vidéo d’entrée, la superposition sera appliquée jusqu’à la fin de la vidéo d’entrée si la durée du média de superposition est supérieure à la durée de la vidéo d’entrée, sinon la superposition durera aussi longtemps que la durée du média de superposition. |
fadeInDuration |
string |
Durée pendant laquelle la superposition est fondue dans la vidéo d’entrée. La valeur doit être au format de durée ISO 8601. S’il n’est pas spécifié, le comportement par défaut est de ne pas avoir de fondu en (identique à PT0S). |
fadeOutDuration |
string |
Durée pendant laquelle la superposition disparaît de la vidéo d’entrée. La valeur doit être au format de durée ISO 8601. S’il n’est pas spécifié, le comportement par défaut est de ne pas avoir de fondu (identique à PT0S). |
inputLabel |
string |
Étiquette de l’entrée de travail qui doit être utilisée comme superposition. L’entrée doit spécifier exactement un fichier. Vous pouvez spécifier un fichier image au format JPG, PNG, GIF ou BMP, un fichier audio (par exemple un fichier WAV, MP3, WMA ou M4A), ou un fichier vidéo. Consultez https://aka.ms/mesformats la liste complète des formats de fichiers audio et vidéo pris en charge. |
opacity |
number |
Opacité de la superposition. Il s’agit d’une valeur dans la plage [0 - 1.0]. La valeur par défaut est 1.0, ce qui signifie que la superposition est opaque. |
position |
Emplacement dans la vidéo d’entrée où la superposition est appliquée. |
|
start |
string |
Position de début, en référence à la vidéo d’entrée, à laquelle la superposition démarre. La valeur doit être au format ISO 8601. Par exemple, PT05S pour démarrer la superposition à 5 secondes dans la vidéo d’entrée. Si elle n’est pas spécifiée, la superposition commence à partir du début de la vidéo d’entrée. |
VideoSyncMode
Mode de synchronisation vidéo
Nom | Type | Description |
---|---|---|
Auto |
string |
Il s’agit de la méthode par défaut. Choisit entre Cfr et Vfr en fonction des fonctionnalités du muxer. Pour le format de sortie MP4, le mode par défaut est Cfr. |
Cfr |
string |
Les images d’entrée sont répétées et/ou supprimées en fonction des besoins pour obtenir exactement la fréquence d’images constante demandée. Recommandé lorsque la fréquence d’images de sortie est explicitement définie à une valeur spécifiée |
Passthrough |
string |
Les horodatages de présentation sur les images sont passés du fichier d’entrée au enregistreur de fichier de sortie. Recommandé lorsque la source d’entrée a une fréquence d’images variable et tente de produire plusieurs couches pour la diffusion en continu adaptative dans la sortie qui ont des limites de GOP alignées. Remarque : si deux images ou plus dans l’entrée ont des horodatages en double, la sortie aura également le même comportement |
Vfr |
string |
Similaire au mode passthrough, mais si l’entrée a des images qui ont des horodatages en double, une seule image est passée à la sortie, et d’autres sont supprimées. Recommandé lorsque le nombre d’images de sortie est censé être égal au nombre d’images d’entrée. Par exemple, la sortie est utilisée pour calculer une métrique de qualité comme PSNR par rapport à l’entrée |