Partager via


Transforms - Create Or Update

Créer ou mettre à jour une transformation
Crée ou met à jour une transformation.

PUT https://management.azure.com/subscriptions/{subscriptionId}/resourceGroups/{resourceGroupName}/providers/Microsoft.Media/mediaServices/{accountName}/transforms/{transformName}?api-version=2022-07-01

Paramètres URI

Nom Dans Obligatoire Type Description
accountName
path True

string

Nom du compte Media Services.

resourceGroupName
path True

string

Nom du groupe de ressources au sein de l’abonnement Azure.

subscriptionId
path True

string

Identificateur unique d’un abonnement Microsoft Azure.

transformName
path True

string

Nom de la transformation.

api-version
query True

string

Version de l’API à utiliser avec la demande cliente.

Corps de la demande

Nom Obligatoire Type Description
properties.outputs True

TransformOutput[]

Tableau d’un ou plusieurs TransformOutputs que la transformation doit générer.

properties.description

string

Description détaillée facultative de la transformation.

Réponses

Nom Type Description
200 OK

Transform

Ok

201 Created

Transform

Date de création

Other Status Codes

ErrorResponse

Informations détaillées sur les erreurs.

Exemples

Create or update a Transform

Exemple de requête

PUT https://management.azure.com/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/contosoresources/providers/Microsoft.Media/mediaServices/contosomedia/transforms/createdTransform?api-version=2022-07-01

{
  "properties": {
    "description": "Example Transform to illustrate create and update.",
    "outputs": [
      {
        "preset": {
          "@odata.type": "#Microsoft.Media.BuiltInStandardEncoderPreset",
          "presetName": "AdaptiveStreaming"
        }
      }
    ]
  }
}

Exemple de réponse

{
  "name": "createdTransform",
  "id": "/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/contosoresources/providers/Microsoft.Media/mediaservices/contosomedia/transforms/createdTransform",
  "type": "Microsoft.Media/mediaservices/transforms",
  "properties": {
    "created": "2022-10-17T23:14:31.7664818Z",
    "description": "Example Transform to illustrate create and update.",
    "lastModified": "2022-10-17T23:14:31.7664818Z",
    "outputs": [
      {
        "onError": "StopProcessingJob",
        "relativePriority": "Normal",
        "preset": {
          "@odata.type": "#Microsoft.Media.BuiltInStandardEncoderPreset",
          "presetName": "AdaptiveStreaming"
        }
      }
    ]
  },
  "systemData": {
    "createdBy": "contoso@microsoft.com",
    "createdByType": "User",
    "createdAt": "2022-10-17T23:14:31.7664818Z",
    "lastModifiedBy": "contoso@microsoft.com",
    "lastModifiedByType": "User",
    "lastModifiedAt": "2022-10-17T23:14:31.7664818Z"
  }
}
{
  "name": "createdTransform",
  "id": "/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/contosoresources/providers/Microsoft.Media/mediaservices/contosomedia/transforms/createdTransform",
  "type": "Microsoft.Media/mediaservices/transforms",
  "properties": {
    "created": "2022-10-17T23:14:31.7664818Z",
    "description": "Example Transform to illustrate create and update.",
    "lastModified": "2022-10-17T23:14:31.7664818Z",
    "outputs": [
      {
        "onError": "StopProcessingJob",
        "relativePriority": "Normal",
        "preset": {
          "@odata.type": "#Microsoft.Media.BuiltInStandardEncoderPreset",
          "presetName": "AdaptiveStreaming"
        }
      }
    ]
  },
  "systemData": {
    "createdBy": "contoso@microsoft.com",
    "createdByType": "User",
    "createdAt": "2022-10-17T23:14:31.7664818Z",
    "lastModifiedBy": "contoso@microsoft.com",
    "lastModifiedByType": "User",
    "lastModifiedAt": "2022-10-17T23:14:31.7664818Z"
  }
}

Définitions

Nom Description
AacAudio

Décrit les paramètres d’encodage audio AAC (Advanced Audio Codec).

AacAudioProfile

Profil d’encodage à utiliser lors de l’encodage audio avec AAC.

AnalysisResolution

Spécifie la résolution maximale à laquelle votre vidéo est analysée. Le comportement par défaut est « SourceResolution », qui maintient la vidéo d’entrée à sa résolution d’origine lors de l’analyse. L’utilisation de « StandardDefinition » redimensionne les vidéos d’entrée en fonction de la définition standard tout en conservant les proportions appropriées. Elle ne sera redimensionnée que si la vidéo est d’une résolution plus élevée. Par exemple, une entrée de 1920 x 1080 est mise à l’échelle à 640 x 360 avant le traitement. Le passage à « StandardDefinition » réduit le temps nécessaire au traitement de la vidéo haute résolution. Il peut également réduire le coût d’utilisation de ce composant (voir https://azure.microsoft.com/en-us/pricing/details/media-services/#analytics pour plus d’informations). Toutefois, les visages qui finissent par être trop petits dans la vidéo redimensionnée peuvent ne pas être détectés.

Audio

Définit les propriétés communes pour tous les codecs audio.

AudioAnalysisMode

Détermine l’ensemble des opérations d’analyse audio à effectuer. S’il n’est pas spécifié, le Standard AudioAnalysisMode est choisi.

AudioAnalyzerPreset

La présélection d’Audio Analyzer applique un ensemble prédéfini d’opérations d’analyse basées sur l’IA, y compris la transcription vocale. Actuellement, le préréglage prend en charge le traitement du contenu avec une seule piste audio.

AudioOverlay

Décrit les propriétés d’une superposition audio.

BlurType

Type de flou

BuiltInStandardEncoderPreset

Décrit une présélection intégrée pour encoder la vidéo d’entrée avec l’encodeur standard.

Complexity

Permet de configurer les paramètres de l’encodeur afin de contrôler l’équilibre entre la vitesse et la qualité. Exemple : définissez Complexité sur Vitesse pour accélérer l’encodage, mais réduire l’efficacité de la compression.

CopyAudio

Indicateur de codec, qui indique à l’encodeur de copier le flux binaire audio d’entrée.

CopyVideo

Indicateur de codec, qui indique à l’encodeur de copier le flux binaire vidéo d’entrée sans réencodage.

createdByType

Type d’identité qui a créé la ressource.

DDAudio

Décrit les paramètres d’encodage audio Dolby Digital Audio Codec (AC3). L’implémentation actuelle de la prise en charge Dolby Digital Audio est la suivante : numéros de canal audio à 1((mono), 2(stéréo), 6(5.1side) ; Taux de fréquence d’échantillonnage audio à : 32 K/44,1 K/48 Hz ; Les valeurs de débit audio comme la spécification AC3 prennent en charge : 32000, 40000, 48000, 56000, 64000, 80000, 96000, 112000, 128000, 160000, 192000, 224000, 256000, 320000, 384000, 448000, 512000, 576000, 640000 bps.

Deinterlace

Décrit les paramètres de désentlacement.

DeinterlaceMode

Mode de désentlacement. La valeur par défaut est AutoPixelAdaptive.

DeinterlaceParity

La parité de champ pour le désentlacement est définie par défaut sur Auto.

EncoderNamedPreset

Préréglage intégré à utiliser pour l’encodage de vidéos.

EntropyMode

Mode d’entropie à utiliser pour cette couche. S’il n’est pas spécifié, l’encodeur choisit le mode approprié pour le profil et le niveau.

ErrorAdditionalInfo

Informations supplémentaires sur l’erreur de gestion des ressources.

ErrorDetail

Détail de l’erreur.

ErrorResponse

Réponse d’erreur

FaceDetectorPreset

Décrit tous les paramètres à utiliser lors de l’analyse d’une vidéo afin de détecter (et éventuellement d’effacer) tous les visages présents.

FaceRedactorMode

Ce mode offre la possibilité de choisir entre les paramètres suivants : 1) Analyser - Pour la détection uniquement. Ce mode génère un fichier JSON de métadonnées marquant l’apparence des visages tout au long de la vidéo. Lorsque cela est possible, les apparences de la même personne se voient attribuer le même ID. 2) Combiné - En outre, les visages détectés sont éparses(flous). 3) Rédaction : permet un processus à 2 passes, ce qui permet la rédaction sélective d’un sous-ensemble de visages détectés. Il prend le fichier de métadonnées d’une passe d’analyse précédente, ainsi que la vidéo source et un sous-ensemble d’ID sélectionnés par l’utilisateur qui nécessitent une rédaction.

Fade

Décrit les propriétés d’un effet Fondu appliqué au média d’entrée.

Filters

Décrit toutes les opérations de filtrage, telles que le désentlacement, la rotation, etc. qui doivent être appliquées au média d’entrée avant l’encodage.

H264Complexity

Indique à l’encodeur comment choisir ses paramètres d’encodage. La valeur par défaut est Équilibrée.

H264Layer

Décrit les paramètres à utiliser lors de l’encodage de la vidéo d’entrée dans une couche de débit de sortie souhaitée avec le codec vidéo H.264.

H264RateControlMode

Mode de contrôle de la fréquence vidéo

H264Video

Décrit toutes les propriétés d’encodage d’une vidéo avec le codec H.264.

H264VideoProfile

Nous prenons actuellement en charge Baseline, Main, High, High422, High444. La valeur par défaut est Auto.

H265Complexity

Indique à l’encodeur comment choisir ses paramètres d’encodage. La qualité offre un taux de compression plus élevé, mais à un coût plus élevé et un temps de calcul plus long. Speed produira un fichier relativement plus volumineux, mais est plus rapide et plus économique. La valeur par défaut est Équilibrée.

H265Layer

Décrit les paramètres à utiliser lors de l’encodage de la vidéo d’entrée dans une couche de débit de sortie souhaitée avec le codec vidéo H.265.

H265Video

Décrit toutes les propriétés d’encodage d’une vidéo avec le codec H.265.

H265VideoProfile

Nous prenons actuellement en charge Main. La valeur par défaut est Auto.

Image

Décrit les propriétés de base pour générer des miniatures à partir de la vidéo d’entrée

ImageFormat

Décrit les propriétés d’un fichier image de sortie.

InsightsType

Définit le type d’insights que vous souhaitez que le service génère. Les valeurs autorisées sont « AudioInsightsOnly », « VideoInsightsOnly » et « AllInsights ». La valeur par défaut est AllInsights. Si vous définissez cette valeur sur AllInsights et que l’entrée est audio uniquement, seuls les insights audio sont générés. De même, si l’entrée est uniquement vidéo, seuls les insights vidéo sont générés. Il est recommandé de ne pas utiliser AudioInsightsOnly si vous vous attendez à ce que certaines de vos entrées soient uniquement vidéo ; ou utilisez VideoInsightsOnly si vous vous attendez à ce que certaines de vos entrées soient audio uniquement. Vos travaux dans de telles conditions seraient erronés.

InterleaveOutput

Définit le mode entrelacement de la sortie pour contrôler la façon dont l’audio et la vidéo sont stockés au format conteneur. Exemple : définissez InterleavedOutput sur NonInterleavedOutput pour produire des sorties audio uniquement et vidéo dans des fichiers MP4 distincts.

JpgFormat

Décrit les paramètres de production de miniatures JPEG.

JpgImage

Décrit les propriétés permettant de produire une série d’images JPEG à partir de la vidéo d’entrée.

JpgLayer

Décrit les paramètres pour produire une image JPEG à partir de la vidéo d’entrée.

Mp4Format

Décrit les propriétés d’un fichier MP4 ISO de sortie.

MultiBitrateFormat

Décrit les propriétés permettant de produire une collection de fichiers multi-débit alignés sur le goP. Le comportement par défaut consiste à produire un fichier de sortie pour chaque couche vidéo qui est muxé avec tous les audios. Les fichiers de sortie exacts produits peuvent être contrôlés en spécifiant la collection outputFiles.

OnErrorType

Une transformation peut définir plusieurs sorties. Cette propriété définit ce que le service doit faire en cas d’échec d’une sortie : soit continuer à produire d’autres sorties, soit arrêter les autres sorties. L’état global du travail ne reflète pas les échecs des sorties spécifiées avec « ContinueJob ». La valeur par défaut est « StopProcessingJob ».

OutputFile

Représente un fichier de sortie produit.

PngFormat

Décrit les paramètres de production de miniatures PNG.

PngImage

Décrit les propriétés permettant de produire une série d’images PNG à partir de la vidéo d’entrée.

PngLayer

Décrit les paramètres pour produire une image PNG à partir de la vidéo d’entrée.

PresetConfigurations

Objet de paramètres de configuration facultatifs pour l’encodeur.

Priority

Définit la priorité relative des TransformOutputs dans une transformation. Cela définit la priorité que le service utilise pour traiter TransformOutputs. La priorité par défaut est Normal.

Rectangle

Décrit les propriétés d’une fenêtre rectangulaire appliquée au média d’entrée avant de le traiter.

Rotation

Rotation, le cas échéant, à appliquer à la vidéo d’entrée, avant qu’elle ne soit encodée. La valeur par défaut est Auto

StandardEncoderPreset

Décrit tous les paramètres à utiliser lors de l’encodage de la vidéo d’entrée avec l’encodeur standard.

StretchMode

Mode de redimensionnement : comment la vidéo d’entrée sera redimensionnée pour s’adapter aux résolutions de sortie souhaitées. La valeur par défaut est AutoSize

systemData

Métadonnées relatives à la création et à la dernière modification de la ressource.

Transform

Une transformation encapsule les règles ou les instructions permettant de générer les sorties souhaitées à partir d’un support d’entrée, par exemple en transcodant ou en extrayant des insights. Une fois la transformation créée, elle peut être appliquée au média d’entrée en créant des travaux.

TransformOutput

Décrit les propriétés d’un TransformOutput, qui sont les règles à appliquer lors de la génération de la sortie souhaitée.

TransportStreamFormat

Décrit les propriétés permettant de générer un ou plusieurs fichiers vidéo de sortie MPEG-2 Transport Stream (ISO/IEC 13818-1).

Video

Décrit les propriétés de base pour l’encodage de la vidéo d’entrée.

VideoAnalyzerPreset

Un préréglage d’analyseur vidéo qui extrait des insights (métadonnées enrichies) à partir de l’audio et de la vidéo, et génère un fichier au format JSON.

VideoOverlay

Décrit les propriétés d’une superposition vidéo.

VideoSyncMode

Mode de synchronisation vidéo

AacAudio

Décrit les paramètres d’encodage audio AAC (Advanced Audio Codec).

Nom Type Description
@odata.type string:

#Microsoft.Media.AacAudio

Discriminateur pour les types dérivés.

bitrate

integer

Débit, en bits par seconde, de l’audio encodé en sortie.

channels

integer

Nombre de canaux dans l’audio.

label

string

Étiquette facultative pour le codec. L’étiquette peut être utilisée pour contrôler le comportement du muxing.

profile

AacAudioProfile

Profil d’encodage à utiliser lors de l’encodage audio avec AAC.

samplingRate

integer

Taux d’échantillonnage à utiliser pour l’encodage en hertz.

AacAudioProfile

Profil d’encodage à utiliser lors de l’encodage audio avec AAC.

Nom Type Description
AacLc

string

Spécifie que l’audio de sortie doit être encodé dans AAC Low Complexity Profile (AAC-LC).

HeAacV1

string

Spécifie que l’audio de sortie doit être encodé dans le profil HE-AAC v1.

HeAacV2

string

Spécifie que l’audio de sortie doit être encodé dans le profil HE-AAC v2.

AnalysisResolution

Spécifie la résolution maximale à laquelle votre vidéo est analysée. Le comportement par défaut est « SourceResolution », qui maintient la vidéo d’entrée à sa résolution d’origine lors de l’analyse. L’utilisation de « StandardDefinition » redimensionne les vidéos d’entrée en fonction de la définition standard tout en conservant les proportions appropriées. Elle ne sera redimensionnée que si la vidéo est d’une résolution plus élevée. Par exemple, une entrée de 1920 x 1080 est mise à l’échelle à 640 x 360 avant le traitement. Le passage à « StandardDefinition » réduit le temps nécessaire au traitement de la vidéo haute résolution. Il peut également réduire le coût d’utilisation de ce composant (voir https://azure.microsoft.com/en-us/pricing/details/media-services/#analytics pour plus d’informations). Toutefois, les visages qui finissent par être trop petits dans la vidéo redimensionnée peuvent ne pas être détectés.

Nom Type Description
SourceResolution

string

StandardDefinition

string

Audio

Définit les propriétés communes pour tous les codecs audio.

Nom Type Description
@odata.type string:

#Microsoft.Media.Audio

Discriminateur pour les types dérivés.

bitrate

integer

Débit, en bits par seconde, de l’audio encodé en sortie.

channels

integer

Nombre de canaux dans l’audio.

label

string

Étiquette facultative pour le codec. L’étiquette peut être utilisée pour contrôler le comportement de multiplexage.

samplingRate

integer

Taux d’échantillonnage à utiliser pour l’encodage en hertz.

AudioAnalysisMode

Détermine l’ensemble des opérations d’analyse audio à effectuer. S’il n’est pas spécifié, le Standard AudioAnalysisMode est choisi.

Nom Type Description
Basic

string

Ce mode effectue une transcription de la parole en texte et la génération d’un fichier de sous-titres/CC au format VTT. La sortie de ce mode comprend un fichier JSON Insights incluant uniquement les mots clés, la transcription et les informations relatives au minutage. La détection automatique de la langue et la diarisation de l’orateur ne sont pas incluses dans ce mode.

Standard

string

Effectue toutes les opérations incluses dans le mode De base, en effectuant également la détection de langue et la diarisation de l’orateur.

AudioAnalyzerPreset

La présélection d’Audio Analyzer applique un ensemble prédéfini d’opérations d’analyse basées sur l’IA, y compris la transcription vocale. Actuellement, le préréglage prend en charge le traitement du contenu avec une seule piste audio.

Nom Type Description
@odata.type string:

#Microsoft.Media.AudioAnalyzerPreset

Discriminateur pour les types dérivés.

audioLanguage

string

Langue de la charge utile audio dans l’entrée au format BCP-47 « language tag-region » (par exemple , « en-US »). Si vous connaissez la langue de votre contenu, il est recommandé de le spécifier. La langue doit être spécifiée explicitement pour AudioAnalysisMode ::Basic, car la détection automatique de la langue n’est pas incluse en mode de base. Si la langue n’est pas spécifiée ou a la valeur Null, la fonctionnalité de détection automatique de la langue choisit la première langue détectée qu’elle utilise pendant la durée de traitement du fichier. Actuellement, elle ne prend pas en charge le basculement dynamique d’une langue à l’autre après la détection de la première langue. La détection automatique fonctionne mieux avec les enregistrements audio avec une voix clairement discernable. Si la détection automatique ne parvient pas à trouver la langue, la transcription est de secours vers « en-US ». La liste des langues prises en charge est disponible ici : https://go.microsoft.com/fwlink/?linkid=2109463

experimentalOptions

object

Dictionnaire contenant des paires de valeurs de clé pour les paramètres non exposés dans la présélection elle-même

mode

AudioAnalysisMode

Détermine l’ensemble des opérations d’analyse audio à effectuer. S’il n’est pas spécifié, le Standard AudioAnalysisMode est choisi.

AudioOverlay

Décrit les propriétés d’une superposition audio.

Nom Type Description
@odata.type string:

#Microsoft.Media.AudioOverlay

Discriminateur pour les types dérivés.

audioGainLevel

number

Niveau de gain de l’audio dans la superposition. La valeur doit se trouver dans la plage [0, 1.0]. La valeur par défaut est 1.0.

end

string

Position de fin, en référence à la vidéo d’entrée, à laquelle la superposition se termine. La valeur doit être au format ISO 8601. Par exemple, PT30S pour terminer la superposition à 30 secondes dans la vidéo d’entrée. Si elle n’est pas spécifiée ou si la valeur est supérieure à la durée de la vidéo d’entrée, la superposition sera appliquée jusqu’à la fin de la vidéo d’entrée si la durée du média de superposition est supérieure à la durée de la vidéo d’entrée, sinon la superposition durera aussi longtemps que la durée du média de superposition.

fadeInDuration

string

Durée pendant laquelle la superposition est fondue dans la vidéo d’entrée. La valeur doit être au format de durée ISO 8601. S’il n’est pas spécifié, le comportement par défaut est de ne pas avoir de fondu en (identique à PT0S).

fadeOutDuration

string

Durée pendant laquelle la superposition disparaît de la vidéo d’entrée. La valeur doit être au format de durée ISO 8601. S’il n’est pas spécifié, le comportement par défaut est de ne pas avoir de fondu (identique à PT0S).

inputLabel

string

Étiquette de l’entrée de travail qui doit être utilisée comme superposition. L’entrée doit spécifier exactement un fichier. Vous pouvez spécifier un fichier image au format JPG, PNG, GIF ou BMP, un fichier audio (par exemple un fichier WAV, MP3, WMA ou M4A), ou un fichier vidéo. Consultez https://aka.ms/mesformats la liste complète des formats de fichiers audio et vidéo pris en charge.

start

string

Position de début, en référence à la vidéo d’entrée, à laquelle la superposition démarre. La valeur doit être au format ISO 8601. Par exemple, PT05S pour démarrer la superposition à 5 secondes dans la vidéo d’entrée. Si elle n’est pas spécifiée, la superposition commence à partir du début de la vidéo d’entrée.

BlurType

Type de flou

Nom Type Description
Black

string

Noir : filtre noir

Box

string

Box : filtre de débogage, cadre englobant uniquement

High

string

Élevé : confusion du filtre de flou

Low

string

Faible : filtre de flou de voiture de boîte

Med

string

Med : filtre de flou gaussien

BuiltInStandardEncoderPreset

Décrit une présélection intégrée pour encoder la vidéo d’entrée avec l’encodeur standard.

Nom Type Description
@odata.type string:

#Microsoft.Media.BuiltInStandardEncoderPreset

Discriminateur pour les types dérivés.

configurations

PresetConfigurations

Paramètres de configuration facultatifs pour l’encodeur. Les configurations sont uniquement prises en charge pour ContentAwareEncoding et H265ContentAwareEncoding BuiltInStandardEncoderPreset.

presetName

EncoderNamedPreset

Présélection intégrée à utiliser pour l’encodage de vidéos.

Complexity

Permet de configurer les paramètres de l’encodeur afin de contrôler l’équilibre entre la vitesse et la qualité. Exemple : définissez Complexité sur Vitesse pour accélérer l’encodage, mais réduire l’efficacité de la compression.

Nom Type Description
Balanced

string

Configure l’encodeur pour qu’il utilise des paramètres qui permettent d’atteindre un équilibre entre vitesse et qualité.

Quality

string

Configure l’encodeur pour utiliser des paramètres optimisés pour produire une sortie de meilleure qualité au détriment d’un temps d’encodage global plus lent.

Speed

string

Configure l’encodeur pour utiliser des paramètres optimisés pour un encodage plus rapide. La qualité est sacrifiée pour réduire le temps d’encodage.

CopyAudio

Indicateur de codec, qui indique à l’encodeur de copier le flux binaire audio d’entrée.

Nom Type Description
@odata.type string:

#Microsoft.Media.CopyAudio

Discriminateur pour les types dérivés.

label

string

Étiquette facultative pour le codec. L’étiquette peut être utilisée pour contrôler le comportement de multiplexage.

CopyVideo

Indicateur de codec, qui indique à l’encodeur de copier le flux binaire vidéo d’entrée sans réencodage.

Nom Type Description
@odata.type string:

#Microsoft.Media.CopyVideo

Discriminateur pour les types dérivés.

label

string

Étiquette facultative pour le codec. L’étiquette peut être utilisée pour contrôler le comportement de multiplexage.

createdByType

Type d’identité qui a créé la ressource.

Nom Type Description
Application

string

Key

string

ManagedIdentity

string

User

string

DDAudio

Décrit les paramètres d’encodage audio Dolby Digital Audio Codec (AC3). L’implémentation actuelle de la prise en charge Dolby Digital Audio est la suivante : numéros de canal audio à 1((mono), 2(stéréo), 6(5.1side) ; Taux de fréquence d’échantillonnage audio à : 32 K/44,1 K/48 Hz ; Les valeurs de débit audio comme la spécification AC3 prennent en charge : 32000, 40000, 48000, 56000, 64000, 80000, 96000, 112000, 128000, 160000, 192000, 224000, 256000, 320000, 384000, 448000, 512000, 576000, 640000 bps.

Nom Type Description
@odata.type string:

#Microsoft.Media.DDAudio

Discriminateur pour les types dérivés.

bitrate

integer

Débit, en bits par seconde, de l’audio encodé de sortie.

channels

integer

Nombre de canaux dans l’audio.

label

string

Étiquette facultative pour le codec. L’étiquette peut être utilisée pour contrôler le comportement du muxing.

samplingRate

integer

Taux d’échantillonnage à utiliser pour l’encodage en hertz.

Deinterlace

Décrit les paramètres de désentlacement.

Nom Type Description
mode

DeinterlaceMode

Mode de désinterlacation. La valeur par défaut est AutoPixelAdaptive.

parity

DeinterlaceParity

La parité de champ pour le désentlacement, par défaut, est Auto.

DeinterlaceMode

Mode de désentlacement. La valeur par défaut est AutoPixelAdaptive.

Nom Type Description
AutoPixelAdaptive

string

Appliquez le désentlacement adaptatif automatique des pixels sur chaque image de la vidéo d’entrée.

Off

string

Désactive le désentlacement de la vidéo source.

DeinterlaceParity

La parité de champ pour le désentlacement est définie par défaut sur Auto.

Nom Type Description
Auto

string

Détecter automatiquement l’ordre des champs

BottomFieldFirst

string

Appliquez le premier traitement du champ inférieur de la vidéo d’entrée.

TopFieldFirst

string

Appliquez le premier traitement du champ supérieur de la vidéo d’entrée.

EncoderNamedPreset

Préréglage intégré à utiliser pour l’encodage de vidéos.

Nom Type Description
AACGoodQualityAudio

string

Produit un fichier MP4 unique contenant uniquement de l’audio stéréo AAC encodé à 192 kbits/s.

AdaptiveStreaming

string

Produit un ensemble de fichiers MP4 alignés sur LE GOP avec la vidéo H.264 et l’audio stéréo AAC. Génère automatiquement une échelle de vitesse de transmission basée sur la résolution d’entrée, la vitesse de transmission et la fréquence d’images. Le préréglage généré automatiquement ne dépassera jamais la résolution d’entrée. Par exemple, si l’entrée est en 720p, la sortie restera au mieux en 720p.

ContentAwareEncoding

string

Produit un ensemble de fichiers MP4 alignés sur le groupe d’images en utilisant un encodage adapté au contenu. Étant donné un contenu d’entrée, le service effectue une analyse initiale légère du contenu d’entrée et utilise les résultats pour déterminer le nombre optimal de couches, le débit approprié et les paramètres de résolution pour la livraison par diffusion en continu adaptative. Ce préréglage est particulièrement efficace pour les vidéos de complexité faible ou moyenne, où les fichiers de sortie auront des vitesses de transmission inférieures, mais une qualité qui permettra aux viewers d’avoir une bonne expérience. La sortie contiendra des fichiers MP4 avec vidéo et audio entrelacées.

ContentAwareEncodingExperimental

string

Expose une présélection expérimentale pour l’encodage prenant en charge le contenu. Étant donné un contenu d’entrée, le service tente de déterminer automatiquement le nombre optimal de couches, le débit approprié et les paramètres de résolution pour la remise par streaming adaptatif. Les algorithmes sous-jacents continueront à évoluer au fil du temps. La sortie contiendra des fichiers MP4 avec vidéo et audio entrelacées.

CopyAllBitrateNonInterleaved

string

Copiez tous les flux vidéo et audio de la ressource d’entrée en tant que fichiers de sortie vidéo et audio non entrelacés. Cette présélection permet de découper une ressource existante ou de convertir un groupe de fichiers MP4 alignés sur une image clé en tant que ressource pouvant être diffusée en continu.

DDGoodQualityAudio

string

Produit un fichier MP4 unique contenant uniquement de l’audio stéréo DD(Digital Dolby) encodé à 192 kbits/s.

H264MultipleBitrate1080p

string

Produit un ensemble de 8 fichiers MP4 alignés sur le GOP, allant de 6 000 kbits/s à 400 kbits/s, et de l’audio stéréo AAC. La résolution commence à 1080p et descend à 180p.

H264MultipleBitrate720p

string

Produit un ensemble de 6 fichiers MP4 alignés sur le goP, allant de 3400 kbits/s à 400 kbits/s, et de l’audio stéréo AAC. La résolution commence à 720p et descend à 180p.

H264MultipleBitrateSD

string

Produit un ensemble de 5 fichiers MP4 alignés sur le goP, allant de 1900 kbits/s à 400 kbits/s, et de l’audio stéréo AAC. La résolution commence à 480p et descend à 240p.

H264SingleBitrate1080p

string

Produit un fichier MP4 dans lequel la vidéo est encodée avec le codec H.264 à 6750 kbits/s et une hauteur d’image de 1 080 pixels, et l’audio stéréo est encodé avec le codec AAC-LC à 128 kbits/s.

H264SingleBitrate720p

string

Produit un fichier MP4 dans lequel la vidéo est encodée avec le codec H.264 à 4 500 kbit/s et une hauteur d’image de 720 pixels, et l’audio stéréo est encodé avec le codec AAC-LC à 128 kbits/s.

H264SingleBitrateSD

string

Produit un fichier MP4 dans lequel la vidéo est encodée avec le codec H.264 à 2200 kbits/s et une hauteur d’image de 480 pixels, et l’audio stéréo est encodé avec le codec AAC-LC à 128 kbits/s.

H265AdaptiveStreaming

string

Produit un ensemble de fichiers MP4 alignés sur le groupe d’images avec une vidéo H.265 et un son AAC stéréo. Génère automatiquement une échelle de vitesse de transmission basée sur la résolution d’entrée, la vitesse de transmission et la fréquence d’images. Le préréglage généré automatiquement ne dépassera jamais la résolution d’entrée. Par exemple, si l’entrée est en 720p, la sortie restera au mieux en 720p.

H265ContentAwareEncoding

string

Produit un ensemble de fichiers MP4 alignés sur le groupe d’images en utilisant un encodage adapté au contenu. Étant donné un contenu d’entrée, le service effectue une analyse initiale légère du contenu d’entrée et utilise les résultats pour déterminer le nombre optimal de couches, le débit approprié et les paramètres de résolution pour la livraison par diffusion en continu adaptative. Ce préréglage est particulièrement efficace pour les vidéos de complexité faible ou moyenne, où les fichiers de sortie auront des vitesses de transmission inférieures, mais une qualité qui permettra aux viewers d’avoir une bonne expérience. La sortie contiendra des fichiers MP4 avec vidéo et audio entrelacées.

H265SingleBitrate1080p

string

Produit un fichier MP4 dans lequel la vidéo est encodée avec le codec H.265 à 3 500 kbit/s et une hauteur d’image de 1 080 pixels, et l’audio stéréo est encodé avec le codec AAC-LC à 128 kbits/s.

H265SingleBitrate4K

string

Produit un fichier MP4 où la vidéo est encodée avec le codec H.265 à 9500 kbit/s et une hauteur d’image de 2160 pixels, et l’audio stéréo est encodé avec le codec AAC-LC à 128 kbits/s.

H265SingleBitrate720p

string

Produit un fichier MP4 dans lequel la vidéo est encodée avec le codec H.265 à 1800 kbits/s et une hauteur d’image de 720 pixels, et l’audio stéréo est encodé avec le codec AAC-LC à 128 kbits/s.

EntropyMode

Mode d’entropie à utiliser pour cette couche. S’il n’est pas spécifié, l’encodeur choisit le mode approprié pour le profil et le niveau.

Nom Type Description
Cabac

string

Encodage d’entropie cabac (Context Adaptive Binary Arithmetic Coder).

Cavlc

string

Encodage d’entropie CAVLC (Context Adaptive Variable Length Coder).

ErrorAdditionalInfo

Informations supplémentaires sur l’erreur de gestion des ressources.

Nom Type Description
info

object

Informations supplémentaires

type

string

Type d’informations supplémentaires.

ErrorDetail

Détail de l’erreur.

Nom Type Description
additionalInfo

ErrorAdditionalInfo[]

Informations supplémentaires sur l’erreur.

code

string

Code d'erreur.

details

ErrorDetail[]

Détails de l’erreur.

message

string

Message d’erreur.

target

string

Cible d’erreur.

ErrorResponse

Réponse d’erreur

Nom Type Description
error

ErrorDetail

Objet d’erreur.

FaceDetectorPreset

Décrit tous les paramètres à utiliser lors de l’analyse d’une vidéo afin de détecter (et éventuellement d’effacer) tous les visages présents.

Nom Type Description
@odata.type string:

#Microsoft.Media.FaceDetectorPreset

Discriminateur pour les types dérivés.

blurType

BlurType

Type flou

experimentalOptions

object

Dictionnaire contenant des paires de valeurs de clé pour les paramètres non exposés dans la présélection elle-même

mode

FaceRedactorMode

Ce mode permet de choisir entre les paramètres suivants : 1) Analyser - Pour la détection uniquement. Ce mode génère un fichier JSON de métadonnées marquant les apparences des visages tout au long de la vidéo. Lorsque cela est possible, les apparences de la même personne se voient attribuer le même ID. 2) Combiné - En outre, les visages détectés sont flous(flous). 3) Rédaction : cela active un processus à 2 étapes, ce qui permet la rédaction sélective d’un sous-ensemble de visages détectés. Il prend le fichier de métadonnées d’une passe d’analyse précédente, ainsi que la vidéo source et un sous-ensemble d’ID sélectionnés par l’utilisateur qui nécessitent une rédaction.

resolution

AnalysisResolution

Spécifie la résolution maximale à laquelle votre vidéo est analysée. Le comportement par défaut est « SourceResolution », qui maintient la vidéo d’entrée à sa résolution d’origine lors de l’analyse. L’utilisation de « StandardDefinition » permet de redimensionner les vidéos d’entrée à la définition standard tout en préservant le rapport d’aspect approprié. Elle ne sera redimensionnée que si la vidéo est d’une résolution plus élevée. Par exemple, une entrée 1920x1080 est mise à l’échelle à 640x360 avant le traitement. Le passage à « StandardDefinition » réduit le temps nécessaire pour traiter la vidéo haute résolution. Cela peut également réduire le coût d’utilisation de ce composant (voir https://azure.microsoft.com/en-us/pricing/details/media-services/#analytics pour plus d’informations). Toutefois, les visages qui finissent par être trop petits dans la vidéo redimensionnée peuvent ne pas être détectés.

FaceRedactorMode

Ce mode offre la possibilité de choisir entre les paramètres suivants : 1) Analyser - Pour la détection uniquement. Ce mode génère un fichier JSON de métadonnées marquant l’apparence des visages tout au long de la vidéo. Lorsque cela est possible, les apparences de la même personne se voient attribuer le même ID. 2) Combiné - En outre, les visages détectés sont éparses(flous). 3) Rédaction : permet un processus à 2 passes, ce qui permet la rédaction sélective d’un sous-ensemble de visages détectés. Il prend le fichier de métadonnées d’une passe d’analyse précédente, ainsi que la vidéo source et un sous-ensemble d’ID sélectionnés par l’utilisateur qui nécessitent une rédaction.

Nom Type Description
Analyze

string

Le mode Analyse détecte les visages et génère un fichier de métadonnées avec les résultats. Permet de modifier le fichier de métadonnées avant que les visages ne soient flous avec le mode Rédaction.

Combined

string

Le mode combiné effectue les étapes Analyser et Rédaction en une seule passe lorsque la modification des visages analysés n’est pas souhaitée.

Redact

string

Le mode Rédaction utilise le fichier de métadonnées du mode Analyse et réacte les visages trouvés.

Fade

Décrit les propriétés d’un effet Fondu appliqué au média d’entrée.

Nom Type Description
duration

string

Durée de l’effet de fondu dans la vidéo. La valeur peut être au format ISO 8601 (par exemple, PT05S pour faire disparaître une couleur entrée/sortie pendant 5 secondes), ou un nombre d’images (par exemple, 10 pour faire disparaître 10 images à partir de l’heure de début), ou une valeur relative à la durée du flux (par exemple, 10 % pour faire disparaître 10 % de la durée du flux)

fadeColor

string

Couleur de l’entrée/sortie fondue. il peut s’agir des couleurs https://developer.mozilla.org/en-US/docs/Web/CSS/color_value/color_keywords CSS Level1 ou d’une valeur RVB/hexadécimale : par exemple rvb(255,0,0), 0xFF0000 ou #FF0000

start

string

Position dans la vidéo d’entrée à partir de l’endroit où commencer à disparaître. La valeur peut être au format ISO 8601 (par exemple, PT05S pour commencer à 5 secondes) ou un nombre de cadres (par exemple, 10 pour commencer au dixième cadre) ou une valeur relative à la durée du flux (par exemple, 10 % pour commencer à 10 % de la durée du flux). La valeur par défaut est 0

Filters

Décrit toutes les opérations de filtrage, telles que le désentlacement, la rotation, etc. qui doivent être appliquées au média d’entrée avant l’encodage.

Nom Type Description
crop

Rectangle

Paramètres de la fenêtre rectangulaire avec laquelle rogner la vidéo d’entrée.

deinterlace

Deinterlace

Paramètres de désentlacement.

fadeIn

Fade

Décrit les propriétés d’un effet Fondu appliqué au média d’entrée.

fadeOut

Fade

Décrit les propriétés d’un effet Fondu appliqué au média d’entrée.

overlays Overlay[]:

Propriétés des superpositions à appliquer à la vidéo d’entrée. Il peut s’agir de superpositions audio, image ou vidéo.

rotation

Rotation

Rotation, le cas échéant, à appliquer à la vidéo d’entrée, avant qu’elle ne soit encodée. La valeur par défaut est Auto

H264Complexity

Indique à l’encodeur comment choisir ses paramètres d’encodage. La valeur par défaut est Équilibrée.

Nom Type Description
Balanced

string

Indique à l’encodeur d’utiliser des paramètres qui permettent d’équilibrer la vitesse et la qualité.

Quality

string

Indique à l’encodeur d’utiliser des paramètres optimisés pour produire une sortie de qualité supérieure au détriment d’un temps d’encodage global plus lent.

Speed

string

Indique à l’encodeur d’utiliser des paramètres optimisés pour un encodage plus rapide. La qualité est sacrifiée pour réduire le temps d’encodage.

H264Layer

Décrit les paramètres à utiliser lors de l’encodage de la vidéo d’entrée dans une couche de débit de sortie souhaitée avec le codec vidéo H.264.

Nom Type Description
adaptiveBFrame

boolean

Indique si les images B adaptatives doivent être utilisées lors de l’encodage de cette couche. S’il n’est pas spécifié, l’encodeur l’active chaque fois que le profil vidéo autorise son utilisation.

bFrames

integer

Nombre d’images B à utiliser lors de l’encodage de cette couche. S’il n’est pas spécifié, l’encodeur choisit un nombre approprié en fonction du profil et du niveau vidéo.

bitrate

integer

Débit moyen en bits par seconde auquel encoder la vidéo d’entrée lors de la génération de cette couche. Ce champ est obligatoire.

bufferWindow

string

Longueur de la fenêtre de la mémoire tampon VBV. La valeur doit être au format ISO 8601. La valeur doit être comprise dans la plage [0,1-100] secondes. La valeur par défaut est de 5 secondes (par exemple, PT5S).

crf

number

Valeur de CRF à utiliser lors de l’encodage de cette couche. Ce paramètre prend effet lorsque RateControlMode du codec vidéo est défini en mode CRF. La plage de valeur CRF est comprise entre 0 et 51, où des valeurs inférieures entraîneraient une meilleure qualité, au détriment de tailles de fichiers plus élevées. Des valeurs plus élevées signifient plus de compression, mais à un moment donné, une dégradation de la qualité sera remarquée. La valeur par défaut est 23.

entropyMode

EntropyMode

Mode d’entropie à utiliser pour cette couche. S’il n’est pas spécifié, l’encodeur choisit le mode approprié pour le profil et le niveau.

frameRate

string

Fréquence d’images (en images par seconde) à laquelle encoder cette couche. La valeur peut être sous la forme de M/N où M et N sont des entiers (par exemple, 30000/1001) ou sous la forme d’un nombre (par exemple, 30 ou 29,97). L’encodeur applique des contraintes sur les fréquences d’images autorisées en fonction du profil et du niveau. Si elle n’est pas spécifiée, l’encodeur utilise la même fréquence d’images que la vidéo d’entrée.

height

string

Hauteur de la vidéo de sortie pour cette couche. La valeur peut être absolue (en pixels) ou relative (en pourcentage). Par exemple, 50 % signifie que la vidéo de sortie a deux fois moins de pixels en hauteur que l’entrée.

label

string

Étiquette alphanumérique pour cette couche, qui peut être utilisée dans le multiplexage de différentes couches vidéo et audio, ou dans le nommage du fichier de sortie.

level

string

Nous prenons actuellement en charge level jusqu’à la version 6.2. La valeur peut être Auto ou un nombre qui correspond au profil H.264. Si elle n’est pas spécifiée, la valeur par défaut est Auto, ce qui permet à l’encodeur de choisir le niveau approprié pour cette couche.

maxBitrate

integer

Débit maximal (en bits par seconde), auquel la mémoire tampon VBV doit être supposée être rechargée. S’il n’est pas spécifié, la valeur par défaut est la même que la vitesse de transmission.

profile

H264VideoProfile

Nous prenons actuellement en charge Baseline, Main, High, High422, High444. La valeur par défaut est Auto.

referenceFrames

integer

Nombre de cadres de référence à utiliser lors de l’encodage de cette couche. S’il n’est pas spécifié, l’encodeur détermine un nombre approprié en fonction du paramètre de complexité de l’encodeur.

slices

integer

Nombre de tranches à utiliser lors de l’encodage de cette couche. Si elle n’est pas spécifiée, la valeur par défaut est égale à zéro, ce qui signifie que l’encodeur utilise une seule tranche pour chaque image.

width

string

Largeur de la vidéo de sortie pour cette couche. La valeur peut être absolue (en pixels) ou relative (en pourcentage). Par exemple, 50 % signifie que la vidéo de sortie a deux fois moins de pixels de largeur que l’entrée.

H264RateControlMode

Mode de contrôle de la fréquence vidéo

Nom Type Description
ABR

string

Mode de vitesse de transmission moyenne (ABR) qui atteint la vitesse de transmission cible : mode par défaut.

CBR

string

Mode CBR (Vitesse de transmission constante) qui resserre les variations de débit autour de la vitesse de transmission cible.

CRF

string

Mode CRF (Constant Rate Factor) qui cible une qualité subjective constante.

H264Video

Décrit toutes les propriétés d’encodage d’une vidéo avec le codec H.264.

Nom Type Description
@odata.type string:

#Microsoft.Media.H264Video

Discriminateur pour les types dérivés.

complexity

H264Complexity

Indique à l’encodeur comment choisir ses paramètres d’encodage. La valeur par défaut est Équilibrée.

keyFrameInterval

string

Distance entre deux images clés. La valeur doit être différente de zéro dans la plage [0,5, 20] secondes, spécifiée au format ISO 8601. La valeur par défaut est 2 secondes (PT2S). Notez que ce paramètre est ignoré si VideoSyncMode.Passthrough est défini, où la valeur KeyFrameInterval suit le paramètre de source d’entrée.

label

string

Étiquette facultative pour le codec. L’étiquette peut être utilisée pour contrôler le comportement de multiplexage.

layers

H264Layer[]

Collection de couches H.264 de sortie à produire par l’encodeur.

rateControlMode

H264RateControlMode

Mode de contrôle de la fréquence vidéo

sceneChangeDetection

boolean

Le fait que l’encodeur doit insérer ou non des cadres clés au niveau de la scène change. Si elle n’est pas spécifiée, la valeur par défaut est false. Cet indicateur doit avoir la valeur true uniquement lorsque l’encodeur est configuré pour produire une seule vidéo de sortie.

stretchMode

StretchMode

Mode de redimensionnement : comment la vidéo d’entrée sera redimensionnée pour s’adapter à la ou aux résolutions de sortie souhaitées. La valeur par défaut est AutoSize

syncMode

VideoSyncMode

Mode de synchronisation vidéo

H264VideoProfile

Nous prenons actuellement en charge Baseline, Main, High, High422, High444. La valeur par défaut est Auto.

Nom Type Description
Auto

string

Indique à l’encodeur de déterminer automatiquement le profil H.264 approprié.

Baseline

string

Profil de référence

High

string

Profil élevé.

High422

string

Profil 4 :2 :2 élevé.

High444

string

Profil prédictif 4 :4 :4 élevé.

Main

string

Profil principal

H265Complexity

Indique à l’encodeur comment choisir ses paramètres d’encodage. La qualité offre un taux de compression plus élevé, mais à un coût plus élevé et un temps de calcul plus long. Speed produira un fichier relativement plus volumineux, mais est plus rapide et plus économique. La valeur par défaut est Équilibrée.

Nom Type Description
Balanced

string

Indique à l’encodeur d’utiliser des paramètres qui permettent d’atteindre un équilibre entre vitesse et qualité.

Quality

string

Indique à l’encodeur d’utiliser des paramètres optimisés pour produire une sortie de qualité supérieure au détriment d’un temps d’encodage global plus lent.

Speed

string

Indique à l’encodeur d’utiliser des paramètres optimisés pour accélérer l’encodage. La qualité est sacrifiée pour réduire le temps d’encodage.

H265Layer

Décrit les paramètres à utiliser lors de l’encodage de la vidéo d’entrée dans une couche de débit de sortie souhaitée avec le codec vidéo H.265.

Nom Type Description
adaptiveBFrame

boolean

Spécifie si les images B adaptatives doivent être utilisées lors de l’encodage de cette couche. S’il n’est pas spécifié, l’encodeur l’active chaque fois que le profil vidéo autorise son utilisation.

bFrames

integer

Nombre d’images B à utiliser lors de l’encodage de cette couche. S’il n’est pas spécifié, l’encodeur choisit un nombre approprié en fonction du profil et du niveau vidéo.

bitrate

integer

Débit moyen en bits par seconde auquel encoder la vidéo d’entrée lors de la génération de cette couche. Par exemple : une vitesse de transmission cible de 3 000 Kbits/s ou 3 Mbits/s signifie que cette valeur doit être 3000000 Il s’agit d’un champ obligatoire.

bufferWindow

string

Longueur de la fenêtre de la mémoire tampon VBV. La valeur doit être au format ISO 8601. La valeur doit être comprise dans la plage [0,1-100] secondes. La valeur par défaut est de 5 secondes (par exemple, PT5S).

crf

number

Valeur de CRF à utiliser lors de l’encodage de cette couche. Ce paramètre prend effet lorsque RateControlMode du codec vidéo est défini en mode CRF. La plage de valeur CRF est comprise entre 0 et 51, où des valeurs inférieures entraîneraient une meilleure qualité, au détriment de tailles de fichiers plus élevées. Des valeurs plus élevées signifient plus de compression, mais à un moment donné, une dégradation de la qualité sera remarquée. La valeur par défaut est 28.

frameRate

string

Fréquence d’images (en images par seconde) à laquelle encoder cette couche. La valeur peut être sous la forme de M/N où M et N sont des entiers (par exemple, 30000/1001) ou sous la forme d’un nombre (par exemple, 30 ou 29,97). L’encodeur applique des contraintes sur les fréquences d’images autorisées en fonction du profil et du niveau. Si elle n’est pas spécifiée, l’encodeur utilise la même fréquence d’images que la vidéo d’entrée.

height

string

Hauteur de la vidéo de sortie pour cette couche. La valeur peut être absolue (en pixels) ou relative (en pourcentage). Par exemple, 50 % signifie que la vidéo de sortie a deux fois moins de pixels en hauteur que l’entrée.

label

string

Étiquette alphanumérique pour cette couche, qui peut être utilisée dans le multiplexage de différentes couches vidéo et audio, ou dans le nommage du fichier de sortie.

level

string

Nous prenons actuellement en charge level jusqu’à la version 6.2. La valeur peut être Auto ou un nombre qui correspond au profil H.265. Si elle n’est pas spécifiée, la valeur par défaut est Auto, ce qui permet à l’encodeur de choisir le niveau approprié pour cette couche.

maxBitrate

integer

Débit maximal (en bits par seconde), auquel la mémoire tampon VBV doit être supposée être rechargée. S’il n’est pas spécifié, la valeur par défaut est la même que la vitesse de transmission.

profile

H265VideoProfile

Nous prenons actuellement en charge Main. La valeur par défaut est Auto.

referenceFrames

integer

Nombre de cadres de référence à utiliser lors de l’encodage de cette couche. S’il n’est pas spécifié, l’encodeur détermine un nombre approprié en fonction du paramètre de complexité de l’encodeur.

slices

integer

Nombre de tranches à utiliser lors de l’encodage de cette couche. Si elle n’est pas spécifiée, la valeur par défaut est égale à zéro, ce qui signifie que l’encodeur utilise une seule tranche pour chaque image.

width

string

Largeur de la vidéo de sortie pour cette couche. La valeur peut être absolue (en pixels) ou relative (en pourcentage). Par exemple, 50 % signifie que la vidéo de sortie a deux fois moins de pixels de largeur que l’entrée.

H265Video

Décrit toutes les propriétés d’encodage d’une vidéo avec le codec H.265.

Nom Type Description
@odata.type string:

#Microsoft.Media.H265Video

Discriminateur pour les types dérivés.

complexity

H265Complexity

Indique à l’encodeur comment choisir ses paramètres d’encodage. La qualité fournit un taux de compression plus élevé, mais à un coût plus élevé et un temps de calcul plus long. La vitesse produit un fichier relativement plus volumineux, mais est plus rapide et plus économique. La valeur par défaut est Équilibrée.

keyFrameInterval

string

Distance entre deux images clés. La valeur doit être différente de zéro dans la plage [0,5, 20] secondes, spécifiée au format ISO 8601. La valeur par défaut est 2 secondes (PT2S). Notez que ce paramètre est ignoré si VideoSyncMode.Passthrough est défini, où la valeur KeyFrameInterval suit le paramètre de source d’entrée.

label

string

Étiquette facultative pour le codec. L’étiquette peut être utilisée pour contrôler le comportement de multiplexage.

layers

H265Layer[]

Collection de couches H.265 de sortie à produire par l’encodeur.

sceneChangeDetection

boolean

Spécifie si l’encodeur doit insérer des cadres clés lors des modifications de scène. Si elle n’est pas spécifiée, la valeur par défaut est false. Cet indicateur doit avoir la valeur true uniquement lorsque l’encodeur est configuré pour produire une seule vidéo de sortie.

stretchMode

StretchMode

Mode de redimensionnement : comment la vidéo d’entrée sera redimensionnée pour s’adapter à la ou aux résolutions de sortie souhaitées. La valeur par défaut est AutoSize

syncMode

VideoSyncMode

Mode de synchronisation vidéo

H265VideoProfile

Nous prenons actuellement en charge Main. La valeur par défaut est Auto.

Nom Type Description
Auto

string

Indique à l’encodeur de déterminer automatiquement le profil H.265 approprié.

Main

string

Profil principal (https://x265.readthedocs.io/en/default/cli.html?highlight=profile#profile-level-tier)

Main10

string

Profil principal 10 (https://en.wikipedia.org/wiki/High_Efficiency_Video_Coding#Main_10)

Image

Décrit les propriétés de base pour générer des miniatures à partir de la vidéo d’entrée

Nom Type Description
@odata.type string:

#Microsoft.Media.Image

Discriminateur pour les types dérivés.

keyFrameInterval

string

Distance entre deux images clés. La valeur doit être différente de zéro dans la plage [0,5, 20] secondes, spécifiée au format ISO 8601. La valeur par défaut est 2 secondes (PT2S). Notez que ce paramètre est ignoré si VideoSyncMode.Passthrough est défini, où la valeur KeyFrameInterval suit le paramètre de source d’entrée.

label

string

Étiquette facultative pour le codec. L’étiquette peut être utilisée pour contrôler le comportement de multiplexage.

range

string

Position par rapport à l’heure de début prédéfinie de la transformation dans la vidéo d’entrée à laquelle arrêter la génération de miniatures. La valeur peut être au format ISO 8601 (par exemple, PT5M30S s’arrêter à 5 minutes et 30 secondes à partir de l’heure de début) ou un nombre d’images (par exemple, 300 pour s’arrêter à la 300e image de l’image au début. Si cette valeur est 1, cela signifie produire une seule miniature à l’heure de début) ou une valeur relative à la durée du flux (par exemple, 50 % pour s’arrêter à la moitié de la durée du flux à partir de l’heure de début). La valeur par défaut est 100 %, ce qui signifie qu’elle s’arrête à la fin du flux.

start

string

Position dans la vidéo d’entrée à partir de laquelle commencer à générer des miniatures. La valeur peut être au format ISO 8601 (par exemple, PT05S pour commencer à 5 secondes) ou un nombre de cadres (par exemple, 10 pour commencer au dixième cadre) ou une valeur relative à la durée du flux (par exemple, 10 % pour commencer à 10 % de la durée du flux). Prend également en charge une macro {Best}, qui indique à l’encodeur de sélectionner la meilleure miniature parmi les premières secondes de la vidéo pour ne produire qu’une seule miniature, quels que soient les autres paramètres pour Étape et Plage. La valeur par défaut est macro {Best}.

step

string

Intervalles auxquels les miniatures sont générées. La valeur peut être au format ISO 8601 (par exemple, PT05S pour une image toutes les 5 secondes), ou un nombre d’images (par exemple, 30 pour une image toutes les 30 images) ou une valeur relative à la durée du flux (par exemple, 10 % pour une image toutes les 10 % de la durée du flux). Remarque : La valeur de l’étape affecte la première miniature générée, qui peut ne pas être exactement celle spécifiée à l’heure de début de la présélection de transformation. Cela est dû à l’encodeur, qui tente de sélectionner la meilleure miniature entre l’heure de début et la position de l’étape à partir de l’heure de début comme première sortie. Comme la valeur par défaut est 10 %, cela signifie que si le flux a une longue durée, la première miniature générée peut être loin de celle spécifiée au début. Essayez de sélectionner la valeur raisonnable pour Étape si la première miniature est attendue proche de l’heure de début, ou définissez Valeur de plage sur 1 si une seule miniature est nécessaire au début.

stretchMode

StretchMode

Mode de redimensionnement : comment la vidéo d’entrée sera redimensionnée pour s’adapter à la ou aux résolutions de sortie souhaitées. La valeur par défaut est AutoSize

syncMode

VideoSyncMode

Mode de synchronisation vidéo

ImageFormat

Décrit les propriétés d’un fichier image de sortie.

Nom Type Description
@odata.type string:

#Microsoft.Media.ImageFormat

Discriminateur pour les types dérivés.

filenamePattern

string

Modèle de nommage de fichiers utilisé pour la création de fichiers de sortie. Les macros suivantes sont prises en charge dans le nom de fichier : {Basename} - Macro d’extension qui utilisera le nom du fichier vidéo d’entrée. Si le nom de base (le suffixe de fichier n’est pas inclus) du fichier vidéo d’entrée contient moins de 32 caractères, le nom de base des fichiers vidéo d’entrée est utilisé. Si la longueur du nom de base du fichier vidéo d’entrée dépasse 32 caractères, le nom de base est tronqué à la longueur totale des 32 premiers caractères. {Extension} : extension appropriée pour ce format. {Label} : étiquette affectée au codec/à la couche. {Index} : index unique pour les miniatures. Applicable uniquement aux miniatures. {AudioStream} - chaîne « Audio » plus numéro de flux audio (commencez à partir de 1). {Bitrate} : débit audio/vidéo en kbits/s. Non applicable aux miniatures. {Codec} : type du codec audio/vidéo. {Résolution} : résolution vidéo. Toutes les macros non sous-traitées sont réduites et supprimées du nom de fichier.

InsightsType

Définit le type d’insights que vous souhaitez que le service génère. Les valeurs autorisées sont « AudioInsightsOnly », « VideoInsightsOnly » et « AllInsights ». La valeur par défaut est AllInsights. Si vous définissez cette valeur sur AllInsights et que l’entrée est audio uniquement, seuls les insights audio sont générés. De même, si l’entrée est uniquement vidéo, seuls les insights vidéo sont générés. Il est recommandé de ne pas utiliser AudioInsightsOnly si vous vous attendez à ce que certaines de vos entrées soient uniquement vidéo ; ou utilisez VideoInsightsOnly si vous vous attendez à ce que certaines de vos entrées soient audio uniquement. Vos travaux dans de telles conditions seraient erronés.

Nom Type Description
AllInsights

string

Générez des insights audio et vidéo. Échoue si les insights audio ou vidéo échouent.

AudioInsightsOnly

string

Générez des insights audio uniquement. Ignorer la vidéo même si elle est présente. Échoue si aucun audio n’est présent.

VideoInsightsOnly

string

Générer des insights vidéo uniquement. Ignorez l’audio s’il est présent. Échoue si aucune vidéo n’est présente.

InterleaveOutput

Définit le mode entrelacement de la sortie pour contrôler la façon dont l’audio et la vidéo sont stockés au format conteneur. Exemple : définissez InterleavedOutput sur NonInterleavedOutput pour produire des sorties audio uniquement et vidéo dans des fichiers MP4 distincts.

Nom Type Description
InterleavedOutput

string

La sortie inclut à la fois l’audio et la vidéo.

NonInterleavedOutput

string

La sortie est vidéo uniquement ou audio.

JpgFormat

Décrit les paramètres de production de miniatures JPEG.

Nom Type Description
@odata.type string:

#Microsoft.Media.JpgFormat

Discriminateur pour les types dérivés.

filenamePattern

string

Modèle de nommage de fichiers utilisé pour la création de fichiers de sortie. Les macros suivantes sont prises en charge dans le nom de fichier : {Basename} - Macro d’extension qui utilisera le nom du fichier vidéo d’entrée. Si le nom de base (le suffixe de fichier n’est pas inclus) du fichier vidéo d’entrée contient moins de 32 caractères, le nom de base des fichiers vidéo d’entrée est utilisé. Si la longueur du nom de base du fichier vidéo d’entrée dépasse 32 caractères, le nom de base est tronqué à la longueur totale des 32 premiers caractères. {Extension} : extension appropriée pour ce format. {Label} : étiquette affectée au codec/à la couche. {Index} : index unique pour les miniatures. Applicable uniquement aux miniatures. {AudioStream} - chaîne « Audio » plus numéro de flux audio (commencez à partir de 1). {Bitrate} : débit audio/vidéo en kbits/s. Non applicable aux miniatures. {Codec} : type du codec audio/vidéo. {Résolution} : résolution vidéo. Toutes les macros non sous-traitées sont réduites et supprimées du nom de fichier.

JpgImage

Décrit les propriétés permettant de produire une série d’images JPEG à partir de la vidéo d’entrée.

Nom Type Description
@odata.type string:

#Microsoft.Media.JpgImage

Discriminateur pour les types dérivés.

keyFrameInterval

string

Distance entre deux images clés. La valeur doit être différente de zéro dans la plage [0,5, 20] secondes, spécifiée au format ISO 8601. La valeur par défaut est 2 secondes (PT2S). Notez que ce paramètre est ignoré si VideoSyncMode.Passthrough est défini, où la valeur KeyFrameInterval suit le paramètre de source d’entrée.

label

string

Étiquette facultative pour le codec. L’étiquette peut être utilisée pour contrôler le comportement de multiplexage.

layers

JpgLayer[]

Collection de couches d’image JPEG de sortie à produire par l’encodeur.

range

string

Position par rapport à l’heure de début prédéfinie de la transformation dans la vidéo d’entrée à laquelle arrêter la génération de miniatures. La valeur peut être au format ISO 8601 (par exemple, PT5M30S s’arrêter à 5 minutes et 30 secondes à partir de l’heure de début) ou un nombre d’images (par exemple, 300 pour s’arrêter à la 300e image de l’image au début. Si cette valeur est 1, cela signifie produire une seule miniature à l’heure de début) ou une valeur relative à la durée du flux (par exemple, 50 % pour s’arrêter à la moitié de la durée du flux à partir de l’heure de début). La valeur par défaut est 100 %, ce qui signifie qu’elle s’arrête à la fin du flux.

spriteColumn

integer

Définit le nombre de colonnes utilisées dans l’image de sprite miniature. Le nombre de lignes est automatiquement calculé et un fichier VTT est généré avec les mappages de coordonnées pour chaque miniature du sprite. Remarque : cette valeur doit être un entier positif et une valeur appropriée est recommandée afin que la résolution de l’image de sortie ne dépasse pas la limite de résolution maximale de pixels JPEG 65535x65535.

start

string

Position dans la vidéo d’entrée à partir de laquelle commencer à générer des miniatures. La valeur peut être au format ISO 8601 (par exemple, PT05S pour commencer à 5 secondes) ou un nombre de cadres (par exemple, 10 pour commencer au dixième cadre) ou une valeur relative à la durée du flux (par exemple, 10 % pour commencer à 10 % de la durée du flux). Prend également en charge une macro {Best}, qui indique à l’encodeur de sélectionner la meilleure miniature parmi les premières secondes de la vidéo pour ne produire qu’une seule miniature, quels que soient les autres paramètres pour Étape et Plage. La valeur par défaut est macro {Best}.

step

string

Intervalles auxquels les miniatures sont générées. La valeur peut être au format ISO 8601 (par exemple, PT05S pour une image toutes les 5 secondes), ou un nombre d’images (par exemple, 30 pour une image toutes les 30 images) ou une valeur relative à la durée du flux (par exemple, 10 % pour une image toutes les 10 % de la durée du flux). Remarque : La valeur de l’étape affecte la première miniature générée, qui peut ne pas être exactement celle spécifiée à l’heure de début de la présélection de transformation. Cela est dû à l’encodeur, qui tente de sélectionner la meilleure miniature entre l’heure de début et la position de l’étape à partir de l’heure de début comme première sortie. Comme la valeur par défaut est 10 %, cela signifie que si le flux a une longue durée, la première miniature générée peut être loin de celle spécifiée au début. Essayez de sélectionner la valeur raisonnable pour Étape si la première miniature est attendue proche de l’heure de début, ou définissez Valeur de plage sur 1 si une seule miniature est nécessaire au début.

stretchMode

StretchMode

Mode de redimensionnement : comment la vidéo d’entrée sera redimensionnée pour s’adapter à la ou aux résolutions de sortie souhaitées. La valeur par défaut est AutoSize

syncMode

VideoSyncMode

Mode de synchronisation vidéo

JpgLayer

Décrit les paramètres pour produire une image JPEG à partir de la vidéo d’entrée.

Nom Type Description
height

string

Hauteur de la vidéo de sortie pour cette couche. La valeur peut être absolue (en pixels) ou relative (en pourcentage). Par exemple, 50 % signifie que la vidéo de sortie a deux fois moins de pixels en hauteur que l’entrée.

label

string

Étiquette alphanumérique pour cette couche, qui peut être utilisée dans le multiplexage de différentes couches vidéo et audio, ou dans le nommage du fichier de sortie.

quality

integer

Qualité de compression de la sortie JPEG. La plage est comprise entre 0 et 100 et la valeur par défaut est 70.

width

string

Largeur de la vidéo de sortie pour cette couche. La valeur peut être absolue (en pixels) ou relative (en pourcentage). Par exemple, 50 % signifie que la vidéo de sortie a deux fois moins de pixels de largeur que l’entrée.

Mp4Format

Décrit les propriétés d’un fichier MP4 ISO de sortie.

Nom Type Description
@odata.type string:

#Microsoft.Media.Mp4Format

Discriminateur pour les types dérivés.

filenamePattern

string

Modèle de nommage de fichiers utilisé pour la création de fichiers de sortie. Les macros suivantes sont prises en charge dans le nom de fichier : {Basename} - Macro d’extension qui utilisera le nom du fichier vidéo d’entrée. Si le nom de base (le suffixe de fichier n’est pas inclus) du fichier vidéo d’entrée contient moins de 32 caractères, le nom de base des fichiers vidéo d’entrée est utilisé. Si la longueur du nom de base du fichier vidéo d’entrée dépasse 32 caractères, le nom de base est tronqué à la longueur totale des 32 premiers caractères. {Extension} : extension appropriée pour ce format. {Label} : étiquette affectée au codec/à la couche. {Index} : index unique pour les miniatures. Applicable uniquement aux miniatures. {AudioStream} - chaîne « Audio » plus numéro de flux audio (commencez à partir de 1). {Bitrate} : débit audio/vidéo en kbits/s. Non applicable aux miniatures. {Codec} : type du codec audio/vidéo. {Résolution} : résolution vidéo. Toutes les macros non sous-traitées sont réduites et supprimées du nom de fichier.

outputFiles

OutputFile[]

Liste des fichiers de sortie à produire. Chaque entrée de la liste est un ensemble d’étiquettes de couche audio et vidéo à ajouter.

MultiBitrateFormat

Décrit les propriétés permettant de produire une collection de fichiers multi-débit alignés sur le goP. Le comportement par défaut consiste à produire un fichier de sortie pour chaque couche vidéo qui est muxé avec tous les audios. Les fichiers de sortie exacts produits peuvent être contrôlés en spécifiant la collection outputFiles.

Nom Type Description
@odata.type string:

#Microsoft.Media.MultiBitrateFormat

Discriminateur pour les types dérivés.

filenamePattern

string

Modèle de nommage de fichiers utilisé pour la création de fichiers de sortie. Les macros suivantes sont prises en charge dans le nom de fichier : {Basename} - Macro d’extension qui utilisera le nom du fichier vidéo d’entrée. Si le nom de base (le suffixe de fichier n’est pas inclus) du fichier vidéo d’entrée contient moins de 32 caractères, le nom de base des fichiers vidéo d’entrée est utilisé. Si la longueur du nom de base du fichier vidéo d’entrée dépasse 32 caractères, le nom de base est tronqué à la longueur totale des 32 premiers caractères. {Extension} : extension appropriée pour ce format. {Label} : étiquette affectée au codec/à la couche. {Index} : index unique pour les miniatures. Applicable uniquement aux miniatures. {AudioStream} - chaîne « Audio » plus numéro de flux audio (commencez à partir de 1). {Bitrate} : débit audio/vidéo en kbits/s. Non applicable aux miniatures. {Codec} : type du codec audio/vidéo. {Résolution} : résolution vidéo. Toutes les macros non sous-traitées sont réduites et supprimées du nom de fichier.

outputFiles

OutputFile[]

Liste des fichiers de sortie à produire. Chaque entrée de la liste est un ensemble d’étiquettes de couche audio et vidéo à ajouter.

OnErrorType

Une transformation peut définir plusieurs sorties. Cette propriété définit ce que le service doit faire en cas d’échec d’une sortie : soit continuer à produire d’autres sorties, soit arrêter les autres sorties. L’état global du travail ne reflète pas les échecs des sorties spécifiées avec « ContinueJob ». La valeur par défaut est « StopProcessingJob ».

Nom Type Description
ContinueJob

string

Indique au service que si ce TransformOutput échoue, autorisez tout autre TransformOutput à continuer.

StopProcessingJob

string

Indique au service que si ce TransformOutput échoue, tous les autres TransformOutputs incomplets peuvent être arrêtés.

OutputFile

Représente un fichier de sortie produit.

Nom Type Description
labels

string[]

Liste des étiquettes qui décrivent comment l’encodeur doit multiplexer la vidéo et l’audio dans un fichier de sortie. Par exemple, si l’encodeur produit deux couches vidéo avec des étiquettes v1 et v2, et une couche audio avec l’étiquette a1, un tableau comme « [v1, a1] » indique à l’encodeur de produire un fichier de sortie avec la piste vidéo représentée par v1 et la piste audio représentée par a1.

PngFormat

Décrit les paramètres de production de miniatures PNG.

Nom Type Description
@odata.type string:

#Microsoft.Media.PngFormat

Discriminateur pour les types dérivés.

filenamePattern

string

Modèle de nommage de fichiers utilisé pour la création de fichiers de sortie. Les macros suivantes sont prises en charge dans le nom de fichier : {Basename} - Macro d’extension qui utilisera le nom du fichier vidéo d’entrée. Si le nom de base (le suffixe de fichier n’est pas inclus) du fichier vidéo d’entrée contient moins de 32 caractères, le nom de base des fichiers vidéo d’entrée est utilisé. Si la longueur du nom de base du fichier vidéo d’entrée dépasse 32 caractères, le nom de base est tronqué à la longueur totale des 32 premiers caractères. {Extension} : extension appropriée pour ce format. {Label} : étiquette affectée au codec/à la couche. {Index} : index unique pour les miniatures. Applicable uniquement aux miniatures. {AudioStream} - chaîne « Audio » plus numéro de flux audio (commencez à partir de 1). {Bitrate} : débit audio/vidéo en kbits/s. Non applicable aux miniatures. {Codec} : type du codec audio/vidéo. {Résolution} : résolution vidéo. Toutes les macros non sous-traitées sont réduites et supprimées du nom de fichier.

PngImage

Décrit les propriétés permettant de produire une série d’images PNG à partir de la vidéo d’entrée.

Nom Type Description
@odata.type string:

#Microsoft.Media.PngImage

Discriminateur pour les types dérivés.

keyFrameInterval

string

Distance entre deux images clés. La valeur doit être différente de zéro dans la plage [0,5, 20] secondes, spécifiée au format ISO 8601. La valeur par défaut est 2 secondes (PT2S). Notez que ce paramètre est ignoré si VideoSyncMode.Passthrough est défini, où la valeur KeyFrameInterval suit le paramètre de source d’entrée.

label

string

Étiquette facultative pour le codec. L’étiquette peut être utilisée pour contrôler le comportement de multiplexage.

layers

PngLayer[]

Collection de couches d’image PNG de sortie à produire par l’encodeur.

range

string

Position par rapport à l’heure de début prédéfinie de la transformation dans la vidéo d’entrée à laquelle arrêter la génération de miniatures. La valeur peut être au format ISO 8601 (par exemple, PT5M30S s’arrêter à 5 minutes et 30 secondes à partir de l’heure de début) ou un nombre d’images (par exemple, 300 pour s’arrêter à la 300e image de l’image au début. Si cette valeur est 1, cela signifie produire une seule miniature à l’heure de début) ou une valeur relative à la durée du flux (par exemple, 50 % pour s’arrêter à la moitié de la durée du flux à partir de l’heure de début). La valeur par défaut est 100 %, ce qui signifie qu’elle s’arrête à la fin du flux.

start

string

Position dans la vidéo d’entrée à partir de laquelle commencer à générer des miniatures. La valeur peut être au format ISO 8601 (par exemple, PT05S pour commencer à 5 secondes) ou un nombre de cadres (par exemple, 10 pour commencer au dixième cadre) ou une valeur relative à la durée du flux (par exemple, 10 % pour commencer à 10 % de la durée du flux). Prend également en charge une macro {Best}, qui indique à l’encodeur de sélectionner la meilleure miniature parmi les premières secondes de la vidéo pour ne produire qu’une seule miniature, quels que soient les autres paramètres pour Étape et Plage. La valeur par défaut est macro {Best}.

step

string

Intervalles auxquels les miniatures sont générées. La valeur peut être au format ISO 8601 (par exemple, PT05S pour une image toutes les 5 secondes), ou un nombre d’images (par exemple, 30 pour une image toutes les 30 images) ou une valeur relative à la durée du flux (par exemple, 10 % pour une image toutes les 10 % de la durée du flux). Remarque : La valeur de l’étape affecte la première miniature générée, qui peut ne pas être exactement celle spécifiée à l’heure de début de la présélection de transformation. Cela est dû à l’encodeur, qui tente de sélectionner la meilleure miniature entre l’heure de début et la position de l’étape à partir de l’heure de début comme première sortie. Comme la valeur par défaut est 10 %, cela signifie que si le flux a une longue durée, la première miniature générée peut être loin de celle spécifiée au début. Essayez de sélectionner la valeur raisonnable pour Étape si la première miniature est attendue proche de l’heure de début, ou définissez Valeur de plage sur 1 si une seule miniature est nécessaire au début.

stretchMode

StretchMode

Mode de redimensionnement : comment la vidéo d’entrée sera redimensionnée pour s’adapter à la ou aux résolutions de sortie souhaitées. La valeur par défaut est AutoSize

syncMode

VideoSyncMode

Mode de synchronisation vidéo

PngLayer

Décrit les paramètres pour produire une image PNG à partir de la vidéo d’entrée.

Nom Type Description
height

string

Hauteur de la vidéo de sortie pour cette couche. La valeur peut être absolue (en pixels) ou relative (en pourcentage). Par exemple, 50 % signifie que la vidéo de sortie a deux fois moins de pixels en hauteur que l’entrée.

label

string

Étiquette alphanumérique de cette couche, qui peut être utilisée dans le multiplexage de différentes couches vidéo et audio, ou dans le nommage du fichier de sortie.

width

string

Largeur de la vidéo de sortie pour cette couche. La valeur peut être absolue (en pixels) ou relative (en pourcentage). Par exemple, 50 % signifie que la vidéo de sortie a deux fois moins de pixels que l’entrée.

PresetConfigurations

Objet de paramètres de configuration facultatifs pour l’encodeur.

Nom Type Description
complexity

Complexity

Permet de configurer les paramètres de l’encodeur afin de contrôler l’équilibre entre la vitesse et la qualité. Exemple : définissez Complexité sur Vitesse pour accélérer l’encodage, mais réduire l’efficacité de la compression.

interleaveOutput

InterleaveOutput

Définit le mode entrelacement de la sortie pour contrôler la façon dont l’audio et la vidéo sont stockés au format conteneur. Exemple : définissez InterleavedOutput sur NonInterleavedOutput pour produire des sorties audio uniquement et vidéo dans des fichiers MP4 distincts.

keyFrameIntervalInSeconds

number

Intervalle d’images clés en secondes. Exemple : définissez KeyFrameIntervalInSeconds sur 2 pour réduire la mise en mémoire tampon de lecture pour certains joueurs.

maxBitrateBps

integer

Débit maximal en bits par seconde (seuil pour la couche vidéo supérieure). Exemple : définissez MaxBitrateBps sur 6000000 pour éviter de produire des sorties à débit binaire très élevé pour le contenu avec une complexité élevée.

maxHeight

integer

Hauteur maximale des couches vidéo de sortie. Exemple : définissez MaxHeight sur 720 pour produire des couches de sortie allant jusqu’à 720P, même si l’entrée est de 4 Ko.

maxLayers

integer

Nombre maximal de couches vidéo de sortie. Exemple : définissez MaxLayers sur 4 pour vous assurer qu’au maximum 4 couches de sortie sont produites pour contrôler le coût global du travail d’encodage.

minBitrateBps

integer

Débit minimal en bits par seconde (seuil pour la couche vidéo inférieure). Exemple : définissez MinBitrateBps sur 200000 pour avoir une couche inférieure qui couvre les utilisateurs avec une bande passante réseau faible.

minHeight

integer

Hauteur minimale des couches vidéo de sortie. Exemple : définissez MinHeight sur 360 pour éviter les couches de sortie de résolutions plus petites comme 180P.

Priority

Définit la priorité relative des TransformOutputs dans une transformation. Cela définit la priorité que le service utilise pour traiter TransformOutputs. La priorité par défaut est Normal.

Nom Type Description
High

string

Utilisé pour TransformOutputs qui doivent être prioritaires sur d’autres.

Low

string

Utilisé pour les TransformOutputs qui peuvent être générés après Les TransformOutputs à priorité normale et élevée.

Normal

string

Utilisé pour TransformOutputs qui peuvent être générés à priorité Normale.

Rectangle

Décrit les propriétés d’une fenêtre rectangulaire appliquée au média d’entrée avant de le traiter.

Nom Type Description
height

string

Hauteur de la zone rectangulaire en pixels. Il peut s’agir d’une valeur absolue en pixels (par exemple, 100) ou par rapport à la taille de la vidéo (par exemple, 50 %).

left

string

Nombre de pixels à partir de la marge de gauche. Il peut s’agir d’une valeur absolue en pixels (par exemple, 100) ou par rapport à la taille de la vidéo (par exemple, 50 %).

top

string

Nombre de pixels à partir de la marge supérieure. Il peut s’agir d’une valeur absolue en pixels (par exemple, 100) ou par rapport à la taille de la vidéo (par exemple, 50 %).

width

string

Largeur de la zone rectangulaire en pixels. Il peut s’agir d’une valeur absolue en pixels (par exemple, 100) ou par rapport à la taille de la vidéo (par exemple, 50 %).

Rotation

Rotation, le cas échéant, à appliquer à la vidéo d’entrée, avant qu’elle ne soit encodée. La valeur par défaut est Auto

Nom Type Description
Auto

string

Détecter et faire pivoter automatiquement en fonction des besoins.

None

string

Ne faites pas pivoter la vidéo. Si le format de sortie le prend en charge, toutes les métadonnées relatives à la rotation sont conservées intactes.

Rotate0

string

Ne faites pas pivoter la vidéo, mais supprimez les métadonnées relatives à la rotation.

Rotate180

string

Faire pivoter de 180 degrés dans le sens des aiguilles d’une montre.

Rotate270

string

Faire pivoter de 270 degrés dans le sens des aiguilles d’une montre.

Rotate90

string

Faire pivoter de 90 degrés dans le sens des aiguilles d’une montre.

StandardEncoderPreset

Décrit tous les paramètres à utiliser lors de l’encodage de la vidéo d’entrée avec l’encodeur standard.

Nom Type Description
@odata.type string:

#Microsoft.Media.StandardEncoderPreset

Discriminateur pour les types dérivés.

codecs Codec[]:

Liste des codecs à utiliser lors de l’encodage de la vidéo d’entrée.

experimentalOptions

object

Dictionnaire contenant des paires de valeurs de clé pour les paramètres non exposés dans la présélection elle-même

filters

Filters

Une ou plusieurs opérations de filtrage appliquées au média d’entrée avant l’encodage.

formats Format[]:

Liste des sorties à produire par l’encodeur.

StretchMode

Mode de redimensionnement : comment la vidéo d’entrée sera redimensionnée pour s’adapter aux résolutions de sortie souhaitées. La valeur par défaut est AutoSize

Nom Type Description
AutoFit

string

Padez la sortie (avec la boîte aux lettres ou la zone de pilier) pour respecter la résolution de sortie, tout en vous assurant que la région vidéo active dans la sortie a le même rapport d’aspect que l’entrée. Par exemple, si l’entrée est 1920x1080 et que la présélection d’encodage demande 1280x1280, la sortie sera à 1280x1280, qui contient un rectangle interne de 1280x720 au rapport d’aspect de 16 :9, et les zones de piliers de 280 pixels de large à gauche et à droite.

AutoSize

string

Remplacez la résolution de sortie et modifiez-la pour qu’elle corresponde au rapport d’affichage de l’entrée, sans remplissage. Par exemple, si l’entrée est 1920x1080 et la présélection d’encodage demande 1280x1280, la valeur dans la présélection est remplacée, et la sortie sera à 1280x720, qui conserve les proportions d’entrée en 16:9.

None

string

Respectez strictement la résolution de sortie sans tenir compte du rapport d’aspect en pixels ou de l’affichage de la vidéo d’entrée.

systemData

Métadonnées relatives à la création et à la dernière modification de la ressource.

Nom Type Description
createdAt

string

Horodatage de la création de ressources (UTC).

createdBy

string

Identité qui a créé la ressource.

createdByType

createdByType

Type d’identité qui a créé la ressource.

lastModifiedAt

string

Horodatage de la dernière modification de la ressource (UTC)

lastModifiedBy

string

Identité qui a modifié la dernière ressource.

lastModifiedByType

createdByType

Type d’identité qui a modifié la dernière ressource.

Transform

Une transformation encapsule les règles ou les instructions permettant de générer les sorties souhaitées à partir d’un support d’entrée, par exemple en transcodant ou en extrayant des insights. Une fois la transformation créée, elle peut être appliquée au média d’entrée en créant des travaux.

Nom Type Description
id

string

ID de ressource complet pour la ressource. Ex - /subscriptions/{subscriptionId}/resourceGroups/{resourceGroupName}/providers/{resourceProviderNamespace}/{resourceType}/{resourceName}

name

string

nom de la ressource.

properties.created

string

Date et heure UTC de création de la transformation, au format « AAAA-MM-JJThh:mm:ssZ ».

properties.description

string

Description détaillée facultative de la transformation.

properties.lastModified

string

Date et heure UTC de dernière modification de la transformation, au format « AAAA-MM-JJThh:mm:ssZ ».

properties.outputs

TransformOutput[]

Tableau d’un ou plusieurs TransformOutputs que la transformation doit générer.

systemData

systemData

Métadonnées système relatives à cette ressource.

type

string

Type de la ressource. Par exemple, « Microsoft.Compute/virtualMachines » ou « Microsoft.Storage/storageAccounts »

TransformOutput

Décrit les propriétés d’un TransformOutput, qui sont les règles à appliquer lors de la génération de la sortie souhaitée.

Nom Type Description
onError

OnErrorType

Une transformation peut définir plusieurs sorties. Cette propriété définit ce que le service doit faire en cas d’échec d’une sortie : soit continuer à produire d’autres sorties, soit arrêter les autres sorties. L’état global du travail ne reflète pas les échecs des sorties spécifiées avec « ContinueJob ». La valeur par défaut est « StopProcessingJob ».

preset Preset:

Présélection qui décrit les opérations qui seront utilisées pour modifier, transcoder ou extraire des insights du fichier source pour générer la sortie.

relativePriority

Priority

Définit la priorité relative des TransformOutputs dans une transformation. Cela définit la priorité que le service utilise pour traiter TransformOutputs. La priorité par défaut est Normal.

TransportStreamFormat

Décrit les propriétés permettant de générer un ou plusieurs fichiers vidéo de sortie MPEG-2 Transport Stream (ISO/IEC 13818-1).

Nom Type Description
@odata.type string:

#Microsoft.Media.TransportStreamFormat

Discriminateur pour les types dérivés.

filenamePattern

string

Modèle de nommage de fichiers utilisé pour la création de fichiers de sortie. Les macros suivantes sont prises en charge dans le nom de fichier : {Basename} - Macro d’extension qui utilisera le nom du fichier vidéo d’entrée. Si le nom de base (le suffixe de fichier n’est pas inclus) du fichier vidéo d’entrée contient moins de 32 caractères, le nom de base des fichiers vidéo d’entrée est utilisé. Si la longueur du nom de base du fichier vidéo d’entrée dépasse 32 caractères, le nom de base est tronqué à la longueur totale des 32 premiers caractères. {Extension} : extension appropriée pour ce format. {Label} : étiquette affectée au codec/à la couche. {Index} : index unique pour les miniatures. Applicable uniquement aux miniatures. {AudioStream} - chaîne « Audio » plus numéro de flux audio (commencez à partir de 1). {Bitrate} : débit audio/vidéo en kbits/s. Non applicable aux miniatures. {Codec} : type du codec audio/vidéo. {Résolution} : résolution vidéo. Toutes les macros non sous-traitées sont réduites et supprimées du nom de fichier.

outputFiles

OutputFile[]

Liste des fichiers de sortie à produire. Chaque entrée de la liste est un ensemble d’étiquettes de couche audio et vidéo à ajouter.

Video

Décrit les propriétés de base pour l’encodage de la vidéo d’entrée.

Nom Type Description
@odata.type string:

#Microsoft.Media.Video

Discriminateur pour les types dérivés.

keyFrameInterval

string

Distance entre deux images clés. La valeur doit être différente de zéro dans la plage [0,5, 20] secondes, spécifiée au format ISO 8601. La valeur par défaut est 2 secondes (PT2S). Notez que ce paramètre est ignoré si VideoSyncMode.Passthrough est défini, où la valeur KeyFrameInterval suit le paramètre de source d’entrée.

label

string

Étiquette facultative pour le codec. L’étiquette peut être utilisée pour contrôler le comportement de multiplexage.

stretchMode

StretchMode

Mode de redimensionnement : comment la vidéo d’entrée sera redimensionnée pour s’adapter à la ou aux résolutions de sortie souhaitées. La valeur par défaut est AutoSize

syncMode

VideoSyncMode

Mode de synchronisation vidéo

VideoAnalyzerPreset

Un préréglage d’analyseur vidéo qui extrait des insights (métadonnées enrichies) à partir de l’audio et de la vidéo, et génère un fichier au format JSON.

Nom Type Description
@odata.type string:

#Microsoft.Media.VideoAnalyzerPreset

Discriminateur pour les types dérivés.

audioLanguage

string

Langue de la charge utile audio dans l’entrée au format BCP-47 « language tag-region » (par exemple , « en-US »). Si vous connaissez la langue de votre contenu, il est recommandé de le spécifier. La langue doit être spécifiée explicitement pour AudioAnalysisMode ::Basic, car la détection automatique de la langue n’est pas incluse en mode de base. Si la langue n’est pas spécifiée ou a la valeur Null, la fonctionnalité de détection automatique de la langue choisit la première langue détectée qu’elle utilise pendant la durée de traitement du fichier. Actuellement, elle ne prend pas en charge le basculement dynamique d’une langue à l’autre après la détection de la première langue. La détection automatique fonctionne mieux avec les enregistrements audio avec une voix clairement discernable. Si la détection automatique ne parvient pas à trouver la langue, la transcription est de secours vers « en-US ». La liste des langues prises en charge est disponible ici : https://go.microsoft.com/fwlink/?linkid=2109463

experimentalOptions

object

Dictionnaire contenant des paires clé-valeur pour les paramètres non exposés dans la présélection elle-même

insightsToExtract

InsightsType

Définit le type d’insights que vous souhaitez que le service génère. Les valeurs autorisées sont « AudioInsightsOnly », « VideoInsightsOnly » et « AllInsights ». La valeur par défaut est AllInsights. Si vous définissez cette valeur sur AllInsights et que l’entrée est audio uniquement, seules les insights audio sont générés. De même, si l’entrée est vidéo uniquement, seules les insights vidéo sont générés. Il est recommandé de ne pas utiliser AudioInsightsOnly si vous vous attendez à ce que certaines de vos entrées soient uniquement vidéo ; ou utilisez VideoInsightsOnly si vous vous attendez à ce que certaines de vos entrées soient uniquement audio. Vos travaux dans de telles conditions auraient une erreur.

mode

AudioAnalysisMode

Détermine l’ensemble des opérations d’analyse audio à effectuer. S’il n’est pas spécifié, le Standard AudioAnalysisMode est choisi.

VideoOverlay

Décrit les propriétés d’une superposition vidéo.

Nom Type Description
@odata.type string:

#Microsoft.Media.VideoOverlay

Discriminateur pour les types dérivés.

audioGainLevel

number

Niveau de gain de l’audio dans la superposition. La valeur doit se trouver dans la plage [0, 1.0]. La valeur par défaut est 1.0.

cropRectangle

Rectangle

Fenêtre rectangulaire facultative utilisée pour rogner l’image ou la vidéo de superposition.

end

string

Position de fin, en référence à la vidéo d’entrée, à laquelle la superposition se termine. La valeur doit être au format ISO 8601. Par exemple, PT30S pour terminer la superposition à 30 secondes dans la vidéo d’entrée. Si elle n’est pas spécifiée ou si la valeur est supérieure à la durée de la vidéo d’entrée, la superposition sera appliquée jusqu’à la fin de la vidéo d’entrée si la durée du média de superposition est supérieure à la durée de la vidéo d’entrée, sinon la superposition durera aussi longtemps que la durée du média de superposition.

fadeInDuration

string

Durée pendant laquelle la superposition est fondue dans la vidéo d’entrée. La valeur doit être au format de durée ISO 8601. S’il n’est pas spécifié, le comportement par défaut est de ne pas avoir de fondu en (identique à PT0S).

fadeOutDuration

string

Durée pendant laquelle la superposition disparaît de la vidéo d’entrée. La valeur doit être au format de durée ISO 8601. S’il n’est pas spécifié, le comportement par défaut est de ne pas avoir de fondu (identique à PT0S).

inputLabel

string

Étiquette de l’entrée de travail qui doit être utilisée comme superposition. L’entrée doit spécifier exactement un fichier. Vous pouvez spécifier un fichier image au format JPG, PNG, GIF ou BMP, un fichier audio (par exemple un fichier WAV, MP3, WMA ou M4A), ou un fichier vidéo. Consultez https://aka.ms/mesformats la liste complète des formats de fichiers audio et vidéo pris en charge.

opacity

number

Opacité de la superposition. Il s’agit d’une valeur dans la plage [0 - 1.0]. La valeur par défaut est 1.0, ce qui signifie que la superposition est opaque.

position

Rectangle

Emplacement dans la vidéo d’entrée où la superposition est appliquée.

start

string

Position de début, en référence à la vidéo d’entrée, à laquelle la superposition démarre. La valeur doit être au format ISO 8601. Par exemple, PT05S pour démarrer la superposition à 5 secondes dans la vidéo d’entrée. Si elle n’est pas spécifiée, la superposition commence à partir du début de la vidéo d’entrée.

VideoSyncMode

Mode de synchronisation vidéo

Nom Type Description
Auto

string

Il s’agit de la méthode par défaut. Choisit entre Cfr et Vfr en fonction des fonctionnalités du muxer. Pour le format de sortie MP4, le mode par défaut est Cfr.

Cfr

string

Les images d’entrée sont répétées et/ou supprimées en fonction des besoins pour obtenir exactement la fréquence d’images constante demandée. Recommandé lorsque la fréquence d’images de sortie est explicitement définie à une valeur spécifiée

Passthrough

string

Les horodatages de présentation sur les images sont passés du fichier d’entrée au enregistreur de fichier de sortie. Recommandé lorsque la source d’entrée a une fréquence d’images variable et tente de produire plusieurs couches pour la diffusion en continu adaptative dans la sortie qui ont des limites de GOP alignées. Remarque : si deux images ou plus dans l’entrée ont des horodatages en double, la sortie aura également le même comportement

Vfr

string

Similaire au mode passthrough, mais si l’entrée a des images qui ont des horodatages en double, une seule image est passée à la sortie, et d’autres sont supprimées. Recommandé lorsque le nombre d’images de sortie est censé être égal au nombre d’images d’entrée. Par exemple, la sortie est utilisée pour calculer une métrique de qualité comme PSNR par rapport à l’entrée