Share via


Empaquetage dynamique dans Media Services v3

Logo de Media Services v3


Avertissement

Azure Media Services sera mis hors service le 30 juin 2024. Pour plus d’informations, consultez le Guide de mise hors service AMS.

Azure Media Services fournit des fonctionnalités de serveur d’origine et d’empaquetage intégrées pour fournir du contenu dans des formats de protocole de streaming HLS et MPEG DASH. Dans AMS, le point de terminaison de streaming agit comme le serveur « d’origine » qui envoie le contenu HLS et DASH mis en forme aux lecteurs clients prenant en charge le streaming à débit adaptatif à l’aide de ces formats populaires. Le point de terminaison de streaming prend également en charge de nombreuses fonctionnalités, comme l’empaquetage dynamique juste-à-temps avec ou sans protection de contenu, pour atteindre tous les principaux appareils (comme les appareils iOS et Android).

La plupart des navigateurs et des appareils mobiles sur le marché actuel prennent en charge et comprennent les protocoles de streaming HLS ou DASH. Par exemple, iOS exige que les flux soient fournis au format HTTP Live Streaming (HLS). Les appareils Android prennent en charge le streaming HLS et MPEG DASH sur certains modèles (ou via l’utilisation du lecteur au niveau application Exoplayer pour les appareils Android).

Dans Media Services, un point de terminaison de streaming (origine) représente un service d’empaquetage dynamique (juste-à-temps) à l’origine qui permet de distribuer votre contenu en direct et à la demande directement à une application de lecture cliente. Il utilise un des protocoles de diffusion multimédia en continu courants mentionnés dans la section suivante. L’empaquetage dynamique est une fonctionnalité standard sur tous les points de terminaison de streaming.

empaquetage dynamique

Voici les avantages de l’empaquetage juste-à-temps :

  • Vous pouvez stocker tous vos fichiers au format de fichier MP4 standard.
  • Vous n’avez pas besoin de stocker plusieurs copies des formats HLS et DASH empaquetés statiques dans le stockage blob, ce qui réduit la quantité de contenu vidéo stocké et réduit vos coûts de stockage.
  • Vous pouvez instantanément tirer parti des nouvelles mises à jour de protocole et des modifications apportées aux spécifications sans avoir à re-empaqueter le contenu statique de votre catalogue.
  • Vous pouvez fournir du contenu avec ou sans chiffrement et DRM à l’aide des mêmes fichiers MP4 dans le stockage.
  • Vous pouvez filtrer ou modifier dynamiquement les manifestes avec des filtres simples au niveau de la ressource ou globaux pour supprimer des pistes, des résolutions et des langages spécifiques, ou fournir des clips plus courts de présentation à partir des mêmes fichiers MP4 sans recodage ni nouveau rendu du contenu.

Pour préparer vos fichiers sources en vue de leur distribution

Pour tirer parti de l’empaquetage dynamique, encodez votre fichier mezzanine (source) dans un ensemble de fichiers MP4 à débit binaire unique ou multiple (ISO 14496-12). Les fichiers vidéo encodés et les fichiers de configuration de streaming se trouvent dans une ressource de sortie. À partir de cet ensemble de fichiers, vous pouvez utiliser l’empaquetage dynamique pour diffuser des vidéos via les protocoles multimédias de streaming.

En règle générale, vous allez utiliser l’encodeur standard Azure Media Services pour générer ce contenu à l’aide des présélections d’encodage de contenu ou des présélections de débit adaptatif. Tous deux génèrent un ensemble de fichiers MP4 prêts pour le streaming et l’empaquetage dynamique.

Vous pouvez également choisir d’encoder à l’aide d’un service externe, local ou sur vos propres machines virtuelles ou applications de fonction serverless. Le contenu encodé en externe peut être chargé dans une ressource pour le streaming, à condition qu’il réponde aux exigences d’encodage pour les formats de streaming à débit adaptatif. Un exemple de projet de chargement d’un fichier MP4 pré-encodé pour le streaming est disponible dans les exemples du kit SDK .NET – consultez Diffuser en continu des fichiers MP4 existants.

L’empaquetage dynamique Azure Media Services prend uniquement en charge les fichiers vidéo et audio au format de conteneur MP4. Les fichiers audio doivent également être encodés dans un conteneur MP4 lors de l’utilisation d’autres codecs, comme Dolby.

Rendre des vidéos disponibles pour le streaming

Pour mettre des vidéos dans la ressource encodée à la disposition des clients pour la lecture, publiez la ressource à l’aide d’un localisateur de streaming et créez les URL de streaming HLS et DASH appropriées. En modifiant le protocole utilisé sur la requête de format d’URL, le service fournit le manifeste de diffusion en continu approprié (HLS, MPEG DASH).)

Par conséquent, vous avez besoin de stocker et de payer uniquement les fichiers dans un format de stockage unique (MP4). Media Services génère et traite les manifestes HLS ou DASH en fonction des requêtes des lecteurs clients.

Si vous envisagez de protéger votre contenu à l’aide du chiffrement dynamique Media Services, consultez Protocoles de streaming et types de chiffrement.

Fournir le format HLS

Empaquetage dynamique HLS

Votre client de streaming peut spécifier les formats HLS suivants. Nous vous recommandons d’utiliser le format CMAF pour la compatibilité avec les lecteurs et les appareils iOS les plus récents. Pour les appareils hérités, les formats v4 et v3 sont également disponibles en modifiant simplement la chaîne de requête de format.

Protocol Chaîne de format Exemple
HLS CMAF format=m3u8-cmaf https://amsv3account-usw22.streaming.media.azure.net/21b17732-0112-4d76-b526-763dcd843449/ignite.ism/manifest(format=m3u8-cmaf)
HLS V4 format=m3u8-aapl https://amsv3account-usw22.streaming.media.azure.net/21b17732-0112-4d76-b526-763dcd843449/ignite.ism/manifest(format=m3u8-aapl)
HLS V3 format=m3u8-aapl-v3 https://amsv3account-usw22.streaming.media.azure.net/21b17732-0112-4d76-b526-763dcd843449/ignite.ism/manifest(format=m3u8-aapl-v3)

Notes

Les recommandations spécifiées dans les instructions précédentes d’Apple indiquaient que la solution de secours pour les réseaux à faible bande passante était de fournir un flux audio uniquement. À l’heure actuelle, l’encodeur Media Services génère automatiquement une piste audio uniquement. Les instructions Apple stipulent à présent que la piste audio uniquement ne doit pas être incluse, en particulier pour la distribution Apple TV. Afin d’éviter que le joueur n’ait pas par défaut une piste audio uniquement, nous vous suggérons d’utiliser la balise « audio-only = false » dans l’URL, ce qui supprime le rendu audio uniquement dans le format TLS, ou utiliser simplement HLS-v3. Par exemple : http://host/locator/asset.ism/manifest(format=m3u8-aapl,audio-only=false).

Taux de compression HLS pour la vidéo à la demande (VOD)

Pour contrôler le taux de compression du contenu VOD pour les anciens formats HLS, vous pouvez définir la balise de métadonnées fragmentsPerHLSSegment dans le fichier .ism afin de contrôler le taux de compression par défaut de 3:1 pour les segments TS fournis à partir des manifestes de format HLS v3 et v4 plus anciens. Cette modification du paramètre vous oblige à modifier directement le fichier .ism dans le stockage pour ajuster le taux de compression.

Exemple de manifeste du serveur .ism avec fragmentsPerHLSSegment défini sur 1.

   <?xml version="1.0" encoding="utf-8" standalone="yes"?>
   <smil xmlns="http://www.w3.org/2001/SMIL20/Language">
      <head>
         <meta name="formats" content="mp4" />
         <meta name="fragmentsPerHLSSegment" content="1"/>
      </head>
      <body>
         <switch>
         ...
         </switch>
      </body>
   </smil>

Fournir DASH

Empaquetage dynamique DASH

Votre client de streaming peut spécifier les formats MPEG-DASH suivants :

Protocol Chaîne de format Exemple
MPEG-DASH CMAF format=mpd-time-cmaf https://amsv3account-usw22.streaming.media.azure.net/21b17732-0112-4d76-b526-763dcd843449/ignite.ism/manifest(format=mpd-time-cmaf)
MPEG-DASH CSF (hérité) format=mpd-time-csf https://amsv3account-usw22.streaming.media.azure.net/21b17732-0112-4d76-b526-763dcd843449/ignite.ism/manifest(format=mpd-time-csf)

Fournir des manifestes Smooth Streaming

Empaquetage dynamique Smooth Streaming

Votre client de streaming peut spécifier les formats Smooth Streaming suivants :

Protocol Remarques/Exemples
Smooth Streaming https://amsv3account-usw22.streaming.media.azure.net/21b17732-0112-4d76-b526-763dcd843449/ignite.ism/manifest
Smooth Streaming 2.0 (manifeste hérité) Par défaut, le manifeste Smooth Streaming contient la balise de répétition (r-tag). Toutefois, certains lecteurs ne prennent pas en charge la balise r-tag. Les clients disposant de ces lecteurs peuvent utiliser un format qui désactive la balise r-tag :

https://amsv3account-usw22.streaming.media.azure.net/21b17732-0112-4d76-b526-763dcd843449/ignite.ism/manifest(format=fmp4-v20)

Notes

Smooth Streaming nécessite la présence d’audio et de vidéo dans votre flux.

Workflow du streaming à la demande

Les étapes qui suivent présentent un workflow de streaming Media Services courant dans lequel l’empaquetage dynamique est utilisé avec l’Encodeur Standard dans Azure Media Services.

  1. Charger un fichier d'entrée, tel qu’un fichier MP4, QuickTime/MOV, ou d’un autre format de fichier pris en charge. On parle également dans ce cas de fichier source ou mezzanine. Pour obtenir la liste des formats pris en charge, consultez Formats pris en charge par l’encodeur standard.

  2. Encodez votre fichier mezzanine en un ensemble de fichiers MP4 à vitesse de transmission adaptative H.264/AAC.

    Si vous avez déjà encodé des fichiers et voulez simplement les copier et les diffuser, utilisez : les API CopyVideo et CopyAudio. Par conséquent, un nouveau fichier MP4 avec un manifeste de diffusion en continu (fichier. ISM) sera créé.

    En outre, vous pouvez simplement générer le fichier .ism et .ismc sur un fichier préencodé, à condition qu’il soit encodé à l’aide des paramètres appropriés pour le streaming à débit adaptatif (il s’agit généralement de groupes d’images (GOP) 2 secondes, de distances d’images clés de 2 s minimum et maximum, et d’encodage en mode vitesse de transmission constante (CBR)).

    Pour plus d’informations sur la façon de générer les fichiers .ism (manifeste du serveur) et .ismc (manifestes du client) pour le streaming à partir d’un fichier MP4 existant et préencodé, consultez l’exemple de streaming d’un MP4 existant du kit SDK .NET .

  3. Publier l’élément multimédia de sortie qui contient le fichier au débit adaptatif MP4 défini. Vous publiez en créant un localisateur de streaming.

  4. Générez des URL qui ciblent différents formats (HLS, MPEG-DASH et Smooth Streaming). Le point de terminaison de streaming s’occupe de distribuer le manifeste et les requêtes appropriés pour tous ces différents formats.

Le chemin de téléchargement est présent dans l’image ci-dessus juste pour vous montrer que vous pouvez télécharger un fichier MP4 directement via le point de terminaison de streaming (origine). (Vous spécifiez la stratégie de streaming téléchargeable sur le localisateur de streaming).
L’empaqueteur dynamique ne modifie pas le fichier. Vous avez la possibilité d’utiliser les API Stockage Blob Azure pour accéder directement à un MP4 pour un téléchargement progressif si vous voulez ignorer les fonctionnalités (d’origine) du point de terminaison de streaming.

Encoder en fichiers MP4 à débit adaptatif

Les articles suivants donnent des exemples de l’encodage d’une vidéo avec Media Services :

Consultez la liste des formats et codecs de l’encodeur standard pris en charge.

Workflow de streaming en direct

Un événement en direct peut être défini sur Pass-through (un encodeur live local envoie un flux à vitesse de transmission multiple) ou sur Live Encoding (un encodeur live local envoie un flux à vitesse de transmission unique).

Voici un workflow courant pour le streaming en direct avec l’empaquetage dynamique :

  1. Créez un événement en direct.
  2. Récupérez l’URL d’ingestion et configurez votre encodeur local afin qu’il utilise cette URL pour envoyer le flux de contribution.
  3. Récupérez l’URL d’aperçu et utilisez-la pour vérifier que l’entrée de l’encodeur est bien reçue.
  4. Créez un actif multimédia.
  5. Créez une sortie en direct et utilisez le nom de l’actif multimédia que vous venez de créer.
    La sortie en direct archive le flux dans l’actif multimédia.
  6. Créez un localisateur de streaming avec les types intégrés de la stratégie de streaming.
    Pour chiffrer le contenu, voir Vue d’ensemble de la protection du contenu.
  7. Listez les chemins dans le localisateur de streaming pour obtenir les URL à utiliser.
  8. Récupérez le nom d’hôte du point de terminaison de streaming à partir duquel vous souhaitez effectuer le streaming.
  9. Générez des URL qui ciblent différents formats (HLS, MPEG-DASH et Smooth Streaming). Le point de terminaison de streaming s’occupe de distribuer le manifeste et les requêtes appropriés pour les différents formats.

Pour plus d’informations sur le streaming en direct dans Media Services v3, consultez Vue d’ensemble du streaming en direct.

Codecs vidéo pris en charge par l’empaquetage dynamique

L’empaquetage dynamique prend en charge les fichiers vidéo qui sont à un format de fichier de conteneur MP4 et qui contiennent de la vidéo encodée avec H.264 (MPEG-4 AVC ou AVC1) ou H.265 (HEVC, hev1 ou hvc1).

Notes

Des résolutions allant jusqu’à 4K et des fréquences d’images allant jusqu’à 60 images/seconde ont été testées avec l’empaquetage dynamique.

Codecs audio pris en charge par l’empaquetage dynamique

L’empaquetage dynamique prend également en charge les fichiers audio stockés au format de conteneur de fichier MP4 contenant un flux audio encodé dans un des codecs suivants :

  • AAC (AAC-LC, HE-AAC v1 ou HE-AAC v2).

  • Dolby Digital Plus (Enhanced AC-3 ou E-AC3). L’audio encodé doit être stocké au format de conteneur MP4 pour fonctionner avec l’empaquetage dynamique.

  • Dolby Atmos

    Le streaming de contenu Dolby Atmos est pris en charge pour les normes telles que le protocole MPEG-DASH avec MP4 fragmenté au format CSF (Common Streaming Format) ou CMAF (Common Media Application Format), et via HLS (HTTP Live Streaming) avec CMAF.

  • DTS
    Les codecs DTS pris en charge par les formats d’empaquetage DASH-CSF, DASH-CMAF, HLS-M2TS et HLS-CMAF sont :

    • DTS Digital Surround (dtsc)
    • DTS-HD High Resolution et DTS-HD Master Audio (dtsh)
    • DTS Express (dtse)
    • DTS-HD Lossless (pas de cœur) (dtsl)

L’empaquetage dynamique prend en charge plusieurs pistes audio avec DASH ou HLS (version 4 ou ultérieure) pour le streaming d’actifs multimédias ayant plusieurs pistes audio avec plusieurs langues et codecs.

Pour tous les codecs audio ci-dessus, l’audio encodé doit être stocké au format de conteneur MP4 pour fonctionner avec l’empaquetage dynamique. Le service ne prend pas en charge les formats de fichiers de flux élémentaires bruts sur Stockage Blob (par exemple, les formats suivants ne sont pas pris en charge : .dts, .ac3).

Seuls les fichiers avec l’extension .mp4 de l’extension .mp4a sont pris en charge pour l’empaquetage audio.

Limites

Limitation iOS sur l’audio AAC 5.1

Les appareils iOS d’Apple ne prennent pas en charge le codec audio AAC 5.1. L’audio multicanal doit être encodé à l’aide des codecs Dolby Digital ou Dolby Digital Plus.

Pour plus d’informations, consultez la spécification de création de contenu HLS pour les appareils Apple.

Notes

Media Services ne prend pas en charge l’encodage des formats audio multicanaux Dolby Digital, Dolby Digital Plus ou Dolby Digital Plus avec Dolby Atmos.

Audio Dolby Digital

L’empaquetage dynamique Media Services ne prend pas en charge les fichiers contenant de l’audio Dolby Digital (AC3) (car cela est considéré comme un codec hérité par Dolby).

Manifestes

Dans l’empaquetage dynamique Media Services, les manifestes du client de streaming pour HLS, MPEG-DASH et Smooth Streaming sont générés dynamiquement selon la requête de format dans l’URL.

Un fichier manifeste inclut des métadonnées de streaming telles que les suivantes : type de piste (audio, vidéo ou texte), nom de piste, heure de début et de fin, débit (qualités), langues de piste, fenêtre de présentation (fenêtre glissante de durée fixe) et codec vidéo (FourCC). Il indique également au lecteur de récupérer le fragment suivant en fournissant des informations sur les fragments vidéo pouvant être lus suivants disponibles et leur emplacement. Les fragments (ou segments) correspondent aux « blocs » réels d’un contenu vidéo.

Exemples

HLS

Voici un exemple d’un fichier manifeste HLS, également appelé liste de lectures principale HLS :

#EXTM3U
#EXT-X-VERSION:4
#EXT-X-MEDIA:TYPE=AUDIO,GROUP-ID="audio",NAME="aac_eng_2_128041_2_1",LANGUAGE="eng",DEFAULT=YES,AUTOSELECT=YES,URI="QualityLevels(128041)/Manifest(aac_eng_2_128041_2_1,format=m3u8-aapl)"
#EXT-X-STREAM-INF:BANDWIDTH=536608,RESOLUTION=320x180,CODECS="avc1.64000d,mp4a.40.2",AUDIO="audio"
QualityLevels(381048)/Manifest(video,format=m3u8-aapl)
#EXT-X-I-FRAME-STREAM-INF:BANDWIDTH=536608,RESOLUTION=320x180,CODECS="avc1.64000d",URI="QualityLevels(381048)/Manifest(video,format=m3u8-aapl,type=keyframes)"
#EXT-X-STREAM-INF:BANDWIDTH=884544,RESOLUTION=480x270,CODECS="avc1.640015,mp4a.40.2",AUDIO="audio"
QualityLevels(721495)/Manifest(video,format=m3u8-aapl)
#EXT-X-I-FRAME-STREAM-INF:BANDWIDTH=884544,RESOLUTION=480x270,CODECS="avc1.640015",URI="QualityLevels(721495)/Manifest(video,format=m3u8-aapl,type=keyframes)"
#EXT-X-STREAM-INF:BANDWIDTH=1327398,RESOLUTION=640x360,CODECS="avc1.64001e,mp4a.40.2",AUDIO="audio"
QualityLevels(1154816)/Manifest(video,format=m3u8-aapl)
#EXT-X-I-FRAME-STREAM-INF:BANDWIDTH=1327398,RESOLUTION=640x360,CODECS="avc1.64001e",URI="QualityLevels(1154816)/Manifest(video,format=m3u8-aapl,type=keyframes)"
#EXT-X-STREAM-INF:BANDWIDTH=2413312,RESOLUTION=960x540,CODECS="avc1.64001f,mp4a.40.2",AUDIO="audio"
QualityLevels(2217354)/Manifest(video,format=m3u8-aapl)
#EXT-X-I-FRAME-STREAM-INF:BANDWIDTH=2413312,RESOLUTION=960x540,CODECS="avc1.64001f",URI="QualityLevels(2217354)/Manifest(video,format=m3u8-aapl,type=keyframes)"
#EXT-X-STREAM-INF:BANDWIDTH=3805760,RESOLUTION=1280x720,CODECS="avc1.640020,mp4a.40.2",AUDIO="audio"
QualityLevels(3579827)/Manifest(video,format=m3u8-aapl)
#EXT-X-I-FRAME-STREAM-INF:BANDWIDTH=3805760,RESOLUTION=1280x720,CODECS="avc1.640020",URI="QualityLevels(3579827)/Manifest(video,format=m3u8-aapl,type=keyframes)"
#EXT-X-STREAM-INF:BANDWIDTH=139017,CODECS="mp4a.40.2",AUDIO="audio"
QualityLevels(128041)/Manifest(aac_eng_2_128041_2_1,format=m3u8-aapl)

MPEG-DASH

Voici un exemple d’un fichier manifeste MPEG-DASH, également appelé fichier MPEG-DASH MPD (Media Presentation Description) :

<?xml version="1.0" encoding="UTF-8"?>
<MPD xmlns="urn:mpeg:dash:schema:mpd:2011" xmlns:xsi="https://www.w3.org/2001/XMLSchema-instance" profiles="urn:mpeg:dash:profile:isoff-live:2011" type="static" mediaPresentationDuration="PT1M10.315S" minBufferTime="PT7S">
   <Period>
      <AdaptationSet id="1" group="5" profiles="ccff" bitstreamSwitching="false" segmentAlignment="true" contentType="audio" mimeType="audio/mp4" codecs="mp4a.40.2" lang="en">
         <SegmentTemplate timescale="10000000" media="QualityLevels($Bandwidth$)/Fragments(aac_eng_2_128041_2_1=$Time$,format=mpd-time-csf)" initialization="QualityLevels($Bandwidth$)/Fragments(aac_eng_2_128041_2_1=i,format=mpd-time-csf)">
            <SegmentTimeline>
               <S d="60160000" r="10" />
               <S d="41386666" />
            </SegmentTimeline>
         </SegmentTemplate>
         <Representation id="5_A_aac_eng_2_128041_2_1_1" bandwidth="128041" audioSamplingRate="48000" />
      </AdaptationSet>
      <AdaptationSet id="2" group="1" profiles="ccff" bitstreamSwitching="false" segmentAlignment="true" contentType="video" mimeType="video/mp4" codecs="avc1.640020" maxWidth="1280" maxHeight="720" startWithSAP="1">
         <SegmentTemplate timescale="10000000" media="QualityLevels($Bandwidth$)/Fragments(video=$Time$,format=mpd-time-csf)" initialization="QualityLevels($Bandwidth$)/Fragments(video=i,format=mpd-time-csf)">
            <SegmentTimeline>
               <S d="60060000" r="10" />
               <S d="42375666" />
            </SegmentTimeline>
         </SegmentTemplate>
         <Representation id="1_V_video_1" bandwidth="3579827" width="1280" height="720" />
         <Representation id="1_V_video_2" bandwidth="2217354" codecs="avc1.64001F" width="960" height="540" />
         <Representation id="1_V_video_3" bandwidth="1154816" codecs="avc1.64001E" width="640" height="360" />
         <Representation id="1_V_video_4" bandwidth="721495" codecs="avc1.640015" width="480" height="270" />
         <Representation id="1_V_video_5" bandwidth="381048" codecs="avc1.64000D" width="320" height="180" />
      </AdaptationSet>
   </Period>
</MPD>

Smooth Streaming

Voici un exemple d’un fichier manifeste Smooth Streaming :

<?xml version="1.0" encoding="UTF-8"?>
<SmoothStreamingMedia MajorVersion="2" MinorVersion="2" Duration="703146666" TimeScale="10000000">
   <StreamIndex Chunks="12" Type="audio" Url="QualityLevels({bitrate})/Fragments(aac_eng_2_128041_2_1={start time})" QualityLevels="1" Language="eng" Name="aac_eng_2_128041_2_1">
      <QualityLevel AudioTag="255" Index="0" BitsPerSample="16" Bitrate="128041" FourCC="AACL" CodecPrivateData="1190" Channels="2" PacketSize="4" SamplingRate="48000" />
      <c t="0" d="60160000" r="11" />
      <c d="41386666" />
   </StreamIndex>
   <StreamIndex Chunks="12" Type="video" Url="QualityLevels({bitrate})/Fragments(video={start time})" QualityLevels="5">
      <QualityLevel Index="0" Bitrate="3579827" FourCC="H264" MaxWidth="1280" MaxHeight="720" CodecPrivateData="0000000167640020ACD9405005BB011000003E90000EA600F18319600000000168EBECB22C" />
      <QualityLevel Index="1" Bitrate="2217354" FourCC="H264" MaxWidth="960" MaxHeight="540" CodecPrivateData="000000016764001FACD940F0117EF01100000303E90000EA600F1831960000000168EBECB22C" />
      <QualityLevel Index="2" Bitrate="1154816" FourCC="H264" MaxWidth="640" MaxHeight="360" CodecPrivateData="000000016764001EACD940A02FF9701100000303E90000EA600F162D960000000168EBECB22C" />
      <QualityLevel Index="3" Bitrate="721495" FourCC="H264" MaxWidth="480" MaxHeight="270" CodecPrivateData="0000000167640015ACD941E08FEB011000003E90000EA600F162D9600000000168EBECB22C" />
      <QualityLevel Index="4" Bitrate="381048" FourCC="H264" MaxWidth="320" MaxHeight="180" CodecPrivateData="000000016764000DACD941419F9F011000003E90000EA600F14299600000000168EBECB22C" />
      <c t="0" d="60060000" r="11" />
      <c d="42375666" />
   </StreamIndex>
</SmoothStreamingMedia>

Dénomination des pistes dans le manifeste

Si un nom de piste audio est spécifié dans le fichier .ism, Media Services ajoute un élément Label dans un AdaptationSet pour spécifier les informations de texture pour la piste audio spécifique. Voici un exemple de manifeste DASH de sortie :

<AdaptationSet codecs="mp4a.40.2" contentType="audio" lang="en" mimeType="audio/mp4" subsegmentAlignment="true" subsegmentStartsWithSAP="1">
  <Label>audio_track_name</Label>
  <Role schemeIdUri="urn:mpeg:dash:role:2011" value="main"/>
  <Representation audioSamplingRate="48000" bandwidth="131152" id="German_Forest_Short_Poem_english-en-68s-2-lc-128000bps_seg">
    <BaseURL>German_Forest_Short_Poem_english-en-68s-2-lc-128000bps_seg.mp4</BaseURL>
  </Representation>
</AdaptationSet>

Le lecteur peut utiliser l'élément Label pour l’afficher sur son interface utilisateur.

Signalisation des pistes de description audio

Vous pouvez ajouter une piste de narration à votre vidéo pour aider les clients malvoyants à suivre l’enregistrement vidéo en écoutant la narration. Vous devez annoter une piste audio en tant que description audio dans le manifeste. Pour ce faire, ajoutez les paramètres « accessibility » et « role » au fichier .ism. C’est à vous qu’il incombe de définir correctement ces paramètres pour signaler une piste audio en tant que description audio. Par exemple, ajoutez <param name="accessibility" value="description" /> et <param name="role" value="alternate" au fichier .ism pour une piste audio spécifique.s

Manifeste Smooth Streaming

Si vous lisez un flux Smooth Streaming, le manifeste transmet des valeurs dans les attributs Accessibility et Role pour cette piste audio. Par exemple, Role="alternate" Accessibility="description" est ajouté à l’élément StreamIndex pour indiquer qu’il s’agit d’une description audio.

Manifeste DASH

Pour le manifeste DASH, les deux éléments suivants sont ajoutés pour signaler la description audio :

<Accessibility schemeIdUri="urn:mpeg:dash:role:2011" value="description"/>
<Role schemeIdUri="urn:mpeg:dash:role:2011" value="alternate"/>

Sélection HLS

Pour HLS v7 et ultérieur (format=m3u8-cmaf), sa sélection transmet AUTOSELECT=YES,CHARACTERISTICS="public.accessibility.describes-video" quand la piste de description audio est signalée.

Filtres de manifeste dynamique

Pour contrôler le nombre de pistes, les formats, les débits et les fenêtres de temps de présentation qui sont envoyés aux lecteurs, vous pouvez utiliser un filtrage dynamique avec l’empaquetage dynamique Media Services. Pour plus d’informations, consultez Manifestes de filtrage préalable avec l’empaquetage dynamique.

Chiffrement dynamique pour DRM

Le chiffrement dynamique permet de chiffrer dynamiquement votre contenu en direct ou à la demande avec AES-128 ou l’un des trois systèmes principaux de gestion des droits numériques (DRM) : Microsoft PlayReady, Google Widevine et Apple FairPlay. Media Services fournit également un service de distribution de clés AES et de licences DRM aux clients autorisés. Pour plus d’informations, consultez Chiffrement dynamique.

Notes

Widevine est un service fourni par Google Inc. soumis aux conditions de service et à la politique de confidentialité de Google, Inc.

Obtenir de l’aide et du support

Vous pouvez contacter Media Services pour toute question ou suivre nos mises à jour selon l’une des méthodes suivantes :