Partager via


RenderSharedEventDriven

Cet exemple d’application utilise les API Core Audio pour restituer des données audio sur un appareil de sortie, spécifié par l’utilisateur. Cet exemple illustre la mise en mémoire tampon pilotée par les événements pour un client de rendu en mode partagé. Pour un flux en mode partagé, le client partage la mémoire tampon du point de terminaison avec le moteur audio.

Cette rubrique contient les sections suivantes.

Description

Cet exemple illustre les fonctionnalités suivantes.

  • API MMDevice pour l’énumération et la sélection d’appareils multimédias.
  • WASAPI pour les opérations de gestion de flux.

Spécifications

Produit Version
SDK Windows Windows 7
Visual Studio 2008

 

Téléchargement de l’exemple

Cet exemple est disponible aux emplacements suivants.

Emplacement Chemin/URL
Kit de développement logiciel (SDK) Windows \Program Files\Microsoft SDK\Windows\v7.0\Samples\Multimedia\Audio\RenderSharedEventDriven\...

 

Génération de l'exemple

Pour générer l’exemple RenderSharedEventDriven, procédez comme suit :

  1. Ouvrez l’interpréteur de commandes CMD pour le Kit de développement logiciel (SDK) Windows et accédez à l’exemple de répertoire RenderSharedEventDriven.
  2. Exécutez la commande start WASAPIRenderSharedEventDriven.sln dans le répertoire RenderSharedEventDriven pour ouvrir le projet WASAPIRenderSharedEventDriven dans la fenêtre Visual Studio.
  3. Dans la fenêtre, sélectionnez la configuration de la solution Déboguer ou Libérer , sélectionnez le menu Générer dans la barre de menus, puis sélectionnez l’option Générer . Si vous n’ouvrez pas Visual Studio à partir de l’interpréteur de commandes CMD pour le Kit de développement logiciel (SDK), Visual Studio n’aura pas accès à l’environnement de génération du KIT de développement logiciel (SDK). Dans ce cas, l’exemple ne sera généré que si vous définissez explicitement la variable d’environnement MSSdk, qui est utilisée dans le fichier projet, WASAPIRenderSharedEventDriven.vcproj.

Exécution de l'exemple

Si vous générez correctement l’application de démonstration, un fichier exécutable, WASAPIRenderSharedEventDriven.exe, est généré. Pour l’exécuter, tapez WASAPIRenderSharedEventDriven dans une fenêtre de commande suivie des arguments obligatoires ou facultatifs. L’exemple suivant montre comment exécuter l’exemple en spécifiant la durée de lecture sur l’appareil multimédia par défaut.

WASAPIRenderSharedEventDriven.exe -d 20 -multimedia

Le tableau suivant présente les arguments.

Argument Description
-? Affiche de l’aide.
-H Affiche de l’aide.
-f Fréquence des ondes sinusoïdales en Hz.
-l Latence de rendu audio en millisecondes.
-d Durée de l’onde sinusoïdale en secondes.
-M Désactive l’utilisation de MMCSS.
-Console Utilisez l’appareil console par défaut.
-Communications Utilisez le périphérique de communication par défaut.
-Multimédia Utilisez l’appareil multimédia par défaut.
-Terminaison Utilisez l’identificateur de point de terminaison spécifié dans la valeur de commutateur.

 

Si l’application est exécutée sans arguments, elle énumère les appareils disponibles et invite l’utilisateur à sélectionner un appareil pour la session de rendu. Une fois que l’utilisateur a spécifié un appareil, l’application restitue une onde sinusoïdale à 440 Hz pendant 10 secondes. Ces valeurs peuvent être modifiées en spécifiant les valeurs de commutateur -f et -d.

RenderSharedEventDriven illustre la mise en mémoire tampon pilotée par les événements. L’exemple montre comment :

  • Instanciez un client audio, configurez-le pour qu’il s’exécute en mode exclusif et activez la mise en mémoire tampon pilotée par les événements en définissant l’indicateur AUDCLNT_STREAMFLAGS_EVENTCALLBACK dans l’appel sur IAudioClient::Initialize.
  • Associez le client aux exemples prêts à être rendus en fournissant un handle d’événement au système en appelant la méthode IAudioClient::SetEventHandle .
  • Créez un thread de rendu pour effectuer des exemples à partir du moteur audio.
  • Vérifiez le format de combinaison du point de terminaison d’appareil pour déterminer si les exemples peuvent être rendus. Si l’appareil ne prend pas en charge le format de combinaison, les données sont converties en PCM.
  • Gérer le basculement de flux.

Une fois la session de rendu démarrée et le flux démarré, le moteur audio signale au handle d’événement fourni d’avertir le client chaque fois qu’une mémoire tampon est prête pour le traitement du client. Les données audio peuvent également être traitées dans une boucle pilotée par le minuteur. Ce mode est illustré dans l’exemple RenderSharedTimerDriven .

Pour plus d’informations sur le rendu d’un flux, consultez Rendu d’un flux.

Exemples sdk qui utilisent les API audio de base