Freigeben über


Windows.Media.Audio Namespace

Stellt APIs zum Routing, Mischen und Verarbeiten von Audio bereit.

Klassen

AudioDeviceInputNode

Stellt einen Knoten in einem Audiodiagrammknoten dar, der Audiodaten von einem Audiogerät wie einem Mikrofon oder einer externen Audioschnittstelle in das Diagramm eingibt.

AudioDeviceOutputNode

Stellt einen Knoten in einem Audiodiagrammknoten dar, der Audiodaten aus dem Diagramm an ein Audiogerät wie einen Lautsprecher oder eine externe Audioschnittstelle ausgibt.

AudioEffectsPackConfiguration

Stellt APIs zum Routing, Mischen und Verarbeiten von Audio bereit.

AudioFileInputNode

Stellt einen Knoten in einem Audiodiagrammknoten dar, der Audiodaten aus einer Audiodatei in das Diagramm eingibt.

AudioFileOutputNode

Stellt einen Knoten in einem Audiodiagrammknoten dar, der Audiodaten aus dem Diagramm in eine Audiodatei ausgibt.

AudioFrameCompletedEventArgs

Stellt Argumente für ein AudioFrameCompleted-Ereignis dar .

AudioFrameInputNode

Stellt einen Knoten in einem Audiodiagrammknoten dar, der Audiodaten aus app-implementiertem Code, der Audiobeispiele programmgesteuert generiert, in das Diagramm eingibt.

AudioFrameOutputNode

Stellt einen Knoten in einem Audiodiagrammknoten dar, der Audiodaten aus dem Diagramm in App-implementierten Code ausgibt.

AudioGraph

Stellt ein Audiodiagramm von verbundenen Eingabe-, Ausgabe- und Submixknoten dar, die Audio bearbeiten und weiterleiten.

AudioGraphBatchUpdater

Ein -Objekt, das bei der Erstellung mit CreateBatchUpdater bewirkt, dass alle nachfolgenden Änderungen an allen Knoten in einem AudioGraph kumuliert und dann committet werden, sobald Ihre App das Batchupdater-Objekt schließt oder entsorgt.

AudioGraphConnection

Stellt eine Verbindung innerhalb eines Audiodiagramms dar.

AudioGraphSettings

Stellt Initialisierungseinstellungen für ein Audiodiagramm dar. Legen Sie die Eigenschaften dieses Objekts auf die gewünschten Werte fest, und rufen Sie dann AudioGraph.CreateAsync auf, um ein neues Audiodiagramm zu erstellen, instance mit den angegebenen Einstellungen.

AudioGraphUnrecoverableErrorOccurredEventArgs

Stellt Argumente für ein UnrecoverableErrorOccurred-Ereignis dar .

AudioNodeEmitter

Beschreibt die Position und andere physische Merkmale eines Emitters, von dem das Audio eines AudioGraph-Knotens ausgegeben wird, wenn räumliche Audioverarbeitung verwendet wird.

AudioNodeEmitterConeProperties

Beschreibt die Kegelform, die von einer AudioNodeEmitterShape verwendet wird. Im inneren Winkel des Kegels wird die Audiowiedergabe überhaupt nicht abgeschwächt. Im äußeren Winkel des Kegels wird die Audiowiedergabe vollständig abgeschwächt.

AudioNodeEmitterDecayModel

Stellt das Modell dar, das zum Berechnen der entfernungsbasierten Dämpfung eines Signals von einem AudioNodeEmitter verwendet wird.

AudioNodeEmitterNaturalDecayModelProperties

Beschreibt die Eigenschaften eines natürlichen AudioNodeEmitterDecayModel.

AudioNodeEmitterShape

Beschreibt die Form, in der ein AudioNodeEmitter Audio ausgibt.

AudioNodeListener

Beschreibt die Position und andere physische Merkmale eines Listeners, von dem die Audioausgabe eines AudioGraph-Knotens gehört wird, wenn räumliche Audioverarbeitung verwendet wird.

AudioPlaybackConnection

Stellt eine Verbindung dar, die es einem Remotegerät ermöglicht, Audio auf ein Windows-Gerät zu streamen.

AudioPlaybackConnectionOpenResult

Der Wert, der von einem Aufruf von Open oder OpenAsync zurückgegeben wird, der angibt, ob der Aufruf erfolgreich war, und stellt, falls nicht, einen erweiterten Fehlercode bereit.

AudioStateMonitor

Ermöglicht einer UWP-App zu ermitteln, ob audiostreams der App derzeit stummgeschaltet werden oder ob die Lautstärke vom System reduziert wird.

AudioSubmixNode

Stellt einen Audio-Submixknoten dar, der die Ausgabe eines oder mehrerer Knoten in eine einzelne Ausgabe mischt, die mit Ausgabeknoten oder anderen Submixknoten verbunden werden kann.

CreateAudioDeviceInputNodeResult

Stellt das Ergebnis des Versuchs dar, einen Audiogeräteeingabeknoten zu erstellen.

CreateAudioDeviceOutputNodeResult

Stellt das Ergebnis des Versuchs dar, einen Audiogeräteausgabeknoten zu erstellen.

CreateAudioFileInputNodeResult

Stellt das Ergebnis des Versuchs dar, einen Audiodateieingabeknoten zu erstellen.

CreateAudioFileOutputNodeResult

Stellt das Ergebnis des Versuchs dar, einen Audiodateiausgabeknoten zu erstellen.

CreateAudioGraphResult

Stellt das Ergebnis des Versuchs dar, ein Audiodiagramm zu erstellen.

CreateMediaSourceAudioInputNodeResult

Stellt das Ergebnis des Versuchs dar, einen MediaSourceAudioInputNode zu erstellen.

EchoEffectDefinition

Stellt eine vom Audiodiagramm unterstützte Echoeffektdefinition dar.

EqualizerBand

Stellt ein Equalizerband für den Equalizereffekt dar.

EqualizerEffectDefinition

Stellt eine Equalizer-Effektdefinition dar, die vom Audiodiagramm unterstützt wird.

FrameInputNodeQuantumStartedEventArgs

Stellt Daten für das AudioFrameInputNode.QuantumStarted-Ereignis bereit . Dieses Ereignis wird ausgelöst, wenn das Audiodiagramm, das den Audioframeeingabeknoten enthält, bereit ist, mit der Verarbeitung eines neuen Datenquns zu beginnen.

LimiterEffectDefinition

Stellt eine Begrenzungseffektdefinition dar, die vom Audiodiagramm unterstützt wird.

MediaSourceAudioInputNode

Stellt einen Knoten in einem Audiodiagramm dar, der Audiodaten aus einem MediaSource-Objekt in das Diagramm eingibt.

ReverbEffectDefinition

Stellt eine Vom Audiographen unterstützte Definition des Halleffekts dar.

SetDefaultSpatialAudioFormatResult

Stellt das Ergebnis des Versuchs dar, ein standardmäßiges räumliches Audioformat festzulegen.

SpatialAudioDeviceConfiguration

Stellt ein Audiogerät dar, das Informationen und Steuerung für das aktuelle räumliche Audiosetup bereitstellt.

SpatialAudioFormatConfiguration

Bietet eine Möglichkeit zum Konfigurieren räumlicher Audioformate.

SpatialAudioFormatSubtype

Hilfsklasse zum Abrufen der GUIDs für bekannte räumliche Audioformate.

Schnittstellen

IAudioInputNode

Definiert einen Audioeingabeknoten.

IAudioInputNode2

Die Schnittstelle, die von Audioeingabeknoten implementiert wird, die räumliches Audio unterstützen.

IAudioNode

Definiert einen Audioknoten.

IAudioNodeWithListener

Die Schnittstelle, die von Audioknoten implementiert wird, die einen räumlichen Audiolistener unterstützen.

Enumerationen

AudioDeviceNodeCreationStatus

Definiert status Werte für die Erstellung von Audiogeräteknoten.

AudioEffectsPackStatus

Stellt APIs zum Routing, Mischen und Verarbeiten von Audio bereit.

AudioFileNodeCreationStatus

Definiert status Werte für die Erstellung von Audiodateiknoten.

AudioGraphCreationStatus

Definiert status Werte für die Erstellung von Audiodiagrammen.

AudioGraphUnrecoverableError

Definiert nicht behebbare Fehler für das Audiodiagramm.

AudioNodeEmitterDecayKind

Gibt den Typ des Zerfallsmodells an, das von einem AudioNodeEmitter verwendet wird.

AudioNodeEmitterSettings

Gibt Einstellungsflags für die Erstellung eines AudioNodeEmitters an.

AudioNodeEmitterShapeKind

Gibt die Form eines AudioNodeEmitterShape-Objekts an.

AudioPlaybackConnectionOpenResultStatus

Gibt das Ergebnis status eines Aufrufs von Open oder OpenAsync an.

AudioPlaybackConnectionState

Gibt den Verbindungsstatus einer AudioPlaybackConnection an.

MediaSourceAudioInputNodeCreationStatus

Gibt das Ergebnis status eines Aufrufs von AudioGraph.CreateMediaSourceAudioInputNode an.

MixedRealitySpatialAudioFormatPolicy

Gibt an, welche Richtlinie bei der Auswahl eines räumlichen Audioformats in Mixed Reality verwendet werden soll.

QuantumSizeSelectionMode

Definiert Werte, die für die Auswahl der Quantengröße verwendet werden.

SetDefaultSpatialAudioFormatStatus

Gibt die status des SetDefaultSpatialAudioFormatResult an, unabhängig davon, ob ein Fehler aufgetreten ist (und warum) oder erfolgreich war.

SpatialAudioModel

Gibt das räumliche Audioverarbeitungsmodell an, das von einem AudioNodeEmitter verwendet wird.

Weitere Informationen