Freigeben über


Jobs - Get

Get Job
Ruft einen Auftrag ab.

GET https://management.azure.com/subscriptions/{subscriptionId}/resourceGroups/{resourceGroupName}/providers/Microsoft.Media/mediaServices/{accountName}/transforms/{transformName}/jobs/{jobName}?api-version=2022-07-01

URI-Parameter

Name In Erforderlich Typ Beschreibung
accountName
path True

string

Der Name des Media Services-Kontos.

jobName
path True

string

Der Auftragsname.

resourceGroupName
path True

string

Der Name der Ressourcengruppe innerhalb des Azure-Abonnements.

subscriptionId
path True

string

Der eindeutige Bezeichner für ein Microsoft Azure-Abonnement.

transformName
path True

string

Der Name der Transformation.

api-version
query True

string

Die Version der API, die mit der Clientanforderung verwendet werden soll.

Antworten

Name Typ Beschreibung
200 OK

Job

OK

Other Status Codes

ErrorResponse

Ausführliche Fehlerinformationen.

Beispiele

Get a Job by name

Beispielanforderung

GET https://management.azure.com/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/contosoresources/providers/Microsoft.Media/mediaServices/contosomedia/transforms/exampleTransform/jobs/job1?api-version=2022-07-01

Beispiel für eine Antwort

{
  "name": "job1",
  "id": "/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/contosoresources/providers/Microsoft.Media/mediaservices/contosomedia/transforms/exampleTransform/jobs/job1",
  "type": "Microsoft.Media/mediaservices/transforms/jobs",
  "properties": {
    "created": "2021-06-01T00:00:00Z",
    "state": "Queued",
    "input": {
      "@odata.type": "#Microsoft.Media.JobInputs",
      "inputs": [
        {
          "@odata.type": "#Microsoft.Media.JobInputAsset",
          "files": [],
          "inputDefinitions": [],
          "assetName": "job1-InputAsset"
        }
      ]
    },
    "lastModified": "2021-06-01T00:00:00Z",
    "outputs": [
      {
        "@odata.type": "#Microsoft.Media.JobOutputAsset",
        "state": "Queued",
        "progress": 0,
        "label": "example-custom-label",
        "assetName": "job1-OutputAsset"
      }
    ],
    "priority": "Low",
    "correlationData": {}
  },
  "systemData": {
    "createdBy": "contoso@microsoft.com",
    "createdByType": "User",
    "createdAt": "2021-06-01T00:00:00Z",
    "lastModifiedBy": "contoso@microsoft.com",
    "lastModifiedByType": "User",
    "lastModifiedAt": "2021-06-01T00:00:00Z"
  }
}

Definitionen

Name Beschreibung
AacAudio

Beschreibt AAC-Audiocodierungseinstellungen (Advanced Audio Codec).

AacAudioProfile

Das Codierungsprofil, das beim Codieren von Audiodaten mit AAC verwendet werden soll.

AbsoluteClipTime

Gibt die Clipzeit als absolute Zeitposition in der Mediendatei an. Die absolute Zeit kann auf eine andere Position verweisen, je nachdem, ob die Mediendatei mit einem Zeitstempel von 0 beginnt oder nicht.

AnalysisResolution

Gibt die maximale Auflösung an, mit der Ihr Video analysiert wird. Das Standardverhalten ist "SourceResolution". Dadurch bleibt das Eingabevideo bei der Analyse in der ursprünglichen Auflösung. Mithilfe von "StandardDefinition" wird die Größe von Eingabevideos in die Standarddefinition geändert, wobei das entsprechende Seitenverhältnis beibehalten wird. Die Größe wird nur geändert, wenn das Video eine höhere Auflösung aufweist. Beispielsweise würde eine Eingabe von 1920 x 1080 vor der Verarbeitung auf 640 x 360 skaliert werden. Der Wechsel zu "StandardDefinition" reduziert die Zeit, die für die Verarbeitung hochauflösender Videos benötigt wird. Es kann auch die Kosten für die Verwendung dieser Komponente reduzieren (weitere Informationen finden Sie unter https://azure.microsoft.com/en-us/pricing/details/media-services/#analytics ). Gesichter, die im geänderten Video zu klein sind, werden jedoch möglicherweise nicht erkannt.

AttributeFilter

Der Typ von AttributeFilter, der auf das TrackAttribute angewendet werden soll, um die Spuren auszuwählen.

Audio

Definiert die allgemeinen Eigenschaften für alle Audiocodecs.

AudioAnalysisMode

Bestimmt den Satz der auszuführenden Audioanalysevorgänge. Wenn nicht angegeben, wird der Standard AudioAnalysisMode ausgewählt.

AudioAnalyzerPreset

Die Audio Analyzer-Voreinstellung wendet einen vordefinierten Satz KI-basierter Analysevorgänge an, einschließlich Sprachtranskription. Die Voreinstellung unterstützt derzeit die Verarbeitung von Inhalten mit einer einzelnen Audiospur.

AudioOverlay

Beschreibt die Eigenschaften einer Audioüberlagerung.

AudioTrackDescriptor

Eine TrackSelection zum Auswählen von Audiospuren.

BlurType

Weichzeichnertyp

BuiltInStandardEncoderPreset

Beschreibt eine integrierte Voreinstellung zum Codieren des Eingabevideos mit dem Standardencoder.

ChannelMapping

Optionale Bezeichnung für Einkanal-Audiospuren. Kann verwendet werden, um die Tracks in Stereo- oder Mehrkanal-Audiospuren zu kombinieren.

Complexity

Ermöglicht Ihnen das Konfigurieren der Encodereinstellungen, um das Gleichgewicht zwischen Geschwindigkeit und Qualität zu steuern. Beispiel: Legen Sie Komplexität auf Geschwindigkeit fest, um eine schnellere Codierung, aber eine geringere Komprimierungseffizienz zu erzielen.

CopyAudio

Ein Codecflag, das den Encoder angibt, den Eingabeaudiobitstream zu kopieren.

CopyVideo

Ein Codecflag, das den Encoder angibt, den Bitstream des Eingabevideos ohne erneute Codierung zu kopieren.

createdByType

Der Identitätstyp, der die Ressource erstellt hat.

DDAudio

Beschreibt die Audiocodierungseinstellungen des Dolby Digital Audio Codec (AC3). Die aktuelle Implementierung für Dolby Digital Audio-Unterstützung sind: Audiokanalnummern bei 1((mono), 2(stereo), 6(5.1side); Audio-Samplingfrequenzraten bei: 32K/44,1K/48K Hz; Audiobitratewerte als AC3-Spezifikation unterstützt: 32000, 40000, 48000, 56000, 64000, 80000, 96000, 112000, 128000, 160000, 192000, 224000, 256000, 320000, 384000, 448000, 512000, 576000, 640000 bps.

Deinterlace

Beschreibt die De-Interlacing-Einstellungen.

DeinterlaceMode

Der Deinterlacing-Modus. Standardmäßig wird AutoPixelAdaptive verwendet.

DeinterlaceParity

Die Feldparität für die Entflechtung wird standardmäßig auf Auto festgelegt.

EncoderNamedPreset

Die integrierte Voreinstellung, die zum Codieren von Videos verwendet werden soll.

EntropyMode

Der Entropiemodus, der für diese Ebene verwendet werden soll. Wenn nicht angegeben, wählt der Encoder den Modus aus, der für das Profil und die Ebene geeignet ist.

ErrorAdditionalInfo

Zusätzliche Informationen zum Ressourcenverwaltungsfehler.

ErrorDetail

Die Fehlerdetails.

ErrorResponse

Fehlerantwort

FaceDetectorPreset

Beschreibt alle Einstellungen, die bei der Analyse eines Videos verwendet werden sollen, um alle vorhandenen Gesichter zu erkennen (und optional zu rotieren).

FaceRedactorMode

Dieser Modus bietet die Möglichkeit, zwischen den folgenden Einstellungen zu wählen: 1) Analysieren – nur für die Erkennung. Dieser Modus generiert eine JSON-Metadatendatei, die die Darstellungen von Gesichtern im gesamten Video kennzeichnet. Wenn möglich, wird dem Erscheinungsbild derselben Person die gleiche ID zugewiesen. 2) Kombiniert – Zusätzlich wurden Gesichter gerötet(Unschärfen) erkannt. 3) Redact : Dies ermöglicht einen 2-Pass-Prozess, der eine selektive Redaction einer Teilmenge der erkannten Gesichter ermöglicht. Es übernimmt die Metadatendatei aus einem vorherigen Analysedurchlauf, zusammen mit dem Quellvideo und einer vom Benutzer ausgewählten Teilmenge von IDs, die Redaction erfordern.

Fade

Beschreibt die Eigenschaften eines Einblenden-Effekts, der auf das Eingabemedium angewendet wird.

Filters

Beschreibt alle Filtervorgänge, z. B. De-Interlacing, Rotation usw., die vor der Codierung auf die Eingabemedien angewendet werden sollen.

FromAllInputFile

Ein InputDefinition-Objekt, das alle Dateien durchsieht, die zum Auswählen von Spuren bereitgestellt werden, die von der IncludedTracks-Eigenschaft angegeben werden. Wird in der Regel mit AudioTrackByAttribute und VideoTrackByAttribute verwendet, um die Auswahl einer einzelnen Spur für eine Reihe von Eingabedateien zu ermöglichen.

FromEachInputFile

Eine InputDefinition, die jede Eingabedatei untersucht, die zum Auswählen von Spuren bereitgestellt wird, die von der IncludedTracks-Eigenschaft angegeben werden. Wird in der Regel mit audioTrackByAttribute und VideoTrackByAttribute verwendet, um Titel aus jeder angegebenen Datei auszuwählen.

H264Complexity

Teilt dem Encoder mit, wie seine Codierungseinstellungen ausgewählt werden sollen. Der Standardwert ist Balanced.

H264Layer

Beschreibt die Einstellungen, die beim Codieren des Eingabevideos in eine gewünschte Ausgabebitrateebene mit dem H.264-Videocodec verwendet werden sollen.

H264RateControlMode

Der Modus zur Steuerung der Videorate

H264Video

Beschreibt alle Eigenschaften zum Codieren eines Videos mit dem H.264-Codec.

H264VideoProfile

Derzeit unterstützen wir Baseline, Main, High, High422, High444. Der Standardwert ist Auto.

H265Complexity

Teilt dem Encoder mit, wie seine Codierungseinstellungen ausgewählt werden sollen. Qualität sorgt für ein höheres Komprimierungsverhältnis, aber zu höheren Kosten und längerer Computezeit. Die Geschwindigkeit erzeugt eine relativ größere Datei, ist aber schneller und wirtschaftlicher. Der Standardwert ist Balanced.

H265Layer

Beschreibt die Einstellungen, die beim Codieren des Eingabevideos in eine gewünschte Ausgabebitrateebene mit dem H.265-Videocodec verwendet werden sollen.

H265Video

Beschreibt alle Eigenschaften zum Codieren eines Videos mit dem H.265-Codec.

H265VideoProfile

Derzeit unterstützen wir Main. Der Standardwert ist Auto.

Image

Beschreibt die grundlegenden Eigenschaften zum Generieren von Miniaturansichten aus dem Eingabevideo.

ImageFormat

Beschreibt die Eigenschaften für eine Ausgabebilddatei.

InputFile

Eine InputDefinition für eine einzelne Datei. TrackSelections sind auf die angegebene Datei festgelegt.

InsightsType

Definiert den Typ der Erkenntnisse, die der Dienst generieren soll. Die zulässigen Werte sind "AudioInsightsOnly", "VideoInsightsOnly" und "AllInsights". Der Standardwert ist AllInsights. Wenn Sie dies auf AllInsights festlegen und die Eingabe nur Audio ist, werden nur Audioerkenntnisse generiert. Wenn es sich bei der Eingabe nur um Video handelt, werden auch nur Videoeinblicke generiert. Es wird empfohlen, AudioInsightsOnly nicht zu verwenden, wenn Sie erwarten, dass einige Ihrer Eingaben nur Video sind. oder verwenden Sie VideoInsightsOnly, wenn Sie erwarten, dass einige Ihrer Eingaben nur Audio sind. Ihre Aufträge unter solchen Bedingungen würden einen Fehler verursachen.

InterleaveOutput

Legt den Interleave-Modus der Ausgabe fest, um zu steuern, wie Audio und Video im Containerformat gespeichert werden. Beispiel: Legen Sie InterleavedOutput auf NonInterleavedOutput fest, um nur Audio- und Videoausgaben in separaten MP4-Dateien zu erzeugen.

Job

Ein Auftragsressourcentyp. Status und Status können abgerufen werden, indem Sie einen Auftrag abfragen oder Ereignisse mithilfe von EventGrid abonnieren.

JobError

Details zu JobOutput-Fehlern.

JobErrorCategory

Hilft bei der Kategorisierung von Fehlern.

JobErrorCode

Fehlercode, der den Fehler beschreibt.

JobErrorDetail

Details zu JobOutput-Fehlern.

JobInputAsset

Stellt ein Objekt für die Eingabe in einen Auftrag dar.

JobInputClip

Stellt Eingabedateien für einen Auftrag dar.

JobInputHttp

Stellt die HTTPS-Auftragseingabe dar.

JobInputs

Beschreibt eine Liste von Eingaben für einen Auftrag.

JobInputSequence

Eine Sequenz enthält eine sortierte Liste von Clips, wobei jeder Clip ein JobInput ist. Die Sequenz wird als einzelne Eingabe behandelt.

JobOutputAsset

Stellt ein Medienobjekt dar, das als JobOutput verwendet wird.

JobRetry

Gibt an, dass es möglich ist, den Auftrag erneut zu versuchen. Wenn die Wiederholung nicht erfolgreich ist, wenden Sie sich über das Azure-Portal an Azure-Support.

JobState

Beschreibt den Status von JobOutput.

JpgFormat

Beschreibt die Einstellungen zum Erstellen von JPEG-Miniaturansichten.

JpgImage

Beschreibt die Eigenschaften zum Erstellen einer Reihe von JPEG-Bildern aus dem Eingabevideo.

JpgLayer

Beschreibt die Einstellungen zum Erstellen eines JPEG-Bilds aus dem Eingabevideo.

Mp4Format

Beschreibt die Eigenschaften für eine AUSGABE-ISO-MP4-Datei.

MultiBitrateFormat

Beschreibt die Eigenschaften zum Erstellen einer Auflistung von GOP-ausgerichteten Dateien mit mehreren Bitraten. Das Standardverhalten besteht darin, eine Ausgabedatei für jede Videoebene zu erstellen, die zusammen mit allen Audios muxiert wird. Die genau erstellten Ausgabedateien können durch Angabe der outputFiles-Auflistung gesteuert werden.

OutputFile

Stellt eine erstellte Ausgabedatei dar.

PngFormat

Beschreibt die Einstellungen zum Erstellen von PNG-Miniaturansichten.

PngImage

Beschreibt die Eigenschaften zum Erstellen einer Reihe von PNG-Bildern aus dem Eingabevideo.

PngLayer

Beschreibt die Einstellungen zum Erstellen eines PNG-Bilds aus dem Eingabevideo.

PresetConfigurations

Ein Objekt mit optionalen Konfigurationseinstellungen für den Encoder.

Priority

Legt die relative Priorität der TransformationOutputs innerhalb einer Transformation fest. Dadurch wird die Priorität festgelegt, die der Dienst für die Verarbeitung von TransformOutputs verwendet. Die Standardpriorität ist Normal.

Rectangle

Beschreibt die Eigenschaften eines rechteckigen Fensters, das vor der Verarbeitung auf das Eingabemedium angewendet wird.

Rotation

Die Drehung, falls vorhanden, die auf das Eingabevideo angewendet werden soll, bevor es codiert wird. Der Standardwert ist Auto.

SelectAudioTrackByAttribute

Wählen Sie audiospuren aus der Eingabe aus, indem Sie ein Attribut und einen Attributfilter angeben.

SelectAudioTrackById

Wählen Sie audiospuren aus der Eingabe aus, indem Sie einen Titelbezeichner angeben.

SelectVideoTrackByAttribute

Wählen Sie Videospuren aus der Eingabe aus, indem Sie ein Attribut und einen Attributfilter angeben.

SelectVideoTrackById

Wählen Sie Videospuren aus der Eingabe aus, indem Sie einen Trackbezeichner angeben.

StandardEncoderPreset

Beschreibt alle Einstellungen, die beim Codieren des Eingabevideos mit dem Standardencoder verwendet werden sollen.

StretchMode

Der Größenänderungsmodus: Die Größe des Eingabevideos wird an die gewünschte Ausgabeauflösung(en) angepasst. Die Standardeinstellung ist AutoSize.

systemData

Metadaten, die sich auf die Erstellung und letzte Änderung der Ressource beziehen.

TrackAttribute

Das TrackAttribute, nach dem die Spuren gefiltert werden sollen.

TransportStreamFormat

Beschreibt die Eigenschaften zum Generieren einer MPEG-2 Transport Stream(ISO/IEC 13818-1)-Ausgabevideodatei(en).

UtcClipTime

Gibt die Clipzeit als Utc-Zeitposition in der Mediendatei an. Die Utc-Zeit kann auf eine andere Position verweisen, je nachdem, ob die Mediendatei mit einem Zeitstempel von null beginnt oder nicht.

Video

Beschreibt die grundlegenden Eigenschaften für die Codierung des Eingabevideos.

VideoAnalyzerPreset

Eine Videoanalysevoreinstellung, die Erkenntnisse (umfangreiche Metadaten) aus Audio und Video extrahiert und eine JSON-Formatdatei ausgibt.

VideoOverlay

Beschreibt die Eigenschaften einer Videoüberlagerung.

VideoSyncMode

Videosynchronisierungsmodus

VideoTrackDescriptor

Eine TrackSelection zum Auswählen von Videospuren.

AacAudio

Beschreibt AAC-Audiocodierungseinstellungen (Advanced Audio Codec).

Name Typ Beschreibung
@odata.type string:

#Microsoft.Media.AacAudio

Der Diskriminator für abgeleitete Typen.

bitrate

integer

Die Bitrate des ausgabecodierten Audios in Bits pro Sekunde.

channels

integer

Die Anzahl der Kanäle im Audio.

label

string

Eine optionale Bezeichnung für den Codec. Die Bezeichnung kann verwendet werden, um das Muxingverhalten zu steuern.

profile

AacAudioProfile

Das Codierungsprofil, das beim Codieren von Audio mit AAC verwendet werden soll.

samplingRate

integer

Die Samplingrate, die für die Codierung in Hertz verwendet werden soll.

AacAudioProfile

Das Codierungsprofil, das beim Codieren von Audiodaten mit AAC verwendet werden soll.

Name Typ Beschreibung
AacLc

string

Gibt an, dass das Ausgabeaudio in AAC Low Complexity Profile (AAC-LC) codiert werden soll.

HeAacV1

string

Gibt an, dass das Ausgabeaudio im HE-AAC v1-Profil codiert werden soll.

HeAacV2

string

Gibt an, dass das Ausgabeaudio im HE-AAC v2-Profil codiert werden soll.

AbsoluteClipTime

Gibt die Clipzeit als absolute Zeitposition in der Mediendatei an. Die absolute Zeit kann auf eine andere Position verweisen, je nachdem, ob die Mediendatei mit einem Zeitstempel von 0 beginnt oder nicht.

Name Typ Beschreibung
@odata.type string:

#Microsoft.Media.AbsoluteClipTime

Der Diskriminator für abgeleitete Typen.

time

string

Die Zeitposition auf der Zeitleiste des Eingabemediums. Sie wird in der Regel als ISO8601 Zeitraum angegeben. z.B. PT30S für 30 Sekunden.

AnalysisResolution

Gibt die maximale Auflösung an, mit der Ihr Video analysiert wird. Das Standardverhalten ist "SourceResolution". Dadurch bleibt das Eingabevideo bei der Analyse in der ursprünglichen Auflösung. Mithilfe von "StandardDefinition" wird die Größe von Eingabevideos in die Standarddefinition geändert, wobei das entsprechende Seitenverhältnis beibehalten wird. Die Größe wird nur geändert, wenn das Video eine höhere Auflösung aufweist. Beispielsweise würde eine Eingabe von 1920 x 1080 vor der Verarbeitung auf 640 x 360 skaliert werden. Der Wechsel zu "StandardDefinition" reduziert die Zeit, die für die Verarbeitung hochauflösender Videos benötigt wird. Es kann auch die Kosten für die Verwendung dieser Komponente reduzieren (weitere Informationen finden Sie unter https://azure.microsoft.com/en-us/pricing/details/media-services/#analytics ). Gesichter, die im geänderten Video zu klein sind, werden jedoch möglicherweise nicht erkannt.

Name Typ Beschreibung
SourceResolution

string

StandardDefinition

string

AttributeFilter

Der Typ von AttributeFilter, der auf das TrackAttribute angewendet werden soll, um die Spuren auszuwählen.

Name Typ Beschreibung
All

string

Alle Tracks sind enthalten.

Bottom

string

Die erste Spur wird eingeschlossen, wenn das Attribut in aufsteigender Reihenfolge sortiert wird. Wird im Allgemeinen verwendet, um die kleinste Bitrate auszuwählen.

Top

string

Die erste Spur wird eingeschlossen, wenn das Attribut in absteigender Reihenfolge sortiert wird. Wird im Allgemeinen verwendet, um die größte Bitrate auszuwählen.

ValueEquals

string

Alle Spuren, die über ein Attribut verfügen, das dem angegebenen Wert entspricht, werden eingeschlossen.

Audio

Definiert die allgemeinen Eigenschaften für alle Audiocodecs.

Name Typ Beschreibung
@odata.type string:

#Microsoft.Media.Audio

Der Diskriminator für abgeleitete Typen.

bitrate

integer

Die Bitrate des ausgabecodierten Audios in Bits pro Sekunde.

channels

integer

Die Anzahl der Kanäle im Audio.

label

string

Eine optionale Bezeichnung für den Codec. Die Bezeichnung kann verwendet werden, um das Muxingverhalten zu steuern.

samplingRate

integer

Die Samplingrate, die für die Codierung in Hertz verwendet werden soll.

AudioAnalysisMode

Bestimmt den Satz der auszuführenden Audioanalysevorgänge. Wenn nicht angegeben, wird der Standard AudioAnalysisMode ausgewählt.

Name Typ Beschreibung
Basic

string

In diesem Modus werden Transkriptionen von gesprochenen Texten erstellt und VTT-Dateien mit Untertiteln und Beschriftungstexten generiert. Die Ausgabe in diesem Modus beinhaltet eine Insights JSON-Datei, die nur die Stichwörter, die Transkription und Zeitinformationen enthält. Eine automatische Spracherkennung und Sprecherdiarisierung sind nicht Bestandteil dieses Modus.

Standard

string

Führt alle Vorgänge aus, die im Basic-Modus enthalten sind, und führt zusätzlich spracherkennung und Sprecherdurchdung durch.

AudioAnalyzerPreset

Die Audio Analyzer-Voreinstellung wendet einen vordefinierten Satz KI-basierter Analysevorgänge an, einschließlich Sprachtranskription. Die Voreinstellung unterstützt derzeit die Verarbeitung von Inhalten mit einer einzelnen Audiospur.

Name Typ Beschreibung
@odata.type string:

#Microsoft.Media.AudioAnalyzerPreset

Der Diskriminator für abgeleitete Typen.

audioLanguage

string

Die Sprache für die Audionutzlast in der Eingabe, die das BCP-47-Format "language tag-region" (z. B. "en-US") verwendet. Wenn Sie die Sprache Ihrer Inhalte kennen, empfiehlt es sich, sie anzugeben. Die Sprache muss explizit für AudioAnalysisMode::Basic angegeben werden, da die automatische Spracherkennung nicht im Standardmodus enthalten ist. Wenn die Sprache nicht angegeben oder auf NULL festgelegt ist, wählt die automatische Spracherkennung die erste erkannte Sprache aus und führt die Verarbeitung für die ausgewählte Sprache für die Länge der Datei durch. Sie unterstützt derzeit keine dynamische Umschaltung zwischen Sprachen, nachdem die erste Sprache erkannt wurde. Die automatische Erkennung funktioniert am besten bei Audioaufzeichnungen mit deutlich erkennbarer Sprache. Wenn die Sprache bei der automatischen Erkennung nicht gefunden werden kann, würde die Transkription auf "en-US" zurückfallen." Die Liste der unterstützten Sprachen finden Sie hier: https://go.microsoft.com/fwlink/?linkid=2109463

experimentalOptions

object

Wörterbuch, das Schlüsselwertpaare für Parameter enthält, die in der Voreinstellung selbst nicht verfügbar gemacht werden

mode

AudioAnalysisMode

Bestimmt den Satz der auszuführenden Audioanalysevorgänge. Wenn nicht angegeben, wird der Standard AudioAnalysisMode ausgewählt.

AudioOverlay

Beschreibt die Eigenschaften einer Audioüberlagerung.

Name Typ Beschreibung
@odata.type string:

#Microsoft.Media.AudioOverlay

Der Diskriminator für abgeleitete Typen.

audioGainLevel

number

Der Verstärkungsgrad des Audios in der Überlagerung. Der Wert sollte im Bereich [0, 1,0] liegen. Der Standardwert ist 1.0.

end

string

Die Endposition mit Verweis auf das Eingabevideo, an dem das Overlay endet. Der Wert sollte im ISO 8601-Format vorliegen. Beispiel: PT30S, um die Überlagerung bei 30 Sekunden im Eingabevideo zu beenden. Wenn nicht angegeben oder der Wert größer als die Dauer des Eingabevideos ist, wird die Überlagerung bis zum Ende des Eingabevideos angewendet, wenn die Dauer der Überlagerungsmedien größer als die Dauer des Eingabevideos ist, andernfalls dauert die Überlagerung so lange wie die Überlagerungsmediendauer.

fadeInDuration

string

Die Dauer, über die das Overlay auf dem Eingabevideo verblasst. Der Wert sollte im ISO 8601-Dauerformat vorliegen. Wenn nicht angegeben, besteht das Standardverhalten darin, kein Einblenden zu haben (identisch mit PT0S).

fadeOutDuration

string

Die Dauer, in der die Überlagerung aus dem Eingabevideo verblasst. Der Wert sollte im ISO 8601-Dauerformat vorliegen. Wenn nicht angegeben, besteht das Standardverhalten darin, kein Ausblenden zu haben (identisch mit PT0S).

inputLabel

string

Die Bezeichnung der Auftragseingabe, die als Überlagerung verwendet werden soll. Die Eingabe muss genau eine Datei angeben. Sie können eine Bilddatei im JPG-, PNG-, GIF- oder BMP-Format oder eine Audiodatei (z. B. eine WAV-, MP3-, WMA- oder M4A-Datei) oder eine Videodatei angeben. Eine vollständige Liste der unterstützten Audio- und Videodateiformate finden Sie https://aka.ms/mesformats unter.

start

string

Die Startposition mit Verweis auf das Eingabevideo, an dem das Overlay beginnt. Der Wert sollte im ISO 8601-Format vorliegen. Beispiel: PT05S, um das Overlay bei 5 Sekunden im Eingabevideo zu starten. Wenn nicht angegeben, beginnt die Überlagerung am Anfang des Eingabevideos.

AudioTrackDescriptor

Eine TrackSelection zum Auswählen von Audiospuren.

Name Typ Beschreibung
@odata.type string:

#Microsoft.Media.AudioTrackDescriptor

Der Diskriminator für abgeleitete Typen.

channelMapping

ChannelMapping

Optionale Bezeichnung für Einkanal-Audiospuren. Kann verwendet werden, um die Tracks in Stereo- oder Mehrkanal-Audiospuren zu kombinieren.

BlurType

Weichzeichnertyp

Name Typ Beschreibung
Black

string

Schwarz: Verdunkelungsfilter

Box

string

Box: Debugfilter, nur Begrenzungsfeld

High

string

Hoch: Verwechslungsfilter

Low

string

Niedrig: Box-Car-Unschärfefilter

Med

string

Med: Gaußsche Unschärfefilter

BuiltInStandardEncoderPreset

Beschreibt eine integrierte Voreinstellung zum Codieren des Eingabevideos mit dem Standardencoder.

Name Typ Beschreibung
@odata.type string:

#Microsoft.Media.BuiltInStandardEncoderPreset

Der Diskriminator für abgeleitete Typen.

configurations

PresetConfigurations

Optionale Konfigurationseinstellungen für Encoder. Konfigurationen werden nur für ContentAwareEncoding und H265ContentAwareEncoding BuiltInStandardEncoderPreset unterstützt.

presetName

EncoderNamedPreset

Die integrierte Voreinstellung, die zum Codieren von Videos verwendet werden soll.

ChannelMapping

Optionale Bezeichnung für Einkanal-Audiospuren. Kann verwendet werden, um die Tracks in Stereo- oder Mehrkanal-Audiospuren zu kombinieren.

Name Typ Beschreibung
BackLeft

string

Der linke Rückkanal. Manchmal auch als linker Surroundkanal bezeichnet.

BackRight

string

Der Rück-rechts-Kanal. Manchmal auch als rechter Surroundkanal bezeichnet.

Center

string

Der zentrierte Kanal.

FrontLeft

string

Der vordere linke Kanal.

FrontRight

string

Der vordere rechte Kanal.

LowFrequencyEffects

string

Low Frequency Effects Channel( Low Frequency Effects Channel). Manchmal auch als Subwoofer bezeichnet.

StereoLeft

string

Der linke Stereokanal. Manchmal auch als Linksmischung nach unten bezeichnet.

StereoRight

string

Der Rechte Stereokanal. Manchmal auch als Down Mix Right bezeichnet.

Complexity

Ermöglicht Ihnen das Konfigurieren der Encodereinstellungen, um das Gleichgewicht zwischen Geschwindigkeit und Qualität zu steuern. Beispiel: Legen Sie Komplexität auf Geschwindigkeit fest, um eine schnellere Codierung, aber eine geringere Komprimierungseffizienz zu erzielen.

Name Typ Beschreibung
Balanced

string

Konfiguriert den Encoder für die Verwendung von Einstellungen, die ein Gleichgewicht zwischen Geschwindigkeit und Qualität erzielen.

Quality

string

Konfiguriert den Encoder für die Verwendung von Einstellungen, die für die Ausgabe mit höherer Qualität optimiert sind, und das zu Lasten einer geringeren Gesamtcodierungszeit.

Speed

string

Konfiguriert den Encoder für die Verwendung von Einstellungen, die für eine schnellere Codierung optimiert sind. Qualität wird geopfert, um die Codierungszeit zu verringern.

CopyAudio

Ein Codecflag, das den Encoder angibt, den Eingabeaudiobitstream zu kopieren.

Name Typ Beschreibung
@odata.type string:

#Microsoft.Media.CopyAudio

Der Diskriminator für abgeleitete Typen.

label

string

Eine optionale Bezeichnung für den Codec. Die Bezeichnung kann verwendet werden, um das Muxingverhalten zu steuern.

CopyVideo

Ein Codecflag, das den Encoder angibt, den Bitstream des Eingabevideos ohne erneute Codierung zu kopieren.

Name Typ Beschreibung
@odata.type string:

#Microsoft.Media.CopyVideo

Der Diskriminator für abgeleitete Typen.

label

string

Eine optionale Bezeichnung für den Codec. Die Bezeichnung kann verwendet werden, um das Muxingverhalten zu steuern.

createdByType

Der Identitätstyp, der die Ressource erstellt hat.

Name Typ Beschreibung
Application

string

Key

string

ManagedIdentity

string

User

string

DDAudio

Beschreibt die Audiocodierungseinstellungen des Dolby Digital Audio Codec (AC3). Die aktuelle Implementierung für Dolby Digital Audio-Unterstützung sind: Audiokanalnummern bei 1((mono), 2(stereo), 6(5.1side); Audio-Samplingfrequenzraten bei: 32K/44,1K/48K Hz; Audiobitratewerte als AC3-Spezifikation unterstützt: 32000, 40000, 48000, 56000, 64000, 80000, 96000, 112000, 128000, 160000, 192000, 224000, 256000, 320000, 384000, 448000, 512000, 576000, 640000 bps.

Name Typ Beschreibung
@odata.type string:

#Microsoft.Media.DDAudio

Der Diskriminator für abgeleitete Typen.

bitrate

integer

Die Bitrate des ausgabecodierten Audios in Bits pro Sekunde.

channels

integer

Die Anzahl der Kanäle im Audio.

label

string

Eine optionale Bezeichnung für den Codec. Die Bezeichnung kann verwendet werden, um das Muxingverhalten zu steuern.

samplingRate

integer

Die Samplingrate, die für die Codierung in Hertz verwendet werden soll.

Deinterlace

Beschreibt die De-Interlacing-Einstellungen.

Name Typ Beschreibung
mode

DeinterlaceMode

Der Deinterlacing-Modus. Der Standardwert ist AutoPixelAdaptive.

parity

DeinterlaceParity

Die Feldparität für die De-Interlacing-Funktion ist standardmäßig auf Auto festgelegt.

DeinterlaceMode

Der Deinterlacing-Modus. Standardmäßig wird AutoPixelAdaptive verwendet.

Name Typ Beschreibung
AutoPixelAdaptive

string

Wenden Sie die automatische adaptive Pixel-Entflechtung auf jeden Frame im Eingabevideo an.

Off

string

Deaktiviert das De-Interlacing des Quellvideos.

DeinterlaceParity

Die Feldparität für die Entflechtung wird standardmäßig auf Auto festgelegt.

Name Typ Beschreibung
Auto

string

Automatisches Erkennen der Reihenfolge der Felder

BottomFieldFirst

string

Wenden Sie die erste Verarbeitung des Eingabevideos im unteren Feld an.

TopFieldFirst

string

Wenden Sie die erste Verarbeitung des Eingabevideos im oberen Feld an.

EncoderNamedPreset

Die integrierte Voreinstellung, die zum Codieren von Videos verwendet werden soll.

Name Typ Beschreibung
AACGoodQualityAudio

string

Erzeugt eine einzelne MP4-Datei, die nur AAC-Stereoaudio enthält, das mit 192 KBit/s codiert ist.

AdaptiveStreaming

string

Erzeugt eine Reihe von GOP-ausgerichteten MP4-Dateien mit H.264-Video und Stereo-AAC-Audio. Generiert automatisch eine Reihe von Bitraten, die auf der eingegebenen Auflösung, der Bitrate und der Bildfrequenz basieren. Die automatisch generierte Voreinstellung wird nie höher als die eingegebene Auflösung sein. Wenn beispielsweise 720p eingegeben wird, bleibt die Ausgabe am besten auch bei 720p.

ContentAwareEncoding

string

Erzeugt mithilfe der inhaltsbezogenen Codierung verschiedene GOP-orientierte MP4s. Der Dienst führt eine einfache Erstanalyse für den Eingabeinhalt aus und ermittelt anhand der Ergebnisse die optimale Anzahl von Ebenen, die geeignete Bitrate und die Auflösungseinstellungen für die Bereitstellung durch adaptives Streaming. Diese Voreinstellung ist besonders effektiv für Videos mit geringer und mittlerer Komplexität, bei denen die Ausgabedateien mit niedrigeren Bitraten, aber in einer Qualität vorliegen, die dem Betrachter dennoch ein gutes Ergebnis bietet. Die Ausgabe enthält MP4-Dateien mit überlappendem Video und Audio.

ContentAwareEncodingExperimental

string

Macht eine experimentelle Voreinstellung für die inhaltsbezogene Codierung verfügbar. Anhand der eingegebenen Inhalte versucht der Dienst, automatisch die optimale Anzahl der Ebenen, die geeignete Bitrate und die Auflösungseinstellungen für die Bereitstellung durch adaptives Streaming zu bestimmen. Die zugrunde liegenden Algorithmen werden im Laufe der Zeit weiter entwickelt. Die Ausgabe enthält MP4-Dateien mit überlappendem Video und Audio.

CopyAllBitrateNonInterleaved

string

Kopieren Sie alle Video- und Audiostreams aus dem Eingabemedienobjekt als nicht verschachtelte Video- und Audioausgabedateien. Diese Voreinstellung kann verwendet werden, um ein vorhandenes Medienobjekt zu beschneiden oder eine Gruppe von MP4-Dateien mit Keyframeausrichtung (GOP) als Medienobjekt zu konvertieren, das gestreamt werden kann.

DDGoodQualityAudio

string

Erzeugt eine einzelne MP4-Datei, die nur DD(Digital Dolby)-Stereoaudio enthält, das mit 192 KBit/s codiert ist.

H264MultipleBitrate1080p

string

Erzeugt einen Satz von 8 GOP-ausgerichteten MP4-Dateien im Bereich von 6000 KBit/s bis 400 KBit/s und Stereo-AAC-Audio. Die Auflösung beginnt bei 1080p und geht auf 180p herunter.

H264MultipleBitrate720p

string

Erzeugt einen Satz von 6 GOP-ausgerichteten MP4-Dateien im Bereich von 3400 KBit/s bis 400 KBit/s und Stereo-AAC-Audio. Die Auflösung beginnt bei 720p und geht auf 180p herunter.

H264MultipleBitrateSD

string

Erzeugt einen Satz von 5 GOP-ausgerichteten MP4-Dateien im Bereich von 1900 kbps bis 400 KBit/s und Stereo-AAC-Audio. Die Auflösung beginnt bei 480p und geht auf 240p herunter.

H264SingleBitrate1080p

string

Erzeugt eine MP4-Datei, bei der das Video mit dem H.264-Codec mit 6750 KBit/s und einer Bildhöhe von 1080 Pixel codiert ist, und das Stereoaudio mit AAC-LC-Codec mit 128 kBit/s codiert ist.

H264SingleBitrate720p

string

Erzeugt eine MP4-Datei, bei der das Video mit dem H.264-Codec mit 4500 KBit/s und einer Bildhöhe von 720 Pixel codiert ist, und das Stereoaudio mit AAC-LC-Codec mit 128 kBit/s codiert ist.

H264SingleBitrateSD

string

Erzeugt eine MP4-Datei, bei der das Video mit H.264-Codec mit 2200 KBit/s und einer Bildhöhe von 480 Pixel codiert ist, und das Stereoaudio mit AAC-LC-Codec mit 128 KBit/s codiert ist.

H265AdaptiveStreaming

string

Erzeugt mehrere auf GOP ausgerichtete MP4-Dateien mit Video- und Stereo-AAC-Audio für H.265. Generiert automatisch eine Reihe von Bitraten, die auf der eingegebenen Auflösung, der Bitrate und der Bildfrequenz basieren. Die automatisch generierte Voreinstellung wird nie höher als die eingegebene Auflösung sein. Wenn beispielsweise 720p eingegeben wird, bleibt die Ausgabe am besten auch bei 720p.

H265ContentAwareEncoding

string

Erzeugt mithilfe der inhaltsbezogenen Codierung verschiedene GOP-orientierte MP4s. Der Dienst führt eine einfache Erstanalyse für den Eingabeinhalt aus und ermittelt anhand der Ergebnisse die optimale Anzahl von Ebenen, die geeignete Bitrate und die Auflösungseinstellungen für die Bereitstellung durch adaptives Streaming. Diese Voreinstellung ist besonders effektiv für Videos mit geringer und mittlerer Komplexität, bei denen die Ausgabedateien mit niedrigeren Bitraten, aber in einer Qualität vorliegen, die dem Betrachter dennoch ein gutes Ergebnis bietet. Die Ausgabe enthält MP4-Dateien mit überlappendem Video und Audio.

H265SingleBitrate1080p

string

Erzeugt eine MP4-Datei, in der das Video mit dem H.265-Codec mit 3500 KBit/s und einer Bildhöhe von 1080 Pixel codiert wird und das Stereoaudio mit dem AAC-LC-Codec mit 128 KBit/s codiert wird.

H265SingleBitrate4K

string

Erzeugt eine MP4-Datei, in der das Video mit dem H.265-Codec mit 9500 KBit/s und einer Bildhöhe von 2160 Pixel codiert ist und das Stereoaudio mit dem AAC-LC-Codec mit 128 KBit/s codiert wird.

H265SingleBitrate720p

string

Erzeugt eine MP4-Datei, in der das Video mit dem H.265-Codec mit 1800 KBit/s und einer Bildhöhe von 720 Pixel codiert wird, und das Stereoaudio wird mit dem AAC-LC-Codec mit 128 KBit/s codiert.

EntropyMode

Der Entropiemodus, der für diese Ebene verwendet werden soll. Wenn nicht angegeben, wählt der Encoder den Modus aus, der für das Profil und die Ebene geeignet ist.

Name Typ Beschreibung
Cabac

string

Cabac-Entropiecodierung (Context Adaptive Binary Arithmetic Coder).

Cavlc

string

CAVLC-Entropiecodierung (Context Adaptive Variable Length Coder).

ErrorAdditionalInfo

Zusätzliche Informationen zum Ressourcenverwaltungsfehler.

Name Typ Beschreibung
info

object

Zusätzliche Informationen.

type

string

Typ der zusätzlichen Informationen.

ErrorDetail

Die Fehlerdetails.

Name Typ Beschreibung
additionalInfo

ErrorAdditionalInfo[]

Die zusätzlichen Fehlerinformationen.

code

string

Der Fehlercode.

details

ErrorDetail[]

Die Fehlerdetails.

message

string

Die Fehlermeldung.

target

string

Das Fehlerziel.

ErrorResponse

Fehlerantwort

Name Typ Beschreibung
error

ErrorDetail

Das Fehlerobjekt.

FaceDetectorPreset

Beschreibt alle Einstellungen, die bei der Analyse eines Videos verwendet werden sollen, um alle vorhandenen Gesichter zu erkennen (und optional zu rotieren).

Name Typ Beschreibung
@odata.type string:

#Microsoft.Media.FaceDetectorPreset

Der Diskriminator für abgeleitete Typen.

blurType

BlurType

Weichzeichnertyp

experimentalOptions

object

Wörterbuch, das Schlüsselwertpaare für Parameter enthält, die in der Voreinstellung selbst nicht verfügbar gemacht werden

mode

FaceRedactorMode

Dieser Modus bietet die Möglichkeit, zwischen den folgenden Einstellungen zu wählen: 1) Analysieren – nur für die Erkennung. Dieser Modus generiert eine JSON-Metadatendatei, die die Darstellungen von Gesichtern im gesamten Video kennzeichnet. Wenn möglich, wird dem Erscheinungsbild derselben Person die gleiche ID zugewiesen. 2) Kombiniert – Zusätzlich wurden Gesichter gerötet(Unschärfen) erkannt. 3) Redact : Dies ermöglicht einen 2-Pass-Prozess, der eine selektive Redaction einer Teilmenge der erkannten Gesichter ermöglicht. Es übernimmt die Metadatendatei aus einem vorherigen Analysedurchlauf, zusammen mit dem Quellvideo und einer vom Benutzer ausgewählten Teilmenge von IDs, die Redaction erfordern.

resolution

AnalysisResolution

Gibt die maximale Auflösung an, mit der Ihr Video analysiert wird. Das Standardverhalten ist "SourceResolution", das das Eingabevideo bei der Analyse in seiner ursprünglichen Auflösung behält. Mithilfe von "StandardDefinition" wird die Größe von Eingabevideos in die Standarddefinition geändert, während das entsprechende Seitenverhältnis beibehalten wird. Die Größe wird nur geändert, wenn das Video eine höhere Auflösung aufweist. Beispielsweise würde eine Eingabe von 1920 x 1080 vor der Verarbeitung auf 640 x 360 skaliert. Wenn Sie zu "StandardDefinition" wechseln, wird die Zeit für die Verarbeitung von Videos mit hoher Auflösung reduziert. Es kann auch die Kosten für die Verwendung dieser Komponente reduzieren (weitere Informationen finden Sie unter https://azure.microsoft.com/en-us/pricing/details/media-services/#analytics ). Gesichter, die im geänderten Video zu klein sind, werden jedoch möglicherweise nicht erkannt.

FaceRedactorMode

Dieser Modus bietet die Möglichkeit, zwischen den folgenden Einstellungen zu wählen: 1) Analysieren – nur für die Erkennung. Dieser Modus generiert eine JSON-Metadatendatei, die die Darstellungen von Gesichtern im gesamten Video kennzeichnet. Wenn möglich, wird dem Erscheinungsbild derselben Person die gleiche ID zugewiesen. 2) Kombiniert – Zusätzlich wurden Gesichter gerötet(Unschärfen) erkannt. 3) Redact : Dies ermöglicht einen 2-Pass-Prozess, der eine selektive Redaction einer Teilmenge der erkannten Gesichter ermöglicht. Es übernimmt die Metadatendatei aus einem vorherigen Analysedurchlauf, zusammen mit dem Quellvideo und einer vom Benutzer ausgewählten Teilmenge von IDs, die Redaction erfordern.

Name Typ Beschreibung
Analyze

string

Der Analysemodus erkennt Gesichter und gibt eine Metadatendatei mit den Ergebnissen aus. Ermöglicht das Bearbeiten der Metadatendatei, bevor Gesichter im Redact-Modus verwischt werden.

Combined

string

Der kombinierte Modus führt die Schritte Analysieren und Redact in einem Durchgang durch, wenn das Bearbeiten der analysierten Gesichter nicht erwünscht ist.

Redact

string

Der Redact-Modus nutzt die Metadatendatei aus dem Analysemodus und redigiert die gefundenen Gesichter.

Fade

Beschreibt die Eigenschaften eines Einblenden-Effekts, der auf das Eingabemedium angewendet wird.

Name Typ Beschreibung
duration

string

Die Dauer des Einblendeffekts im Video. Der Wert kann im ISO 8601-Format (z. B. PT05S, um eine Farbe während von 5 Sekunden ein-/ausblenden) oder eine Frameanzahl (z. B. 10 bis 10 Frames aus der Startzeit) oder einen relativen Wert zur Streamdauer (z. B. 10 % bis 10 % der Streamdauer) sein.

fadeColor

string

Die Farbe für das Ein-/Ausblenden. Es kann sich um die CSS Level1-Farben https://developer.mozilla.org/en-US/docs/Web/CSS/color_value/color_keywords oder einen RGB/Hexadezim-Wert: z. B. rgb(255,0,0), 0xFF0000 oder #FF0000

start

string

Die Position im Eingabevideo, ab der mit dem Einblenden begonnen werden soll. Der Wert kann das ISO 8601-Format aufweisen, z. B. PT05S, damit ab fünf Sekunden gestartet wird, oder die Nummer eines Frames, z. B. 10, damit beim zehnten Frame gestartet wird, oder einen relativen Wert zur Dauer des Streams, z. B. 10 %, damit bei zehn Prozent der Gesamtdauer des Streams gestartet wird. Der Standardwert ist 0.

Filters

Beschreibt alle Filtervorgänge, z. B. De-Interlacing, Rotation usw., die vor der Codierung auf die Eingabemedien angewendet werden sollen.

Name Typ Beschreibung
crop

Rectangle

Die Parameter für das rechteckige Fenster, mit dem das Eingabevideo zugeschnitten werden soll.

deinterlace

Deinterlace

Die De-Interlacing-Einstellungen.

fadeIn

Fade

Beschreibt die Eigenschaften eines Einblenden-Effekts, der auf das Eingabemedium angewendet wird.

fadeOut

Fade

Beschreibt die Eigenschaften eines Einblenden-Effekts, der auf das Eingabemedium angewendet wird.

overlays Overlay[]:

Die Eigenschaften von Überlagerungen, die auf das Eingabevideo angewendet werden sollen. Dies können Audio-, Bild- oder Videoüberlagerungen sein.

rotation

Rotation

Die Drehung, falls vorhanden, die auf das Eingabevideo angewendet werden soll, bevor es codiert wird. Der Standardwert ist Auto.

FromAllInputFile

Ein InputDefinition-Objekt, das alle Dateien durchsieht, die zum Auswählen von Spuren bereitgestellt werden, die von der IncludedTracks-Eigenschaft angegeben werden. Wird in der Regel mit AudioTrackByAttribute und VideoTrackByAttribute verwendet, um die Auswahl einer einzelnen Spur für eine Reihe von Eingabedateien zu ermöglichen.

Name Typ Beschreibung
@odata.type string:

#Microsoft.Media.FromAllInputFile

Der Diskriminator für abgeleitete Typen.

includedTracks TrackDescriptor[]:

Die Liste der TrackDescriptors, die die Metadaten und die Auswahl der Spuren in der Eingabe definieren.

FromEachInputFile

Eine InputDefinition, die jede Eingabedatei untersucht, die zum Auswählen von Spuren bereitgestellt wird, die von der IncludedTracks-Eigenschaft angegeben werden. Wird in der Regel mit audioTrackByAttribute und VideoTrackByAttribute verwendet, um Titel aus jeder angegebenen Datei auszuwählen.

Name Typ Beschreibung
@odata.type string:

#Microsoft.Media.FromEachInputFile

Der Diskriminator für abgeleitete Typen.

includedTracks TrackDescriptor[]:

Die Liste der TrackDescriptors, die die Metadaten und die Auswahl der Spuren in der Eingabe definieren.

H264Complexity

Teilt dem Encoder mit, wie seine Codierungseinstellungen ausgewählt werden sollen. Der Standardwert ist Balanced.

Name Typ Beschreibung
Balanced

string

Weist den Encoder an, Einstellungen zu verwenden, die ein Gleichgewicht zwischen Geschwindigkeit und Qualität erzielen.

Quality

string

Weist den Encoder an, Einstellungen zu verwenden, die optimiert sind, um eine höhere Ausgabequalität auf Kosten einer langsameren Gesamtcodierungszeit zu erzeugen.

Speed

string

Weist den Encoder an, Einstellungen zu verwenden, die für eine schnellere Codierung optimiert sind. Qualität wird geopfert, um die Codierungszeit zu verkürzen.

H264Layer

Beschreibt die Einstellungen, die beim Codieren des Eingabevideos in eine gewünschte Ausgabebitrateebene mit dem H.264-Videocodec verwendet werden sollen.

Name Typ Beschreibung
adaptiveBFrame

boolean

Gibt an, ob adaptive B-Frames beim Codieren dieser Ebene verwendet werden sollen oder nicht. Wenn dies nicht angegeben ist, wird es vom Encoder aktiviert, wenn das Videoprofil die Verwendung zulässt.

bFrames

integer

Die Anzahl der B-Frames, die beim Codieren dieser Ebene verwendet werden sollen. Falls nicht angegeben, wählt der Encoder eine geeignete Nummer basierend auf dem Videoprofil und der Videoebene aus.

bitrate

integer

Die durchschnittliche Bitrate in Bits pro Sekunde, mit der das Eingabevideo beim Generieren dieser Ebene codiert werden soll. Dies ist ein Pflichtfeld.

bufferWindow

string

Die Länge des VBV-Pufferfensters. Der Wert sollte im ISO 8601-Format vorliegen. Der Wert sollte im Bereich [0,1-100] Sekunden liegen. Der Standardwert ist 5 Sekunden (z. B. PT5S).

crf

number

Der Wert von CRF, der beim Codieren dieser Ebene verwendet werden soll. Diese Einstellung wird wirksam, wenn RateControlMode des Videocodecs im CRF-Modus festgelegt ist. Der Bereich des CRF-Werts liegt zwischen 0 und 51, wobei niedrigere Werte zu einer besseren Qualität führen würden, auf Kosten höherer Dateigrößen. Höhere Werte bedeuten mehr Komprimierung, aber irgendwann wird eine Qualitätsverschlechterung festgestellt. Der Standardwert ist 23.

entropyMode

EntropyMode

Der Entropiemodus, der für diese Ebene verwendet werden soll. Wenn nicht angegeben, wählt der Encoder den Modus aus, der für das Profil und die Ebene geeignet ist.

frameRate

string

Die Bildrate (in Frames pro Sekunde), mit der diese Ebene codiert werden soll. Der Wert kann in Form von M/N sein, wobei M und N ganze Zahlen sind (z. B. 30000/1001), oder in Form einer Zahl (z. B. 30 oder 29,97). Der Encoder erzwingt Einschränkungen für zulässige Bildraten basierend auf dem Profil und der Ebene. Wenn dies nicht angegeben ist, verwendet der Encoder die gleiche Bildrate wie das Eingabevideo.

height

string

Die Höhe des Ausgabevideos für diese Ebene. Der Wert kann absolut (in Pixel) oder relativ (in Prozent) sein. Beispielsweise bedeutet 50 %, dass das Ausgabevideo halb so viele Pixel in der Höhe hat wie die Eingabe.

label

string

Die alphanumerische Bezeichnung für diese Ebene, die zum Multiplexen verschiedener Video- und Audioebenen oder zum Benennen der Ausgabedatei verwendet werden kann.

level

string

Derzeit unterstützen wir Level bis 6.2. Der Wert kann Auto oder eine Zahl sein, die dem H.264-Profil entspricht. Wenn nicht angegeben, ist der Standardwert Auto, wodurch der Encoder die für diese Ebene geeignete Ebene auswählen kann.

maxBitrate

integer

Die maximale Bitrate (in Bits pro Sekunde), bei der davon ausgegangen werden sollte, dass der VBV-Puffer erneut aufgefüllt werden soll. Wenn nicht angegeben, wird standardmäßig derselbe Wert wie die Bitrate verwendet.

profile

H264VideoProfile

Derzeit unterstützen wir Baseline, Main, High, High422, High444. Der Standardwert ist Auto.

referenceFrames

integer

Die Anzahl der Referenzframes, die beim Codieren dieser Ebene verwendet werden sollen. Wenn nicht angegeben, bestimmt der Encoder eine geeignete Zahl basierend auf der Komplexitätseinstellung des Encoders.

slices

integer

Die Anzahl der Slices, die beim Codieren dieser Ebene verwendet werden sollen. Wenn nicht angegeben, ist der Standardwert 0. Dies bedeutet, dass der Encoder für jeden Frame ein einzelnes Slice verwendet.

width

string

Die Breite des Ausgabevideos für diese Ebene. Der Wert kann absolut (in Pixel) oder relativ (in Prozent) sein. Beispielsweise bedeutet 50 %, dass das Ausgabevideo halb so viele Pixel breit ist wie die Eingabe.

H264RateControlMode

Der Modus zur Steuerung der Videorate

Name Typ Beschreibung
ABR

string

AbR-Modus (Average Bitrate), der die Zielbitrate erreicht: Standardmodus.

CBR

string

Der CBR-Modus (Constant Bitrate) strafft Bitratenvariationen um die Zielbitrate.

CRF

string

CrF-Modus (Constant Rate Factor), der auf konstante subjektive Qualität abzielt.

H264Video

Beschreibt alle Eigenschaften zum Codieren eines Videos mit dem H.264-Codec.

Name Typ Beschreibung
@odata.type string:

#Microsoft.Media.H264Video

Der Diskriminator für abgeleitete Typen.

complexity

H264Complexity

Teilt dem Encoder mit, wie seine Codierungseinstellungen ausgewählt werden sollen. Der Standardwert ist Balanced.

keyFrameInterval

string

Der Abstand zwischen zwei Keyframes. Der Wert sollte im Bereich [0,5, 20] Sekunden ungleich null sein, der im ISO 8601-Format angegeben ist. Der Standardwert ist 2 Sekunden (PT2S). Beachten Sie, dass diese Einstellung ignoriert wird, wenn VideoSyncMode.Passthrough festgelegt ist, wobei der KeyFrameInterval-Wert der Eingabequelleneinstellung folgt.

label

string

Eine optionale Bezeichnung für den Codec. Die Bezeichnung kann verwendet werden, um das Muxingverhalten zu steuern.

layers

H264Layer[]

Die Sammlung der H.264-Ausgabeebenen, die vom Encoder erzeugt werden sollen.

rateControlMode

H264RateControlMode

Der Videoratensteuerungsmodus

sceneChangeDetection

boolean

Gibt an, ob der Encoder Keyframes bei Szenenänderungen einfügen soll. Wenn nicht angegeben, ist der Standardwert false. Dieses Flag sollte nur auf TRUE festgelegt werden, wenn der Encoder für die Erstellung eines einzelnen Ausgabevideos konfiguriert wird.

stretchMode

StretchMode

Der Größenänderungsmodus: Die Größe des Eingabevideos wird an die gewünschte Ausgabeauflösung(en) angepasst. Die Standardeinstellung ist AutoSize.

syncMode

VideoSyncMode

Videosynchronisierungsmodus

H264VideoProfile

Derzeit unterstützen wir Baseline, Main, High, High422, High444. Der Standardwert ist Auto.

Name Typ Beschreibung
Auto

string

Weist den Encoder an, automatisch das entsprechende H.264-Profil zu bestimmen.

Baseline

string

Baselineprofil

High

string

Hohes Profil.

High422

string

Hohes 4:2:2-Profil.

High444

string

Hohes Vorhersageprofil von 4:4:4.

Main

string

Hauptprofil

H265Complexity

Teilt dem Encoder mit, wie seine Codierungseinstellungen ausgewählt werden sollen. Qualität sorgt für ein höheres Komprimierungsverhältnis, aber zu höheren Kosten und längerer Computezeit. Die Geschwindigkeit erzeugt eine relativ größere Datei, ist aber schneller und wirtschaftlicher. Der Standardwert ist Balanced.

Name Typ Beschreibung
Balanced

string

Weist den Encoder an, Einstellungen zu verwenden, die ein Gleichgewicht zwischen Geschwindigkeit und Qualität erzielen.

Quality

string

Weist den Encoder an, Einstellungen zu verwenden, die optimiert sind, um eine höhere Ausgabequalität auf Kosten einer langsameren Gesamtcodierungszeit zu erzeugen.

Speed

string

Weist den Encoder an, Einstellungen zu verwenden, die für eine schnellere Codierung optimiert sind. Qualität wird geopfert, um die Codierungszeit zu verkürzen.

H265Layer

Beschreibt die Einstellungen, die beim Codieren des Eingabevideos in eine gewünschte Ausgabebitrateebene mit dem H.265-Videocodec verwendet werden sollen.

Name Typ Beschreibung
adaptiveBFrame

boolean

Gibt an, ob adaptive B-Frames beim Codieren dieser Ebene verwendet werden sollen. Wenn dies nicht angegeben ist, wird es vom Encoder aktiviert, wenn das Videoprofil die Verwendung zulässt.

bFrames

integer

Die Anzahl der B-Frames, die beim Codieren dieser Ebene verwendet werden sollen. Falls nicht angegeben, wählt der Encoder eine geeignete Nummer basierend auf dem Videoprofil und der Videoebene aus.

bitrate

integer

Die durchschnittliche Bitrate in Bits pro Sekunde, mit der das Eingabevideo beim Generieren dieser Ebene codiert werden soll. Beispiel: Eine Zielbitrate von 3000 KBit/s oder 3 Mbit/s bedeutet, dass dieser Wert 30000000 sein sollte. Dies ist ein erforderliches Feld.

bufferWindow

string

Die Länge des VBV-Pufferfensters. Der Wert sollte im ISO 8601-Format vorliegen. Der Wert sollte im Bereich [0,1-100] Sekunden liegen. Der Standardwert ist 5 Sekunden (z. B. PT5S).

crf

number

Der Wert von CRF, der beim Codieren dieser Ebene verwendet werden soll. Diese Einstellung wird wirksam, wenn RateControlMode des Videocodecs im CRF-Modus festgelegt ist. Der Bereich des CRF-Werts liegt zwischen 0 und 51, wobei niedrigere Werte zu einer besseren Qualität führen würden, auf Kosten höherer Dateigrößen. Höhere Werte bedeuten mehr Komprimierung, aber irgendwann wird eine Qualitätsverschlechterung festgestellt. Der Standardwert ist 28.

frameRate

string

Die Bildrate (in Frames pro Sekunde), mit der diese Ebene codiert werden soll. Der Wert kann in Form von M/N sein, wobei M und N ganze Zahlen sind (z. B. 30000/1001), oder in Form einer Zahl (z. B. 30 oder 29,97). Der Encoder erzwingt Einschränkungen für zulässige Bildraten basierend auf dem Profil und der Ebene. Wenn dies nicht angegeben ist, verwendet der Encoder die gleiche Bildrate wie das Eingabevideo.

height

string

Die Höhe des Ausgabevideos für diese Ebene. Der Wert kann absolut (in Pixel) oder relativ (in Prozent) sein. Beispielsweise bedeutet 50 %, dass das Ausgabevideo halb so viele Pixel in der Höhe hat wie die Eingabe.

label

string

Die alphanumerische Bezeichnung für diese Ebene, die zum Multiplexen verschiedener Video- und Audioebenen oder zum Benennen der Ausgabedatei verwendet werden kann.

level

string

Derzeit unterstützen wir Level bis 6.2. Der Wert kann Auto oder eine Zahl sein, die dem H.265-Profil entspricht. Wenn nicht angegeben, ist der Standardwert Auto, wodurch der Encoder die für diese Ebene geeignete Ebene auswählen kann.

maxBitrate

integer

Die maximale Bitrate (in Bits pro Sekunde), bei der davon ausgegangen werden sollte, dass der VBV-Puffer erneut aufgefüllt werden soll. Wenn nicht angegeben, wird standardmäßig derselbe Wert wie die Bitrate verwendet.

profile

H265VideoProfile

Derzeit unterstützen wir Main. Der Standardwert ist Auto.

referenceFrames

integer

Die Anzahl der Referenzframes, die beim Codieren dieser Ebene verwendet werden sollen. Wenn nicht angegeben, bestimmt der Encoder eine geeignete Zahl basierend auf der Komplexitätseinstellung des Encoders.

slices

integer

Die Anzahl der Slices, die beim Codieren dieser Ebene verwendet werden sollen. Wenn nicht angegeben, ist der Standardwert 0. Dies bedeutet, dass der Encoder für jeden Frame ein einzelnes Slice verwendet.

width

string

Die Breite des Ausgabevideos für diese Ebene. Der Wert kann absolut (in Pixel) oder relativ (in Prozent) sein. Beispielsweise bedeutet 50 %, dass das Ausgabevideo halb so viele Pixel breit ist wie die Eingabe.

H265Video

Beschreibt alle Eigenschaften zum Codieren eines Videos mit dem H.265-Codec.

Name Typ Beschreibung
@odata.type string:

#Microsoft.Media.H265Video

Der Diskriminator für abgeleitete Typen.

complexity

H265Complexity

Teilt dem Encoder mit, wie seine Codierungseinstellungen ausgewählt werden sollen. Die Qualität sorgt für ein höheres Komprimierungsverhältnis, aber zu höheren Kosten und längerer Computezeit. Die Geschwindigkeit erzeugt eine relativ größere Datei, ist aber schneller und wirtschaftlicher. Der Standardwert ist Balanced.

keyFrameInterval

string

Der Abstand zwischen zwei Keyframes. Der Wert sollte ungleich Null im Bereich [0,5, 20] Sekunden sein, der im ISO 8601-Format angegeben ist. Der Standardwert ist 2 Sekunden (PT2S). Beachten Sie, dass diese Einstellung ignoriert wird, wenn VideoSyncMode.Passthrough festgelegt ist, wobei der KeyFrameInterval-Wert der Einstellung für die Eingabequelle folgt.

label

string

Eine optionale Bezeichnung für den Codec. Die Bezeichnung kann verwendet werden, um das Muxingverhalten zu steuern.

layers

H265Layer[]

Die Sammlung der H.265-Ausgabeebenen, die vom Encoder erzeugt werden sollen.

sceneChangeDetection

boolean

Gibt an, ob der Encoder keyframes bei Szenenänderungen einfügen soll. Wenn nicht angegeben, ist der Standardwert false. Dieses Flag sollte nur auf TRUE festgelegt werden, wenn der Encoder für die Erstellung eines einzelnen Ausgabevideos konfiguriert wird.

stretchMode

StretchMode

Der Größenänderungsmodus: Gibt an, wie die Größe des Eingabevideos an die gewünschte Ausgabeauflösung angepasst wird. Der Standardwert ist AutoSize.

syncMode

VideoSyncMode

Videosynchronisierungsmodus

H265VideoProfile

Derzeit unterstützen wir Main. Der Standardwert ist Auto.

Name Typ Beschreibung
Auto

string

Weist den Encoder an, automatisch das entsprechende H.265-Profil zu bestimmen.

Main

string

Hauptprofil (https://x265.readthedocs.io/en/default/cli.html?highlight=profile#profile-level-tier)

Main10

string

Hauptprofil 10 (https://en.wikipedia.org/wiki/High_Efficiency_Video_Coding#Main_10)

Image

Beschreibt die grundlegenden Eigenschaften zum Generieren von Miniaturansichten aus dem Eingabevideo.

Name Typ Beschreibung
@odata.type string:

#Microsoft.Media.Image

Der Diskriminator für abgeleitete Typen.

keyFrameInterval

string

Der Abstand zwischen zwei Keyframes. Der Wert sollte ungleich Null im Bereich [0,5, 20] Sekunden sein, der im ISO 8601-Format angegeben ist. Der Standardwert ist 2 Sekunden (PT2S). Beachten Sie, dass diese Einstellung ignoriert wird, wenn VideoSyncMode.Passthrough festgelegt ist, wobei der KeyFrameInterval-Wert der Einstellung für die Eingabequelle folgt.

label

string

Eine optionale Bezeichnung für den Codec. Die Bezeichnung kann verwendet werden, um das Muxingverhalten zu steuern.

range

string

Die Position relativ zur transformationsvoreingestellten Startzeit im Eingabevideo, an der die Generierung von Miniaturansichten beendet werden soll. Der Wert kann im ISO 8601-Format (z. B. PT5M30S, um bei 5 Minuten und 30 Sekunden ab der Startzeit anzuhalten) oder eine Frameanzahl (z. B. 300, um beim 300. Frame des Frames zum Startzeitpunkt anzuhalten). Wenn dieser Wert 1 ist, bedeutet dies, dass nur eine Miniaturansicht zur Startzeit erzeugt wird, oder ein relativer Wert zur Streamdauer (z. B. 50 %, um bei der Hälfte der Streamdauer ab der Startzeit anzuhalten). Der Standardwert ist 100 %. Dies bedeutet, dass am Ende des Streams angehalten werden soll.

start

string

Die Position im Eingabevideo, von der aus mit dem Generieren von Miniaturansichten begonnen werden soll. Der Wert kann das ISO 8601-Format aufweisen, z. B. PT05S, damit ab fünf Sekunden gestartet wird, oder die Nummer eines Frames, z. B. 10, damit beim zehnten Frame gestartet wird, oder einen relativen Wert zur Dauer des Streams, z. B. 10 %, damit bei zehn Prozent der Gesamtdauer des Streams gestartet wird. Außerdem wird ein Makro namens {Best} unterstützt, das den Encoder anweist, die beste Vorschauminiatur aus den ersten Sekunden des Videos auszuwählen. Dabei wird unabhängig von anderen Einstellungen für „step“ und „range“ nur eine Vorschauminiatur erstellt. Der Standardwert des Makros lautet {Best}.

step

string

Die Intervalle, in denen Miniaturansichten generiert werden. Der Wert kann im ISO 8601-Format (z. B. PT05S für ein Bild alle 5 Sekunden) oder eine Frameanzahl (z. B. 30 für ein Bild alle 30 Frames) oder ein relativer Wert zur Streamdauer (z. B. 10 % für ein Bild alle 10 % der Streamdauer) sein. Hinweis: Der Schrittwert wirkt sich auf die erste generierte Miniaturansicht aus, die möglicherweise nicht genau die ist, die bei der voreingestellten Transformationsstartzeit angegeben wurde. Dies liegt am Encoder, der versucht, die beste Miniaturansicht zwischen Startzeit und Schrittposition ab Startzeit als erste Ausgabe auszuwählen. Da der Standardwert 10 % beträgt, bedeutet dies, dass die erste generierte Miniaturansicht weit von der zur Startzeit angegebenen entfernt ist, wenn der Stream eine lange Dauer hat. Versuchen Sie, einen angemessenen Wert für Schritt auszuwählen, wenn die erste Miniaturansicht nahe der Startzeit erwartet wird, oder legen Sie den Wert bereich auf 1 fest, wenn zur Startzeit nur eine Miniaturansicht benötigt wird.

stretchMode

StretchMode

Der Größenänderungsmodus: Gibt an, wie die Größe des Eingabevideos an die gewünschte Ausgabeauflösung angepasst wird. Der Standardwert ist AutoSize.

syncMode

VideoSyncMode

Videosynchronisierungsmodus

ImageFormat

Beschreibt die Eigenschaften für eine Ausgabebilddatei.

Name Typ Beschreibung
@odata.type string:

#Microsoft.Media.ImageFormat

Der Diskriminator für abgeleitete Typen.

filenamePattern

string

Das Dateibenennungsmuster, das für die Erstellung von Ausgabedateien verwendet wird. Die folgenden Makros werden im Dateinamen unterstützt: {Basename} – Ein Erweiterungsmakro, das den Namen der Eingabevideodatei verwendet. Wenn der Basisname (das Dateisuffix ist nicht enthalten) der Eingabevideodatei weniger als 32 Zeichen lang ist, wird der Basisname der Eingabevideodateien verwendet. Wenn die Länge des Basisnamens der Eingabevideodatei 32 Zeichen überschreitet, wird der Basisname auf die ersten 32 Zeichen der Gesamtlänge gekürzt. {Extension} – Die entsprechende Erweiterung für dieses Format. {Label} – Die Bezeichnung, die dem Codec/der Ebene zugewiesen ist. {Index} – Ein eindeutiger Index für Miniaturansichten. Gilt nur für Miniaturansichten. {AudioStream} - Zeichenfolge "Audio" plus Audiostreamnummer (Start von 1). {Bitrate} – Die Audio-/Videobitrate in Kbit/s. Gilt nicht für Miniaturansichten. {Codec} – Der Typ des Audio-/Video-Codecs. {Resolution} – Die Videoauflösung. Alle nicht substituierten Makros werden reduziert und aus dem Dateinamen entfernt.

InputFile

Eine InputDefinition für eine einzelne Datei. TrackSelections sind auf die angegebene Datei festgelegt.

Name Typ Beschreibung
@odata.type string:

#Microsoft.Media.InputFile

Der Diskriminator für abgeleitete Typen.

filename

string

Der Name der Datei, für die diese Eingabedefinition gilt.

includedTracks TrackDescriptor[]:

Die Liste der TrackDescriptors, die die Metadaten und die Auswahl der Spuren in der Eingabe definieren.

InsightsType

Definiert den Typ der Erkenntnisse, die der Dienst generieren soll. Die zulässigen Werte sind "AudioInsightsOnly", "VideoInsightsOnly" und "AllInsights". Der Standardwert ist AllInsights. Wenn Sie dies auf AllInsights festlegen und die Eingabe nur Audio ist, werden nur Audioerkenntnisse generiert. Wenn es sich bei der Eingabe nur um Video handelt, werden auch nur Videoeinblicke generiert. Es wird empfohlen, AudioInsightsOnly nicht zu verwenden, wenn Sie erwarten, dass einige Ihrer Eingaben nur Video sind. oder verwenden Sie VideoInsightsOnly, wenn Sie erwarten, dass einige Ihrer Eingaben nur Audio sind. Ihre Aufträge unter solchen Bedingungen würden einen Fehler verursachen.

Name Typ Beschreibung
AllInsights

string

Generieren Von Audio- und Videoerkenntnissen Tritt ein Fehler auf, wenn Audio- oder Videoeinblicke fehlschlagen.

AudioInsightsOnly

string

Generieren sie Nur-Audio-Erkenntnisse. Video ignorieren, auch wenn vorhanden. Tritt ein Fehler auf, wenn keine Audiodaten vorhanden sind.

VideoInsightsOnly

string

Generieren sie nur Video-Erkenntnisse. Audio ignorieren, falls vorhanden. Schlägt fehl, wenn kein Video vorhanden ist.

InterleaveOutput

Legt den Interleave-Modus der Ausgabe fest, um zu steuern, wie Audio und Video im Containerformat gespeichert werden. Beispiel: Legen Sie InterleavedOutput auf NonInterleavedOutput fest, um nur Audio- und Videoausgaben in separaten MP4-Dateien zu erzeugen.

Name Typ Beschreibung
InterleavedOutput

string

Die Ausgabe umfasst sowohl Audio als auch Video.

NonInterleavedOutput

string

Die Ausgabe ist nur Video oder nur Audio.

Job

Ein Auftragsressourcentyp. Status und Status können abgerufen werden, indem Sie einen Auftrag abfragen oder Ereignisse mithilfe von EventGrid abonnieren.

Name Typ Beschreibung
id

string

Vollqualifizierte Ressourcen-ID für die Ressource. Beispiel: /subscriptions/{subscriptionId}/resourceGroups/{resourceGroupName}/providers/{resourceProviderNamespace}/{resourceType}/{resourceName}

name

string

Der Name der Ressource

properties.correlationData

object

Vom Kunden bereitgestellte Schlüssel- und Wertpaare, die in Auftrags- und JobOutput-Zustandsereignissen zurückgegeben werden.

properties.created

string

Das UTC-Datum und die Uhrzeit, zu dem der Kunde den Auftrag im Format "JJJJ-MM-TTThh:mm:ssZ" erstellt hat.

properties.description

string

Optionale vom Kunden bereitgestellte Beschreibung des Auftrags.

properties.endTime

string

Das UTC-Datum und die Uhrzeit, zu denen dieser Auftrag die Verarbeitung abgeschlossen hat.

properties.input JobInput:

Die Eingaben für den Auftrag.

properties.lastModified

string

Das UTC-Datum und die Uhrzeit, zu dem der Kunde den Auftrag zuletzt aktualisiert hat, im Format "JJJJ-MM-TTThh:mm:ssZ".

properties.outputs JobOutput[]:

JobOutputAsset[]

Die Ausgaben für den Auftrag.

properties.priority

Priority

Die Priorität, mit dem der Auftrag verarbeitet werden soll. Aufträge mit höherer Priorität werden vor Aufträgen mit niedrigerer Priorität verarbeitet. Wenn diese Eigenschaft nicht festgelegt ist, ist die Priorität standardmäßig normal.

properties.startTime

string

Das UTC-Datum und die Uhrzeit, zu der dieser Auftrag mit der Verarbeitung begonnen hat.

properties.state

JobState

Der aktuelle Status des Auftrags.

systemData

systemData

Die Systemmetadaten, die sich auf diese Ressource beziehen.

type

string

Der Typ der Ressource. Z. B. "Microsoft.Compute/virtualMachines" oder "Microsoft.Storage/storageAccounts"

JobError

Details zu JobOutput-Fehlern.

Name Typ Beschreibung
category

JobErrorCategory

Hilft bei der Kategorisierung von Fehlern.

code

JobErrorCode

Fehlercode, der den Fehler beschreibt.

details

JobErrorDetail[]

Ein Array von Details zu bestimmten Fehlern, die zu diesem gemeldeten Fehler geführt haben.

message

string

Eine lesbare sprachabhängige Darstellung des Fehlers.

retry

JobRetry

Gibt an, dass es möglich ist, den Auftrag erneut zu versuchen. Wenn die Wiederholung nicht erfolgreich ist, wenden Sie sich über das Azure-Portal an Azure-Support.

JobErrorCategory

Hilft bei der Kategorisierung von Fehlern.

Name Typ Beschreibung
Account

string

Der Fehler bezieht sich auf Kontoinformationen.

Configuration

string

Der Fehler bezieht sich auf die Konfiguration.

Content

string

Der Fehler bezieht sich auf Daten in den Eingabedateien.

Download

string

Der Fehler hängt mit dem Download zusammen.

Service

string

Der Fehler ist dienstbezogen.

Upload

string

Der Fehler hängt mit dem Upload zusammen.

JobErrorCode

Fehlercode, der den Fehler beschreibt.

Name Typ Beschreibung
ConfigurationUnsupported

string

Es gab ein Problem mit der Kombination aus Eingabedateien und angewendeten Konfigurationseinstellungen, korrigieren Sie die Konfigurationseinstellungen und wiederholen Sie den Vorgang mit derselben Eingabe, oder ändern Sie die Eingabe, um der Konfiguration zu entsprechen.

ContentMalformed

string

Es ist ein Problem mit dem Eingabeinhalt aufgetreten (z. B. Null-Byte-Dateien oder beschädigte/nicht decodierbare Dateien). Überprüfen Sie die Eingabedateien.

ContentUnsupported

string

Es gab ein Problem mit dem Format der Eingabe (ungültige Mediendatei oder eine nicht unterstützte Datei/Codec), überprüfen Sie die Gültigkeit der Eingabedateien.

DownloadNotAccessible

string

Beim Versuch, die Eingabedateien herunterzuladen, war der Zugriff auf die Dateien nicht möglich. Überprüfen Sie die Verfügbarkeit der Quelle.

DownloadTransientError

string

Beim Versuch, die Eingabedateien herunterzuladen, ist während der Übertragung ein Problem aufgetreten (Speicherdienst, Netzwerkfehler). Sehen Sie sich Details an, und überprüfen Sie Ihre Quelle.

IdentityUnsupported

string

Fehler beim Überprüfen der Kontoidentität. Überprüfen und korrigieren Sie die Identitätskonfigurationen, und wiederholen Sie den Vorgang. Wenn der Fehler nicht erfolgreich ist, wenden Sie sich bitte an den Support.

ServiceError

string

Schwerwiegender Dienstfehler wenden Sie sich an den Support.

ServiceTransientError

string

Vorübergehender Fehler, bitte wiederholen Sie den Vorgang. Wenn die Wiederholung nicht erfolgreich ist, wenden Sie sich an den Support.

UploadNotAccessible

string

Beim Versuch, die Ausgabedateien hochzuladen, war das Ziel nicht erreichbar. Überprüfen Sie die Verfügbarkeit des Ziels.

UploadTransientError

string

Beim Versuch, die Ausgabedateien hochzuladen, ist während der Übertragung ein Problem aufgetreten (Speicherdienst, Netzwerkfehler). Sehen Sie sich Details an, und überprüfen Sie Ihr Ziel.

JobErrorDetail

Details zu JobOutput-Fehlern.

Name Typ Beschreibung
code

string

Code, der die Fehlerdetails beschreibt.

message

string

Eine lesbare Darstellung des Fehlers.

JobInputAsset

Stellt ein Objekt für die Eingabe in einen Auftrag dar.

Name Typ Beschreibung
@odata.type string:

#Microsoft.Media.JobInputAsset

Der Diskriminator für abgeleitete Typen.

assetName

string

Der Name des Eingabeobjekts.

end ClipTime:

Definiert einen Punkt auf dem Zeitleiste des Eingabemediums, an dem die Verarbeitung endet. Standardmäßig wird das Ende der Eingabemedien verwendet.

files

string[]

Liste der Dateien. Erforderlich für JobInputHttp. Maximal 4.000 Zeichen pro Zeichen. Abfragezeichenfolgen werden in Dienstantworten nicht zurückgegeben, um die Offenlegung vertraulicher Daten zu verhindern.

inputDefinitions InputDefinition[]:

Definiert eine Liste von InputDefinitions. Für jede InputDefinition definiert sie eine Liste der Trackauswahlen und zugehörigen Metadaten.

label

string

Eine Bezeichnung, die einem JobInputClip zugewiesen ist und zum Erfüllen eines in der Transformation verwendeten Verweises verwendet wird. Beispielsweise kann eine Transformation erstellt werden, um eine Bilddatei mit der Bezeichnung "xyz" zu erstellen und als Überlagerung auf das Eingabevideo anzuwenden, bevor sie codiert wird. Beim Übermitteln eines Auftrags sollte genau einer der JobInputs die Imagedatei sein, und es sollte die Bezeichnung "xyz" haben.

start ClipTime:

Definiert einen Punkt auf dem Zeitleiste des Eingabemediums, an dem die Verarbeitung beginnt. Standardmäßig wird der Anfang des Eingabemediums verwendet.

JobInputClip

Stellt Eingabedateien für einen Auftrag dar.

Name Typ Beschreibung
@odata.type string:

#Microsoft.Media.JobInputClip

Der Diskriminator für abgeleitete Typen.

end ClipTime:

Definiert einen Punkt auf dem Zeitleiste des Eingabemediums, an dem die Verarbeitung endet. Standardmäßig wird das Ende der Eingabemedien verwendet.

files

string[]

Liste der Dateien. Erforderlich für JobInputHttp. Maximal 4.000 Zeichen pro Zeichen. Abfragezeichenfolgen werden in Dienstantworten nicht zurückgegeben, um die Offenlegung vertraulicher Daten zu verhindern.

inputDefinitions InputDefinition[]:

Definiert eine Liste von InputDefinitions. Für jede InputDefinition definiert sie eine Liste der Trackauswahlen und zugehörigen Metadaten.

label

string

Eine Bezeichnung, die einem JobInputClip zugewiesen ist und zum Erfüllen eines in der Transformation verwendeten Verweises verwendet wird. Beispielsweise kann eine Transformation erstellt werden, um eine Bilddatei mit der Bezeichnung "xyz" zu erstellen und als Überlagerung auf das Eingabevideo anzuwenden, bevor sie codiert wird. Beim Übermitteln eines Auftrags sollte genau einer der JobInputs die Imagedatei sein, und es sollte die Bezeichnung "xyz" haben.

start ClipTime:

Definiert einen Punkt auf dem Zeitleiste des Eingabemediums, an dem die Verarbeitung beginnt. Standardmäßig wird der Anfang des Eingabemediums verwendet.

JobInputHttp

Stellt die HTTPS-Auftragseingabe dar.

Name Typ Beschreibung
@odata.type string:

#Microsoft.Media.JobInputHttp

Der Diskriminator für abgeleitete Typen.

baseUri

string

Basis-URI für HTTPS-Auftragseingabe. Es wird mit den angegebenen Dateinamen verkettet. Wenn kein Basis-URI angegeben wird, wird davon ausgegangen, dass die bereitgestellte Dateiliste vollqualifizierte URIs ist. Maximale Länge von 4.000 Zeichen. Die Abfragezeichenfolgen werden in Dienstantworten nicht zurückgegeben, um die Offenlegung vertraulicher Daten zu verhindern.

end ClipTime:

Definiert einen Punkt auf der Zeitleiste des Eingabemediums, an dem die Verarbeitung endet. Standardmäßig wird das Ende des Eingabemediums verwendet.

files

string[]

Liste der Dateien. Erforderlich für JobInputHttp. Maximal 4.000 Zeichen pro Zeichen. Abfragezeichenfolgen werden in Dienstantworten nicht zurückgegeben, um die Offenlegung vertraulicher Daten zu verhindern.

inputDefinitions InputDefinition[]:

Definiert eine Liste von InputDefinitions. Für jede InputDefinition definiert sie eine Liste der Trackauswahlen und zugehörigen Metadaten.

label

string

Eine Bezeichnung, die einem JobInputClip zugewiesen ist, der verwendet wird, um einen in der Transformation verwendeten Verweis zu erfüllen. Beispielsweise kann eine Transformation so erstellt werden, dass eine Bilddatei mit der Bezeichnung "xyz" aufgenommen und als Überlagerung auf das Eingabevideo angewendet wird, bevor es codiert wird. Wenn Sie einen Auftrag übermitteln, sollte genau einer der JobInputs die Bilddatei sein und die Bezeichnung "xyz" aufweisen.

start ClipTime:

Definiert einen Punkt auf der Zeitleiste des Eingabemediums, an dem die Verarbeitung gestartet wird. Standardmäßig wird der Anfang des Eingabemediums verwendet.

JobInputs

Beschreibt eine Liste von Eingaben für einen Auftrag.

Name Typ Beschreibung
@odata.type string:

#Microsoft.Media.JobInputs

Der Diskriminator für abgeleitete Typen.

inputs JobInput[]:

Liste der Eingaben für einen Auftrag.

JobInputSequence

Eine Sequenz enthält eine sortierte Liste von Clips, wobei jeder Clip ein JobInput ist. Die Sequenz wird als einzelne Eingabe behandelt.

Name Typ Beschreibung
@odata.type string:

#Microsoft.Media.JobInputSequence

Der Diskriminator für abgeleitete Typen.

inputs JobInputClip[]:

JobInputs, die den Zeitleiste bilden.

JobOutputAsset

Stellt ein Medienobjekt dar, das als JobOutput verwendet wird.

Name Typ Beschreibung
@odata.type string:

#Microsoft.Media.JobOutputAsset

Der Diskriminator für abgeleitete Typen.

assetName

string

Der Name des Ausgabeobjekts.

endTime

string

Das UTC-Datum und die Uhrzeit, zu dem diese Auftragsausgabe die Verarbeitung abgeschlossen hat.

error

JobError

Wenn sich jobOutput im Fehlerzustand befindet, enthält er die Details des Fehlers.

label

string

Eine Bezeichnung, die einem JobOutput zugewiesen ist, um sie eindeutig zu identifizieren. Dies ist nützlich, wenn Ihre Transformation über mehr als einen TransformOutput verfügt, wobei Ihr Auftrag mehr als einen JobOutput aufweist. In solchen Fällen fügen Sie beim Übermitteln des Auftrags zwei oder mehr JobOutputs in der gleichen Reihenfolge wie TransformOutputs in der Transformation hinzu. Wenn Sie den Auftrag anschließend entweder über Ereignisse oder in einer GET-Anforderung abrufen, können Sie die Bezeichnung verwenden, um den JobOutput einfach zu identifizieren. Wenn keine Bezeichnung angegeben wird, wird der Standardwert '{presetName}_{outputIndex}' verwendet, wobei der Voreinstellungsname der Name der Voreinstellung im entsprechenden TransformOutput und der Ausgabeindex der relative Index dieses JobOutput-Werts innerhalb des Auftrags ist. Beachten Sie, dass dieser Index mit dem relativen Index des entsprechenden TransformOutput-Werts innerhalb seiner Transformation identisch ist.

presetOverride Preset:

Eine Voreinstellung, die verwendet wird, um die Voreinstellung in der entsprechenden Transformationsausgabe zu überschreiben.

progress

integer

Wenn sich jobOutput im Verarbeitungszustand befindet, enthält dieser den Prozentsatz des Auftragsabschlusses. Der Wert ist eine Schätzung und soll nicht zur Vorhersage von Auftragsabschlusszeiten verwendet werden. Verwenden Sie die State-Eigenschaft, um zu bestimmen, ob der JobOutput abgeschlossen ist.

startTime

string

Das UTC-Datum und die Uhrzeit, zu dem diese Auftragsausgabe mit der Verarbeitung begonnen hat.

state

JobState

Beschreibt den Status von JobOutput.

JobRetry

Gibt an, dass es möglich ist, den Auftrag erneut zu versuchen. Wenn die Wiederholung nicht erfolgreich ist, wenden Sie sich über das Azure-Portal an Azure-Support.

Name Typ Beschreibung
DoNotRetry

string

Das Problem muss untersucht werden, und dann wird der Auftrag erneut mit Korrekturen übermittelt oder wiederholt, nachdem das zugrunde liegende Problem behoben wurde.

MayRetry

string

Das Problem kann behoben werden, nachdem sie einen bestimmten Zeitraum gewartet und denselben Auftrag erneut übermittelt haben.

JobState

Beschreibt den Status von JobOutput.

Name Typ Beschreibung
Canceled

string

Der Auftrag wurde abgebrochen. Dies ist ein endgültiger Zustand für den Auftrag.

Canceling

string

Der Auftrag wird gerade abgebrochen. Dies ist ein vorübergehender Zustand für den Auftrag.

Error

string

Beim Auftrag ist ein Fehler aufgetreten. Dies ist ein endgültiger Zustand für den Auftrag.

Finished

string

Der Auftrag ist abgeschlossen. Dies ist ein endgültiger Zustand für den Auftrag.

Processing

string

Der Auftrag wird verarbeitet. Dies ist ein vorübergehender Zustand für den Auftrag.

Queued

string

Der Auftrag befindet sich in einer Warteschlange und wartet darauf, dass Ressourcen verfügbar werden. Dies ist ein vorübergehender Status.

Scheduled

string

Der Auftrag wird für die Ausführung auf einer verfügbaren Ressource geplant. Dies ist ein vorübergehender Zustand zwischen Warteschlange und Verarbeitungsstatus.

JpgFormat

Beschreibt die Einstellungen zum Erstellen von JPEG-Miniaturansichten.

Name Typ Beschreibung
@odata.type string:

#Microsoft.Media.JpgFormat

Der Diskriminator für abgeleitete Typen.

filenamePattern

string

Das Dateibenennungsmuster, das für die Erstellung von Ausgabedateien verwendet wird. Die folgenden Makros werden im Dateinamen unterstützt: {Basename} – Ein Erweiterungsmakro, das den Namen der Eingabevideodatei verwendet. Wenn der Basisname (das Dateisuffix ist nicht enthalten) der Eingabevideodatei weniger als 32 Zeichen lang ist, wird der Basisname der Eingabevideodateien verwendet. Wenn die Länge des Basisnamens der Eingabevideodatei 32 Zeichen überschreitet, wird der Basisname auf die ersten 32 Zeichen der Gesamtlänge abgeschnitten. {Extension} – Die entsprechende Erweiterung für dieses Format. {Label} – Die Bezeichnung, die dem Codec/der Ebene zugewiesen ist. {Index} – Ein eindeutiger Index für Miniaturansichten. Gilt nur für Miniaturansichten. {AudioStream} - Zeichenfolge "Audio" plus Audiostreamnummer (Start von 1). {Bitrate} – Die Audio-/Video-Bitrate in KBit/s. Gilt nicht für Miniaturansichten. {Codec} – Der Typ des Audio-/Videocodecs. {Resolution} – Die Videoauflösung. Alle nichtubstituierten Makros werden reduziert und aus dem Dateinamen entfernt.

JpgImage

Beschreibt die Eigenschaften zum Erstellen einer Reihe von JPEG-Bildern aus dem Eingabevideo.

Name Typ Beschreibung
@odata.type string:

#Microsoft.Media.JpgImage

Der Diskriminator für abgeleitete Typen.

keyFrameInterval

string

Der Abstand zwischen zwei Keyframes. Der Wert sollte im Bereich [0,5, 20] Sekunden ungleich null sein, der im ISO 8601-Format angegeben ist. Der Standardwert ist 2 Sekunden (PT2S). Beachten Sie, dass diese Einstellung ignoriert wird, wenn VideoSyncMode.Passthrough festgelegt ist, wobei der KeyFrameInterval-Wert der Eingabequelleneinstellung folgt.

label

string

Eine optionale Bezeichnung für den Codec. Die Bezeichnung kann verwendet werden, um das Muxingverhalten zu steuern.

layers

JpgLayer[]

Eine Sammlung von JPEG-Ausgabebildebenen, die vom Encoder erzeugt werden sollen.

range

string

Die Position relativ zur transformationsvoreingestellten Startzeit im Eingabevideo, an der die Generierung von Miniaturansichten beendet werden soll. Der Wert kann im ISO 8601-Format (z. B. PT5M30S, um bei 5 Minuten und 30 Sekunden ab der Startzeit anzuhalten) oder eine Frameanzahl (z. B. 300, um beim 300. Frame des Frames zum Start anzuhalten) sein. Wenn dieser Wert 1 ist, bedeutet dies, dass zur Startzeit nur eine Miniaturansicht oder ein relativer Wert zur Streamdauer erzeugt wird (z. B. 50 %, um bei der Hälfte der Streamdauer ab der Startzeit anzuhalten). Der Standardwert ist 100 %. Dies bedeutet, dass am Ende des Streams angehalten werden soll.

spriteColumn

integer

Legt die Anzahl der Spalten fest, die im Miniaturansichts-Sprite-Bild verwendet werden. Die Anzahl der Zeilen wird automatisch berechnet, und eine VTT-Datei mit den Koordinatenzuordnungen für jede Miniaturansicht im Sprite wird generiert. Hinweis: Dieser Wert sollte eine positive ganze Zahl sein, und ein korrekter Wert wird empfohlen, damit die Auflösung des Ausgabebilds nicht über das maximale JPEG-Pixelauflösungslimit von 65535 x 655535 hinausgeht.

start

string

Die Position im Eingabevideo, von der aus mit der Erstellung von Miniaturansichten begonnen werden soll. Der Wert kann das ISO 8601-Format aufweisen, z. B. PT05S, damit ab fünf Sekunden gestartet wird, oder die Nummer eines Frames, z. B. 10, damit beim zehnten Frame gestartet wird, oder einen relativen Wert zur Dauer des Streams, z. B. 10 %, damit bei zehn Prozent der Gesamtdauer des Streams gestartet wird. Außerdem wird ein Makro namens {Best} unterstützt, das den Encoder anweist, die beste Vorschauminiatur aus den ersten Sekunden des Videos auszuwählen. Dabei wird unabhängig von anderen Einstellungen für „step“ und „range“ nur eine Vorschauminiatur erstellt. Der Standardwert des Makros lautet {Best}.

step

string

Die Intervalle, in denen Miniaturansichten generiert werden. Der Wert kann im ISO 8601-Format (z. B. PT05S für ein Bild alle 5 Sekunden) oder eine Frameanzahl (z. B. 30 für ein Bild alle 30 Frames) oder ein relativer Wert für die Streamdauer (z. B. 10 % für ein Bild alle 10 % der Datenstromdauer) sein. Hinweis: Der Schrittwert wirkt sich auf die erste generierte Miniaturansicht aus, die möglicherweise nicht genau die Miniaturansicht ist, die bei der Startzeit der transformationsvoreingestellten Transformation angegeben wurde. Dies ist auf den Encoder zurückzuführen, der versucht, die beste Miniaturansicht zwischen Startzeit und Schrittposition von der Startzeit als erste Ausgabe auszuwählen. Da der Standardwert 10 % beträgt, bedeutet dies, dass die erste generierte Miniaturansicht, wenn der Stream eine lange Dauer hat, möglicherweise weit von der zur Startzeit angegebenen Miniaturansicht entfernt ist. Versuchen Sie, einen angemessenen Wert für Schritt auszuwählen, wenn die erste Miniaturansicht nahe der Startzeit erwartet wird, oder legen Sie den Wert bereich auf 1 fest, wenn zur Startzeit nur eine Miniaturansicht erforderlich ist.

stretchMode

StretchMode

Der Größenänderungsmodus: Die Größe des Eingabevideos wird an die gewünschte Ausgabeauflösung(en) angepasst. Die Standardeinstellung ist AutoSize.

syncMode

VideoSyncMode

Videosynchronisierungsmodus

JpgLayer

Beschreibt die Einstellungen zum Erstellen eines JPEG-Bilds aus dem Eingabevideo.

Name Typ Beschreibung
height

string

Die Höhe des Ausgabevideos für diese Ebene. Der Wert kann absolut (in Pixel) oder relativ (in Prozent) sein. Beispielsweise bedeutet 50 %, dass das Ausgabevideo halb so viele Pixel in der Höhe hat wie die Eingabe.

label

string

Die alphanumerische Bezeichnung für diese Ebene, die zum Multiplexen verschiedener Video- und Audioebenen oder zum Benennen der Ausgabedatei verwendet werden kann.

quality

integer

Die Komprimierungsqualität der JPEG-Ausgabe. Der Bereich liegt zwischen 0 und 100, der Standardwert ist 70.

width

string

Die Breite des Ausgabevideos für diese Ebene. Der Wert kann absolut (in Pixel) oder relativ (in Prozent) sein. Beispielsweise bedeutet 50 %, dass das Ausgabevideo halb so viele Pixel breit ist wie die Eingabe.

Mp4Format

Beschreibt die Eigenschaften für eine AUSGABE-ISO-MP4-Datei.

Name Typ Beschreibung
@odata.type string:

#Microsoft.Media.Mp4Format

Der Diskriminator für abgeleitete Typen.

filenamePattern

string

Das Dateibenennungsmuster, das für die Erstellung von Ausgabedateien verwendet wird. Die folgenden Makros werden im Dateinamen unterstützt: {Basename} – Ein Erweiterungsmakro, das den Namen der Eingabevideodatei verwendet. Wenn der Basisname (das Dateisuffix ist nicht enthalten) der Eingabevideodatei weniger als 32 Zeichen lang ist, wird der Basisname der Eingabevideodateien verwendet. Wenn die Länge des Basisnamens der Eingabevideodatei 32 Zeichen überschreitet, wird der Basisname auf die ersten 32 Zeichen der Gesamtlänge abgeschnitten. {Extension} – Die entsprechende Erweiterung für dieses Format. {Label} – Die Bezeichnung, die dem Codec/der Ebene zugewiesen ist. {Index} – Ein eindeutiger Index für Miniaturansichten. Gilt nur für Miniaturansichten. {AudioStream} - Zeichenfolge "Audio" plus Audiostreamnummer (Start von 1). {Bitrate} – Die Audio-/Video-Bitrate in KBit/s. Gilt nicht für Miniaturansichten. {Codec} – Der Typ des Audio-/Videocodecs. {Resolution} – Die Videoauflösung. Alle nichtubstituierten Makros werden reduziert und aus dem Dateinamen entfernt.

outputFiles

OutputFile[]

Die Liste der zu erstellenden Ausgabedateien. Jeder Eintrag in der Liste ist ein Satz von Beschriftungen der Audio- und Videoebene, die zusammen muxiert werden sollen.

MultiBitrateFormat

Beschreibt die Eigenschaften zum Erstellen einer Auflistung von GOP-ausgerichteten Dateien mit mehreren Bitraten. Das Standardverhalten besteht darin, eine Ausgabedatei für jede Videoebene zu erstellen, die zusammen mit allen Audios muxiert wird. Die genau erstellten Ausgabedateien können durch Angabe der outputFiles-Auflistung gesteuert werden.

Name Typ Beschreibung
@odata.type string:

#Microsoft.Media.MultiBitrateFormat

Der Diskriminator für abgeleitete Typen.

filenamePattern

string

Das Dateibenennungsmuster, das für die Erstellung von Ausgabedateien verwendet wird. Die folgenden Makros werden im Dateinamen unterstützt: {Basename} – Ein Erweiterungsmakro, das den Namen der Eingabevideodatei verwendet. Wenn der Basisname (das Dateisuffix ist nicht enthalten) der Eingabevideodatei weniger als 32 Zeichen lang ist, wird der Basisname der Eingabevideodateien verwendet. Wenn die Länge des Basisnamens der Eingabevideodatei 32 Zeichen überschreitet, wird der Basisname auf die ersten 32 Zeichen der Gesamtlänge abgeschnitten. {Extension} – Die entsprechende Erweiterung für dieses Format. {Label} – Die Bezeichnung, die dem Codec/der Ebene zugewiesen ist. {Index} – Ein eindeutiger Index für Miniaturansichten. Gilt nur für Miniaturansichten. {AudioStream} - Zeichenfolge "Audio" plus Audiostreamnummer (Start von 1). {Bitrate} – Die Audio-/Video-Bitrate in KBit/s. Gilt nicht für Miniaturansichten. {Codec} – Der Typ des Audio-/Videocodecs. {Resolution} – Die Videoauflösung. Alle nichtubstituierten Makros werden reduziert und aus dem Dateinamen entfernt.

outputFiles

OutputFile[]

Die Liste der zu erstellenden Ausgabedateien. Jeder Eintrag in der Liste ist eine Gruppe von Beschriftungen der Audio- und Videoebene, die zusammen muxiert werden sollen.

OutputFile

Stellt eine erstellte Ausgabedatei dar.

Name Typ Beschreibung
labels

string[]

Die Liste der Bezeichnungen, die beschreiben, wie der Encoder Video und Audio in eine Ausgabedatei multiplexen soll. Wenn der Encoder beispielsweise zwei Videoebenen mit den Bezeichnungen v1 und v2 und eine Audioebene mit der Bezeichnung a1 erzeugt, weist ein Array wie "[v1, a1]" den Encoder an, eine Ausgabedatei mit der durch v1 dargestellten Videospur und der durch a1 dargestellten Audiospur zu erstellen.

PngFormat

Beschreibt die Einstellungen zum Erstellen von PNG-Miniaturansichten.

Name Typ Beschreibung
@odata.type string:

#Microsoft.Media.PngFormat

Der Diskriminator für abgeleitete Typen.

filenamePattern

string

Das Dateibenennungsmuster, das für die Erstellung von Ausgabedateien verwendet wird. Die folgenden Makros werden im Dateinamen unterstützt: {Basename} – Ein Erweiterungsmakro, das den Namen der Eingabevideodatei verwendet. Wenn der Basisname (das Dateisuffix ist nicht enthalten) der Eingabevideodatei weniger als 32 Zeichen lang ist, wird der Basisname der Eingabevideodateien verwendet. Wenn die Länge des Basisnamens der Eingabevideodatei 32 Zeichen überschreitet, wird der Basisname auf die ersten 32 Zeichen der Gesamtlänge abgeschnitten. {Extension} – Die entsprechende Erweiterung für dieses Format. {Label} – Die Bezeichnung, die dem Codec/der Ebene zugewiesen ist. {Index} – Ein eindeutiger Index für Miniaturansichten. Gilt nur für Miniaturansichten. {AudioStream} - Zeichenfolge "Audio" plus Audiostreamnummer (Start von 1). {Bitrate} – Die Audio-/Video-Bitrate in KBit/s. Gilt nicht für Miniaturansichten. {Codec} – Der Typ des Audio-/Videocodecs. {Resolution} – Die Videoauflösung. Alle nichtubstituierten Makros werden reduziert und aus dem Dateinamen entfernt.

PngImage

Beschreibt die Eigenschaften zum Erstellen einer Reihe von PNG-Bildern aus dem Eingabevideo.

Name Typ Beschreibung
@odata.type string:

#Microsoft.Media.PngImage

Der Diskriminator für abgeleitete Typen.

keyFrameInterval

string

Der Abstand zwischen zwei Keyframes. Der Wert sollte im Bereich [0,5, 20] Sekunden ungleich null sein, der im ISO 8601-Format angegeben ist. Der Standardwert ist 2 Sekunden (PT2S). Beachten Sie, dass diese Einstellung ignoriert wird, wenn VideoSyncMode.Passthrough festgelegt ist, wobei der KeyFrameInterval-Wert der Eingabequelleneinstellung folgt.

label

string

Eine optionale Bezeichnung für den Codec. Die Bezeichnung kann verwendet werden, um das Muxingverhalten zu steuern.

layers

PngLayer[]

Eine Sammlung von PNG-Ausgabebildebenen, die vom Encoder erzeugt werden sollen.

range

string

Die Position relativ zur transformationsvoreingestellten Startzeit im Eingabevideo, an der die Generierung von Miniaturansichten beendet werden soll. Der Wert kann im ISO 8601-Format (z. B. PT5M30S, um bei 5 Minuten und 30 Sekunden ab der Startzeit anzuhalten) oder eine Frameanzahl (z. B. 300, um beim 300. Frame des Frames zum Start anzuhalten) sein. Wenn dieser Wert 1 ist, bedeutet dies, dass zur Startzeit nur eine Miniaturansicht oder ein relativer Wert zur Streamdauer erzeugt wird (z. B. 50 %, um bei der Hälfte der Streamdauer ab der Startzeit anzuhalten). Der Standardwert ist 100 %. Dies bedeutet, dass am Ende des Streams angehalten werden soll.

start

string

Die Position im Eingabevideo, von der aus mit der Erstellung von Miniaturansichten begonnen werden soll. Der Wert kann das ISO 8601-Format aufweisen, z. B. PT05S, damit ab fünf Sekunden gestartet wird, oder die Nummer eines Frames, z. B. 10, damit beim zehnten Frame gestartet wird, oder einen relativen Wert zur Dauer des Streams, z. B. 10 %, damit bei zehn Prozent der Gesamtdauer des Streams gestartet wird. Außerdem wird ein Makro namens {Best} unterstützt, das den Encoder anweist, die beste Vorschauminiatur aus den ersten Sekunden des Videos auszuwählen. Dabei wird unabhängig von anderen Einstellungen für „step“ und „range“ nur eine Vorschauminiatur erstellt. Der Standardwert des Makros lautet {Best}.

step

string

Die Intervalle, in denen Miniaturansichten generiert werden. Der Wert kann im ISO 8601-Format (z. B. PT05S für ein Bild alle 5 Sekunden) oder eine Frameanzahl (z. B. 30 für ein Bild alle 30 Frames) oder ein relativer Wert für die Streamdauer (z. B. 10 % für ein Bild alle 10 % der Datenstromdauer) sein. Hinweis: Der Schrittwert wirkt sich auf die erste generierte Miniaturansicht aus, die möglicherweise nicht genau die Miniaturansicht ist, die bei der Startzeit der transformationsvoreingestellten Transformation angegeben wurde. Dies ist auf den Encoder zurückzuführen, der versucht, die beste Miniaturansicht zwischen Startzeit und Schrittposition von der Startzeit als erste Ausgabe auszuwählen. Da der Standardwert 10 % beträgt, bedeutet dies, dass die erste generierte Miniaturansicht, wenn der Stream eine lange Dauer hat, möglicherweise weit von der zur Startzeit angegebenen Miniaturansicht entfernt ist. Versuchen Sie, einen angemessenen Wert für Schritt auszuwählen, wenn die erste Miniaturansicht nahe der Startzeit erwartet wird, oder legen Sie den Wert bereich auf 1 fest, wenn zur Startzeit nur eine Miniaturansicht erforderlich ist.

stretchMode

StretchMode

Der Größenänderungsmodus: Die Größe des Eingabevideos wird an die gewünschte Ausgabeauflösung(en) angepasst. Die Standardeinstellung ist AutoSize.

syncMode

VideoSyncMode

Videosynchronisierungsmodus

PngLayer

Beschreibt die Einstellungen zum Erstellen eines PNG-Bilds aus dem Eingabevideo.

Name Typ Beschreibung
height

string

Die Höhe des Ausgabevideos für diese Ebene. Der Wert kann absolut (in Pixel) oder relativ (in Prozent) sein. Beispielsweise bedeutet 50 %, dass das Ausgabevideo halb so viele Pixel in der Höhe hat wie die Eingabe.

label

string

Die alphanumerische Bezeichnung für diese Ebene, die zum Multiplexen verschiedener Video- und Audioebenen oder zum Benennen der Ausgabedatei verwendet werden kann.

width

string

Die Breite des Ausgabevideos für diese Ebene. Der Wert kann absolut (in Pixel) oder relativ (in Prozent) sein. Beispielsweise bedeutet 50 %, dass das Ausgabevideo halb so viele Pixel breit ist wie die Eingabe.

PresetConfigurations

Ein Objekt mit optionalen Konfigurationseinstellungen für den Encoder.

Name Typ Beschreibung
complexity

Complexity

Ermöglicht Ihnen das Konfigurieren der Encodereinstellungen, um das Gleichgewicht zwischen Geschwindigkeit und Qualität zu steuern. Beispiel: Legen Sie Komplexität auf Geschwindigkeit fest, um eine schnellere Codierung, aber eine geringere Komprimierungseffizienz zu erzielen.

interleaveOutput

InterleaveOutput

Legt den Interleave-Modus der Ausgabe fest, um zu steuern, wie Audio und Video im Containerformat gespeichert werden. Beispiel: Legen Sie InterleavedOutput auf NonInterleavedOutput fest, um audio- und videogeschützte Ausgaben in separaten MP4-Dateien zu erzeugen.

keyFrameIntervalInSeconds

number

Das Keyframeintervall in Sekunden. Beispiel: Legen Sie KeyFrameIntervalInSeconds auf 2 fest, um den Wiedergabepuffer für einige Spieler zu verringern.

maxBitrateBps

integer

Die maximale Bitrate in Bits pro Sekunde (Schwellenwert für die oberste Videoebene). Beispiel: Legen Sie MaxBitrateBps auf 6000000 fest, um die Ausgabe sehr hoher Bitrate für Inhalte mit hoher Komplexität zu vermeiden.

maxHeight

integer

Die maximale Höhe der Ausgabevideoebenen. Beispiel: Legen Sie MaxHeight auf 720 fest, um Ausgabeebenen bis zu 720P zu erzeugen, auch wenn die Eingabe 4K ist.

maxLayers

integer

Die maximale Anzahl von Ausgabevideoebenen. Beispiel: Legen Sie MaxLayers auf 4 fest, um sicherzustellen, dass maximal 4 Ausgabeebenen erstellt werden, um die Gesamtkosten des Codierungsauftrags zu steuern.

minBitrateBps

integer

Die minimale Bitrate in Bits pro Sekunde (Schwellenwert für die untere Videoebene). Beispiel: Legen Sie MinBitrateBps auf 200000 fest, um eine untere Ebene zu erhalten, die Benutzer mit geringer Netzwerkbandbreite abdeckt.

minHeight

integer

Die Mindesthöhe der Ausgabevideoebenen. Beispiel: Legen Sie MinHeight auf 360 fest, um Ausgabeebenen kleinerer Auflösungen wie 180P zu vermeiden.

Priority

Legt die relative Priorität der TransformationOutputs innerhalb einer Transformation fest. Dadurch wird die Priorität festgelegt, die der Dienst für die Verarbeitung von TransformOutputs verwendet. Die Standardpriorität ist Normal.

Name Typ Beschreibung
High

string

Wird für TransformOutputs verwendet, die Vorrang vor anderen haben sollten.

Low

string

Wird für TransformOutputs verwendet, die nach "Normal" und "TransformOutputs mit hoher Priorität" generiert werden können.

Normal

string

Wird für TransformOutputs verwendet, die mit normaler Priorität generiert werden können.

Rectangle

Beschreibt die Eigenschaften eines rechteckigen Fensters, das vor der Verarbeitung auf das Eingabemedium angewendet wird.

Name Typ Beschreibung
height

string

Die Höhe des rechteckigen Bereichs in Pixel. Dies kann ein absoluter Pixelwert (z. B. 100) oder relativ zur Größe des Videos (z. B. 50 %) sein.

left

string

Die Anzahl der Pixel vom linken Rand. Dies kann ein absoluter Pixelwert (z. B. 100) oder relativ zur Größe des Videos (z. B. 50 %) sein.

top

string

Die Anzahl der Pixel vom oberen Rand. Dies kann ein absoluter Pixelwert (z. B. 100) oder relativ zur Größe des Videos (z. B. 50 %) sein.

width

string

Die Breite des rechteckigen Bereichs in Pixel. Dies kann ein absoluter Pixelwert (z. B. 100) oder relativ zur Größe des Videos (z. B. 50 %) sein.

Rotation

Die Drehung, falls vorhanden, die auf das Eingabevideo angewendet werden soll, bevor es codiert wird. Der Standardwert ist Auto.

Name Typ Beschreibung
Auto

string

Automatische Erkennung und Drehung nach Bedarf.

None

string

Drehen Sie das Video nicht. Wenn das Ausgabeformat dies unterstützt, bleiben alle Metadaten zur Rotation intakt.

Rotate0

string

Drehen Sie das Video nicht, sondern entfernen Sie alle Metadaten zur Drehung.

Rotate180

string

Drehen Sie sich um 180 Grad im Uhrzeigersinn.

Rotate270

string

Drehen Sie sich um 270 Grad im Uhrzeigersinn.

Rotate90

string

Drehen Sie sich um 90 Grad im Uhrzeigersinn.

SelectAudioTrackByAttribute

Wählen Sie audiospuren aus der Eingabe aus, indem Sie ein Attribut und einen Attributfilter angeben.

Name Typ Beschreibung
@odata.type string:

#Microsoft.Media.SelectAudioTrackByAttribute

Der Diskriminator für abgeleitete Typen.

attribute

TrackAttribute

Das TrackAttribute, nach dem die Spuren gefiltert werden sollen.

channelMapping

ChannelMapping

Optionale Bezeichnung für Einkanal-Audiospuren. Kann verwendet werden, um die Tracks in Stereo- oder Mehrkanal-Audiospuren zu kombinieren.

filter

AttributeFilter

Der Typ von AttributeFilter, der auf das TrackAttribute angewendet werden soll, um die Spuren auszuwählen.

filterValue

string

Der Wert, nach dem die Spuren gefiltert werden sollen. Wird nur verwendet, wenn AttributeFilter.ValueEquals für die Filter-Eigenschaft angegeben ist.

SelectAudioTrackById

Wählen Sie audiospuren aus der Eingabe aus, indem Sie einen Titelbezeichner angeben.

Name Typ Beschreibung
@odata.type string:

#Microsoft.Media.SelectAudioTrackById

Der Diskriminator für abgeleitete Typen.

channelMapping

ChannelMapping

Optionale Bezeichnung für Einkanal-Audiospuren. Kann verwendet werden, um die Tracks in Stereo- oder Mehrkanal-Audiospuren zu kombinieren.

trackId

integer

Zu wählende Bezeichner nachverfolgen

SelectVideoTrackByAttribute

Wählen Sie Videospuren aus der Eingabe aus, indem Sie ein Attribut und einen Attributfilter angeben.

Name Typ Beschreibung
@odata.type string:

#Microsoft.Media.SelectVideoTrackByAttribute

Der Diskriminator für abgeleitete Typen.

attribute

TrackAttribute

Das TrackAttribute, nach dem die Spuren gefiltert werden sollen.

filter

AttributeFilter

Der Typ von AttributeFilter, der auf das TrackAttribute angewendet werden soll, um die Spuren auszuwählen.

filterValue

string

Der Wert, nach dem die Spuren gefiltert werden sollen. Wird nur verwendet, wenn AttributeFilter.ValueEquals für die Filter-Eigenschaft angegeben ist. Für TrackAttribute.Bitrate sollte dies ein ganzzahliger Wert in Bits pro Sekunde sein (z. B. "1500000"). TrackAttribute.Language wird für Videospuren nicht unterstützt.

SelectVideoTrackById

Wählen Sie Videospuren aus der Eingabe aus, indem Sie einen Trackbezeichner angeben.

Name Typ Beschreibung
@odata.type string:

#Microsoft.Media.SelectVideoTrackById

Der Diskriminator für abgeleitete Typen.

trackId

integer

Zu wählende Bezeichner nachverfolgen

StandardEncoderPreset

Beschreibt alle Einstellungen, die beim Codieren des Eingabevideos mit dem Standardencoder verwendet werden sollen.

Name Typ Beschreibung
@odata.type string:

#Microsoft.Media.StandardEncoderPreset

Der Diskriminator für abgeleitete Typen.

codecs Codec[]:

Die Liste der Codecs, die beim Codieren des Eingabevideos verwendet werden sollen.

experimentalOptions

object

Wörterbuch, das Schlüsselwertpaare für Parameter enthält, die in der Voreinstellung selbst nicht verfügbar gemacht werden

filters

Filters

Mindestens ein Filtervorgänge, die vor der Codierung auf die Eingabemedien angewendet werden.

formats Format[]:

Die Liste der Ausgaben, die vom Encoder erzeugt werden sollen.

StretchMode

Der Größenänderungsmodus: Die Größe des Eingabevideos wird an die gewünschte Ausgabeauflösung(en) angepasst. Die Standardeinstellung ist AutoSize.

Name Typ Beschreibung
AutoFit

string

Binden Sie die Ausgabe (entweder mit Briefkasten oder Säulenfeld) ein, um die Ausgabeauflösung zu berücksichtigen, und stellen Sie sicher, dass der aktive Videobereich in der Ausgabe das gleiche Seitenverhältnis wie die Eingabe aufweist. Wenn die Eingabe beispielsweise 1920x1080 ist und die Codierungsvoreinstellung nach 1280 x 1280 fragt, liegt die Ausgabe bei 1280 x 1280, die ein inneres Rechteck von 1280x720 im Seitenverhältnis von 16:9 und Säulenfeldbereiche mit einer Breite von 280 Pixeln links und rechts enthält.

AutoSize

string

Überschreiben Sie die Ausgabeauflösung, und ändern Sie sie so, dass sie dem Anzeigeseitenverhältnis der Eingabe ohne Auffüllung entspricht. Wenn die Auflösung der Eingabe beispielsweise 1920 × 1080 ist und die Codierungsvoreinstellung 1280 × 1280 fordert, wird der Wert in der Voreinstellung außer Kraft gesetzt, und die Ausgabe erfolgt in 1280 × 720, sodass das Eingabeseitenverhältnis von 16 : 9 beibehalten wird.

None

string

Achten Sie streng auf die Ausgabeauflösung, ohne das Pixelseitenverhältnis oder das Anzeigeseitenverhältnis des Eingabevideos zu berücksichtigen.

systemData

Metadaten, die sich auf die Erstellung und letzte Änderung der Ressource beziehen.

Name Typ Beschreibung
createdAt

string

Der Zeitstempel der Ressourcenerstellung (UTC).

createdBy

string

Die Identität, die die Ressource erstellt hat.

createdByType

createdByType

Der Identitätstyp, der die Ressource erstellt hat.

lastModifiedAt

string

Der Zeitstempel der letzten Änderung der Ressource (UTC)

lastModifiedBy

string

Die Identität, die die Ressource zuletzt geändert hat.

lastModifiedByType

createdByType

Der Identitätstyp, der die Ressource zuletzt geändert hat.

TrackAttribute

Das TrackAttribute, nach dem die Spuren gefiltert werden sollen.

Name Typ Beschreibung
Bitrate

string

Die Bitrate des Titels.

Language

string

Die Sprache des Titels.

TransportStreamFormat

Beschreibt die Eigenschaften zum Generieren einer MPEG-2 Transport Stream(ISO/IEC 13818-1)-Ausgabevideodatei(en).

Name Typ Beschreibung
@odata.type string:

#Microsoft.Media.TransportStreamFormat

Der Diskriminator für abgeleitete Typen.

filenamePattern

string

Das Dateibenennungsmuster, das für die Erstellung von Ausgabedateien verwendet wird. Die folgenden Makros werden im Dateinamen unterstützt: {Basename} – Ein Erweiterungsmakro, das den Namen der Eingabevideodatei verwendet. Wenn der Basisname (das Dateisuffix ist nicht enthalten) der Eingabevideodatei weniger als 32 Zeichen lang ist, wird der Basisname der Eingabevideodateien verwendet. Wenn die Länge des Basisnamens der Eingabevideodatei 32 Zeichen überschreitet, wird der Basisname auf die ersten 32 Zeichen der Gesamtlänge abgeschnitten. {Extension} – Die entsprechende Erweiterung für dieses Format. {Label} – Die Bezeichnung, die dem Codec/der Ebene zugewiesen ist. {Index} – Ein eindeutiger Index für Miniaturansichten. Gilt nur für Miniaturansichten. {AudioStream} - Zeichenfolge "Audio" plus Audiostreamnummer (Start von 1). {Bitrate} – Die Audio-/Video-Bitrate in KBit/s. Gilt nicht für Miniaturansichten. {Codec} – Der Typ des Audio-/Videocodecs. {Resolution} – Die Videoauflösung. Alle nichtubstituierten Makros werden reduziert und aus dem Dateinamen entfernt.

outputFiles

OutputFile[]

Die Liste der zu erstellenden Ausgabedateien. Jeder Eintrag in der Liste ist ein Satz von Beschriftungen der Audio- und Videoebene, die zusammen muxiert werden sollen.

UtcClipTime

Gibt die Clipzeit als Utc-Zeitposition in der Mediendatei an. Die Utc-Zeit kann auf eine andere Position verweisen, je nachdem, ob die Mediendatei mit einem Zeitstempel von null beginnt oder nicht.

Name Typ Beschreibung
@odata.type string:

#Microsoft.Media.UtcClipTime

Der Diskriminator für abgeleitete Typen.

time

string

Die Zeitposition auf der Zeitleiste des Eingabemediums basierend auf utc-Zeit.

Video

Beschreibt die grundlegenden Eigenschaften für die Codierung des Eingabevideos.

Name Typ Beschreibung
@odata.type string:

#Microsoft.Media.Video

Der Diskriminator für abgeleitete Typen.

keyFrameInterval

string

Der Abstand zwischen zwei Keyframes. Der Wert sollte ungleich Null im Bereich [0,5, 20] Sekunden sein, der im ISO 8601-Format angegeben ist. Der Standardwert ist 2 Sekunden (PT2S). Beachten Sie, dass diese Einstellung ignoriert wird, wenn VideoSyncMode.Passthrough festgelegt ist, wobei der KeyFrameInterval-Wert der Einstellung für die Eingabequelle folgt.

label

string

Eine optionale Bezeichnung für den Codec. Die Bezeichnung kann verwendet werden, um das Muxingverhalten zu steuern.

stretchMode

StretchMode

Der Größenänderungsmodus: Gibt an, wie die Größe des Eingabevideos an die gewünschte Ausgabeauflösung angepasst wird. Der Standardwert ist AutoSize.

syncMode

VideoSyncMode

Videosynchronisierungsmodus

VideoAnalyzerPreset

Eine Videoanalysevoreinstellung, die Erkenntnisse (umfangreiche Metadaten) aus Audio und Video extrahiert und eine JSON-Formatdatei ausgibt.

Name Typ Beschreibung
@odata.type string:

#Microsoft.Media.VideoAnalyzerPreset

Der Diskriminator für abgeleitete Typen.

audioLanguage

string

Die Sprache für die Audionutzlast in der Eingabe, die das BCP-47-Format "language tag-region" (z. B. "en-US") verwendet. Wenn Sie die Sprache Ihrer Inhalte kennen, empfiehlt es sich, sie anzugeben. Die Sprache muss explizit für AudioAnalysisMode::Basic angegeben werden, da die automatische Spracherkennung nicht im Standardmodus enthalten ist. Wenn die Sprache nicht angegeben oder auf NULL festgelegt ist, wählt die automatische Spracherkennung die erste erkannte Sprache aus und führt die Verarbeitung für die ausgewählte Sprache für die Länge der Datei durch. Sie unterstützt derzeit keine dynamische Umschaltung zwischen Sprachen, nachdem die erste Sprache erkannt wurde. Die automatische Erkennung funktioniert am besten bei Audioaufzeichnungen mit deutlich erkennbarer Sprache. Wenn die Sprache bei der automatischen Erkennung nicht gefunden werden kann, würde die Transkription auf "en-US" zurückfallen." Die Liste der unterstützten Sprachen finden Sie hier: https://go.microsoft.com/fwlink/?linkid=2109463

experimentalOptions

object

Wörterbuch, das Schlüsselwertpaare für Parameter enthält, die in der Voreinstellung selbst nicht verfügbar gemacht werden

insightsToExtract

InsightsType

Definiert den Typ von Erkenntnissen, die der Dienst generieren soll. Die zulässigen Werte sind "AudioInsightsOnly", "VideoInsightsOnly" und "AllInsights". Der Standardwert ist AllInsights. Wenn Sie dies auf AllInsights festlegen und die Eingabe nur Audio ist, werden nur Audioeinblicke generiert. Ähnlich, wenn es sich bei der Eingabe nur um Video handelt, werden nur Videoeinblicke generiert. Es wird empfohlen, AudioInsightsOnly nicht zu verwenden, wenn Sie erwarten, dass einige Ihrer Eingaben nur Video sind. oder verwenden Sie VideoInsightsOnly, wenn Sie erwarten, dass einige Ihrer Eingaben nur Audio sind. Ihre Aufträge unter solchen Bedingungen würden fehleraus.

mode

AudioAnalysisMode

Bestimmt den Satz der auszuführenden Audioanalysevorgänge. Wenn nicht angegeben, wird der Standard AudioAnalysisMode ausgewählt.

VideoOverlay

Beschreibt die Eigenschaften einer Videoüberlagerung.

Name Typ Beschreibung
@odata.type string:

#Microsoft.Media.VideoOverlay

Der Diskriminator für abgeleitete Typen.

audioGainLevel

number

Der Verstärkungsgrad des Audios in der Überlagerung. Der Wert sollte im Bereich [0, 1,0] liegen. Der Standardwert ist 1.0.

cropRectangle

Rectangle

Ein optionales rechteckiges Fenster, das zum Zuschneiden des Überlagerungsbilds oder Videos verwendet wird.

end

string

Die Endposition mit Verweis auf das Eingabevideo, an dem das Overlay endet. Der Wert sollte im ISO 8601-Format vorliegen. Beispiel: PT30S, um die Überlagerung bei 30 Sekunden im Eingabevideo zu beenden. Wenn nicht angegeben oder der Wert größer als die Dauer des Eingabevideos ist, wird die Überlagerung bis zum Ende des Eingabevideos angewendet, wenn die Dauer der Überlagerungsmedien größer als die Dauer des Eingabevideos ist, andernfalls dauert die Überlagerung so lange wie die Überlagerungsmediendauer.

fadeInDuration

string

Die Dauer, über die das Overlay auf dem Eingabevideo verblasst. Der Wert sollte im ISO 8601-Dauerformat vorliegen. Wenn nicht angegeben, besteht das Standardverhalten darin, kein Einblenden zu haben (identisch mit PT0S).

fadeOutDuration

string

Die Dauer, in der die Überlagerung aus dem Eingabevideo verblasst. Der Wert sollte im ISO 8601-Dauerformat vorliegen. Wenn nicht angegeben, besteht das Standardverhalten darin, kein Ausblenden zu haben (identisch mit PT0S).

inputLabel

string

Die Bezeichnung der Auftragseingabe, die als Überlagerung verwendet werden soll. Die Eingabe muss genau eine Datei angeben. Sie können eine Bilddatei im JPG-, PNG-, GIF- oder BMP-Format oder eine Audiodatei (z. B. eine WAV-, MP3-, WMA- oder M4A-Datei) oder eine Videodatei angeben. Eine vollständige Liste der unterstützten Audio- und Videodateiformate finden Sie https://aka.ms/mesformats unter.

opacity

number

Die Deckkraft der Überlagerung. Dies ist ein Wert im Bereich [0 - 1,0]. Der Standardwert ist 1.0, was bedeutet, dass die Überlagerung undurchsichtig ist.

position

Rectangle

Die Position im Eingabevideo, an der das Overlay angewendet wird.

start

string

Die Startposition mit Verweis auf das Eingabevideo, an dem das Overlay beginnt. Der Wert sollte im ISO 8601-Format vorliegen. Beispiel: PT05S, um das Overlay bei 5 Sekunden im Eingabevideo zu starten. Wenn nicht angegeben, beginnt die Überlagerung am Anfang des Eingabevideos.

VideoSyncMode

Videosynchronisierungsmodus

Name Typ Beschreibung
Auto

string

Dies ist die Standardmethode. Wählt je nach Muxer-Funktionen zwischen Cfr und Vfr aus. Für das Ausgabeformat MP4 ist der Standardmodus Cfr.

Cfr

string

Eingabeframes werden bei Bedarf wiederholt und/oder gelöscht, um genau die angeforderte konstante Bildrate zu erreichen. Empfohlen, wenn die Ausgabebildrate explizit auf einen angegebenen Wert festgelegt wird

Passthrough

string

Die Präsentationszeitstempel für Frames werden von der Eingabedatei an den Ausgabedateischreiber übergeben. Empfohlen, wenn die Eingabequelle über eine variable Framerate verfügt und versucht, mehrere Ebenen für adaptives Streaming in der Ausgabe mit abgestimmten GOP-Grenzen zu erzeugen. Hinweis: Wenn mindestens zwei Frames in der Eingabe doppelte Zeitstempel aufweisen, weist auch die Ausgabe das gleiche Verhalten auf.

Vfr

string

Ähnlich wie der Passthrough-Modus, aber wenn die Eingabe Über Frames mit doppelten Zeitstempeln verfügt, wird nur ein Frame an die Ausgabe übergeben, und andere werden gelöscht. Empfohlen, wenn die Anzahl der Ausgabeframes der Anzahl der Eingabeframes entspricht. Die Ausgabe wird beispielsweise verwendet, um eine Qualitätsmetrik wie PSNR für die Eingabe zu berechnen.

VideoTrackDescriptor

Eine TrackSelection zum Auswählen von Videospuren.

Name Typ Beschreibung
@odata.type string:

#Microsoft.Media.VideoTrackDescriptor

Der Diskriminator für abgeleitete Typen.