Transforms - Update
Transformation aktualisieren
Updates eine Transformation.
PATCH https://management.azure.com/subscriptions/{subscriptionId}/resourceGroups/{resourceGroupName}/providers/Microsoft.Media/mediaServices/{accountName}/transforms/{transformName}?api-version=2022-07-01
URI-Parameter
Name | In | Erforderlich | Typ | Beschreibung |
---|---|---|---|---|
account
|
path | True |
string |
Der Name des Media Services-Kontos. |
resource
|
path | True |
string |
Der Name der Ressourcengruppe innerhalb des Azure-Abonnements. |
subscription
|
path | True |
string |
Der eindeutige Bezeichner für ein Microsoft Azure-Abonnement. |
transform
|
path | True |
string |
Der Transformationsname. |
api-version
|
query | True |
string |
Die Version der API, die mit der Clientanforderung verwendet werden soll. |
Anforderungstext
Name | Erforderlich | Typ | Beschreibung |
---|---|---|---|
properties.outputs | True |
Ein Array von mindestens einem TransformOutput-Objekt, das die Transformation generieren soll. |
|
properties.description |
string |
Eine ausführliche Beschreibung der Transformation. |
Antworten
Name | Typ | Beschreibung |
---|---|---|
200 OK |
OK |
|
Other Status Codes |
Detaillierte Fehlerinformationen. |
Beispiele
Update a Transform.
Beispielanforderung
PATCH https://management.azure.com/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/contosoresources/providers/Microsoft.Media/mediaServices/contosomedia/transforms/transformToUpdate?api-version=2022-07-01
{
"properties": {
"description": "Example transform to illustrate update.",
"outputs": [
{
"relativePriority": "High",
"preset": {
"@odata.type": "#Microsoft.Media.BuiltInStandardEncoderPreset",
"presetName": "H264MultipleBitrate720p"
}
}
]
}
}
Beispiel für eine Antwort
{
"name": "transformToUpdate",
"id": "/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/contosoresources/providers/Microsoft.Media/mediaservices/contosomedia/transforms/transformToUpdate",
"type": "Microsoft.Media/mediaservices/transforms",
"properties": {
"created": "2022-10-17T23:14:32.1435128Z",
"description": "Example transform to illustrate update.",
"lastModified": "2022-10-17T23:14:32.1455494Z",
"outputs": [
{
"onError": "StopProcessingJob",
"relativePriority": "High",
"preset": {
"@odata.type": "#Microsoft.Media.BuiltInStandardEncoderPreset",
"presetName": "H264MultipleBitrate720p"
}
}
]
},
"systemData": {
"createdBy": "contoso@microsoft.com",
"createdByType": "User",
"createdAt": "2022-10-17T23:14:32.1435128Z",
"lastModifiedBy": "contoso@microsoft.com",
"lastModifiedByType": "User",
"lastModifiedAt": "2022-10-17T23:14:32.1455494Z"
}
}
Definitionen
Name | Beschreibung |
---|---|
Aac |
Beschreibt AAC-Audiocodierungseinstellungen (Advanced Audio Codec). |
Aac |
Das Codierungsprofil, das beim Codieren von Audio mit AAC verwendet werden soll. |
Analysis |
Gibt die maximale Auflösung an, mit der Ihr Video analysiert wird. Das Standardverhalten ist "SourceResolution". Dadurch bleibt das Eingabevideo bei der Analyse in der ursprünglichen Auflösung. Mithilfe von "StandardDefinition" wird die Größe von Eingabevideos in die Standarddefinition geändert, wobei das entsprechende Seitenverhältnis beibehalten wird. Die Größe wird nur geändert, wenn das Video eine höhere Auflösung aufweist. Beispielsweise würde eine Eingabe von 1920 x 1080 vor der Verarbeitung auf 640 x 360 skaliert werden. Der Wechsel zu "StandardDefinition" reduziert die Zeit, die für die Verarbeitung hochauflösender Videos benötigt wird. Es kann auch die Kosten für die Verwendung dieser Komponente reduzieren (weitere Informationen finden Sie unter https://azure.microsoft.com/en-us/pricing/details/media-services/#analytics ). Gesichter, die im geänderten Video zu klein sind, werden jedoch möglicherweise nicht erkannt. |
Audio |
Definiert die allgemeinen Eigenschaften für alle Audiocodecs. |
Audio |
Bestimmt den Satz der auszuführenden Audioanalysevorgänge. Wenn nicht angegeben, wird der Standard AudioAnalysisMode ausgewählt. |
Audio |
Die Audio Analyzer-Voreinstellung wendet einen vordefinierten Satz von KI-basierten Analysevorgängen an, einschließlich der Sprachtranskription. Die Voreinstellung unterstützt derzeit die Verarbeitung von Inhalten mit einer einzelnen Audiospur. |
Audio |
Beschreibt die Eigenschaften einer Audioüberlagerung. |
Blur |
Weichzeichnertyp |
Built |
Beschreibt eine integrierte Voreinstellung zum Codieren des Eingabevideos mit dem Standardencoder. |
Complexity |
Ermöglicht Ihnen das Konfigurieren der Encodereinstellungen, um das Gleichgewicht zwischen Geschwindigkeit und Qualität zu steuern. Beispiel: Legen Sie Komplexität auf Geschwindigkeit fest, um eine schnellere Codierung, aber eine geringere Komprimierungseffizienz zu erzielen. |
Copy |
Ein Codecflag, das den Encoder angibt, den Eingabeaudiobitstream zu kopieren. |
Copy |
Ein Codecflag, das den Encoder angibt, den Bitstream des Eingabevideos ohne erneute Codierung zu kopieren. |
created |
Der Identitätstyp, der die Ressource erstellt hat. |
DDAudio |
Beschreibt die Audiocodierungseinstellungen des Dolby Digital Audio Codec (AC3). Die aktuelle Implementierung für Dolby Digital Audio-Unterstützung sind: Audiokanalnummern bei 1((mono), 2(stereo), 6(5.1side); Audio-Samplingfrequenzraten bei: 32K/44,1K/48K Hz; Audiobitratewerte als AC3-Spezifikation unterstützt: 32000, 40000, 48000, 56000, 64000, 80000, 96000, 112000, 128000, 160000, 192000, 224000, 256000, 320000, 384000, 448000, 512000, 576000, 640000 bps. |
Deinterlace |
Beschreibt die De-Interlacing-Einstellungen. |
Deinterlace |
Der Deinterlacing-Modus. Standardmäßig wird AutoPixelAdaptive verwendet. |
Deinterlace |
Die Feldparität für die Entflechtung wird standardmäßig auf Auto festgelegt. |
Encoder |
Die integrierte Voreinstellung, die zum Codieren von Videos verwendet werden soll. |
Entropy |
Der Entropiemodus, der für diese Ebene verwendet werden soll. Wenn nicht angegeben, wählt der Encoder den Modus aus, der für das Profil und die Ebene geeignet ist. |
Error |
Zusätzliche Informationen zum Ressourcenverwaltungsfehler. |
Error |
Die Fehlerdetails. |
Error |
Fehlerantwort |
Face |
Beschreibt alle Einstellungen, die bei der Analyse eines Videos verwendet werden sollen, um alle vorhandenen Gesichter zu erkennen (und optional zu rotieren). |
Face |
Dieser Modus bietet die Möglichkeit, zwischen den folgenden Einstellungen zu wählen: 1) Analysieren – nur für die Erkennung. Dieser Modus generiert eine JSON-Metadatendatei, die die Darstellungen von Gesichtern im gesamten Video kennzeichnet. Wenn möglich, wird dem Erscheinungsbild derselben Person die gleiche ID zugewiesen. 2) Kombiniert – Zusätzlich wurden Gesichter gerötet(Unschärfen) erkannt. 3) Redact : Dies ermöglicht einen 2-Pass-Prozess, der eine selektive Redaction einer Teilmenge der erkannten Gesichter ermöglicht. Es übernimmt die Metadatendatei aus einem vorherigen Analysedurchlauf, zusammen mit dem Quellvideo und einer vom Benutzer ausgewählten Teilmenge von IDs, die Redaction erfordern. |
Fade |
Beschreibt die Eigenschaften eines Einblenden-Effekts, der auf das Eingabemedium angewendet wird. |
Filters |
Beschreibt alle Filtervorgänge, z. B. De-Interlacing, Rotation usw., die vor der Codierung auf die Eingabemedien angewendet werden sollen. |
H264Complexity |
Teilt dem Encoder mit, wie seine Codierungseinstellungen ausgewählt werden sollen. Der Standardwert ist Balanced. |
H264Layer |
Beschreibt die Einstellungen, die beim Codieren des Eingabevideos in eine gewünschte Ausgabebitrateebene mit dem H.264-Videocodec verwendet werden sollen. |
H264Rate |
Der Modus zur Steuerung der Videorate |
H264Video |
Beschreibt alle Eigenschaften zum Codieren eines Videos mit dem H.264-Codec. |
H264Video |
Derzeit unterstützen wir Baseline, Main, High, High422, High444. Der Standardwert ist Auto. |
H265Complexity |
Teilt dem Encoder mit, wie seine Codierungseinstellungen ausgewählt werden sollen. Qualität sorgt für ein höheres Komprimierungsverhältnis, aber zu höheren Kosten und längerer Computezeit. Die Geschwindigkeit erzeugt eine relativ größere Datei, ist aber schneller und wirtschaftlicher. Der Standardwert ist Balanced. |
H265Layer |
Beschreibt die Einstellungen, die beim Codieren des Eingabevideos in eine gewünschte Ausgabebitrateebene mit dem H.265-Videocodec verwendet werden sollen. |
H265Video |
Beschreibt alle Eigenschaften zum Codieren eines Videos mit dem H.265-Codec. |
H265Video |
Derzeit unterstützen wir Main. Der Standardwert ist Auto. |
Image |
Beschreibt die grundlegenden Eigenschaften zum Generieren von Miniaturansichten aus dem Eingabevideo. |
Image |
Beschreibt die Eigenschaften für eine Ausgabebilddatei. |
Insights |
Definiert den Typ von Erkenntnissen, die der Dienst generieren soll. Die zulässigen Werte sind "AudioInsightsOnly", "VideoInsightsOnly" und "AllInsights". Der Standardwert ist AllInsights. Wenn Sie dies auf AllInsights festlegen und die Eingabe nur Audio ist, werden nur Audioerkenntnisse generiert. Wenn es sich bei der Eingabe nur um Video handelt, werden auch nur Videoeinblicke generiert. Es wird empfohlen, AudioInsightsOnly nicht zu verwenden, wenn Sie erwarten, dass einige Ihrer Eingaben nur Video sind. oder verwenden Sie VideoInsightsOnly, wenn Sie erwarten, dass einige Ihrer Eingaben nur Audio sind. Ihre Aufträge unter solchen Bedingungen würden einen Fehler verursachen. |
Interleave |
Legt den Interleave-Modus der Ausgabe fest, um zu steuern, wie Audio und Video im Containerformat gespeichert werden. Beispiel: Legen Sie InterleavedOutput auf NonInterleavedOutput fest, um nur Audio- und Videoausgaben in separaten MP4-Dateien zu erzeugen. |
Jpg |
Beschreibt die Einstellungen zum Erstellen von JPEG-Miniaturansichten. |
Jpg |
Beschreibt die Eigenschaften zum Erstellen einer Reihe von JPEG-Bildern aus dem Eingabevideo. |
Jpg |
Beschreibt die Einstellungen zum Erstellen eines JPEG-Bilds aus dem Eingabevideo. |
Mp4Format |
Beschreibt die Eigenschaften für eine AUSGABE-ISO-MP4-Datei. |
Multi |
Beschreibt die Eigenschaften zum Erstellen einer Auflistung von GOP-ausgerichteten Dateien mit mehreren Bitraten. Das Standardverhalten besteht darin, eine Ausgabedatei für jede Videoebene zu erstellen, die zusammen mit allen Audios muxiert wird. Die genau erstellten Ausgabedateien können durch Angabe der outputFiles-Auflistung gesteuert werden. |
On |
Eine Transformation kann mehrere Ausgaben definieren. Diese Eigenschaft definiert, was der Dienst tun soll, wenn eine Ausgabe fehlschlägt– entweder weiterhin andere Ausgaben zu erzeugen oder die anderen Ausgaben zu beenden. Der allgemeine Auftragszustand spiegelt keine Fehler von Ausgaben wider, die mit "ContinueJob" angegeben sind. Der Standardwert ist "StopProcessingJob". |
Output |
Stellt eine generierte Ausgabedatei dar. |
Png |
Beschreibt die Einstellungen zum Erstellen von PNG-Miniaturansichten. |
Png |
Beschreibt die Eigenschaften zum Erstellen einer Reihe von PNG-Bildern aus dem Eingabevideo. |
Png |
Beschreibt die Einstellungen zum Erstellen eines PNG-Bilds aus dem Eingabevideo. |
Preset |
Ein Objekt mit optionalen Konfigurationseinstellungen für den Encoder. |
Priority |
Legt die relative Priorität der TransformOutputs innerhalb einer Transformation fest. Dadurch wird die Priorität festgelegt, die der Dienst für die Verarbeitung von TransformOutputs verwendet. Die Standardpriorität ist Normal. |
Rectangle |
Beschreibt die Eigenschaften eines rechteckigen Fensters, das vor der Verarbeitung auf das Eingabemedium angewendet wird. |
Rotation |
Die Drehung, falls vorhanden, die auf das Eingabevideo angewendet werden soll, bevor es codiert wird. Der Standardwert ist Auto. |
Standard |
Beschreibt alle Einstellungen, die beim Codieren des Eingabevideos mit dem Standardencoder verwendet werden sollen. |
Stretch |
Der Größenänderungsmodus: Die Größe des Eingabevideos wird an die gewünschte Ausgabeauflösung(en) angepasst. Die Standardeinstellung ist AutoSize. |
system |
Metadaten, die sich auf die Erstellung und letzte Änderung der Ressource beziehen. |
Transform |
Eine Transformation kapselt die Regeln oder Anweisungen zum Generieren gewünschter Ausgaben aus Eingabemedien, z. B. durch Transcodierung oder durch Extrahieren von Erkenntnissen. Nachdem die Transformation erstellt wurde, kann sie auf Eingabemedien angewendet werden, indem Aufträge erstellt werden. |
Transform |
Beschreibt die Eigenschaften eines TransformOutput, bei denen es sich um die Regeln handelt, die beim Generieren der gewünschten Ausgabe angewendet werden sollen. |
Transport |
Beschreibt die Eigenschaften zum Generieren einer MPEG-2-Transportstream-Ausgabedatei (ISO/IEC 13818-1). |
Video |
Beschreibt die grundlegenden Eigenschaften für die Codierung des Eingabevideos. |
Video |
Eine Videoanalysevoreinstellung, die Erkenntnisse (umfangreiche Metadaten) aus Audio und Video extrahiert und eine JSON-Formatdatei ausgibt. |
Video |
Beschreibt die Eigenschaften einer Videoüberlagerung. |
Video |
Videosynchronisierungsmodus |
AacAudio
Beschreibt AAC-Audiocodierungseinstellungen (Advanced Audio Codec).
Name | Typ | Beschreibung |
---|---|---|
@odata.type |
string:
#Microsoft. |
Der Diskriminator für abgeleitete Typen. |
bitrate |
integer |
Die Bitrate des ausgabecodierten Audios in Bits pro Sekunde. |
channels |
integer |
Die Anzahl der Kanäle im Audio. |
label |
string |
Eine optionale Bezeichnung für den Codec. Die Bezeichnung kann verwendet werden, um das Muxingverhalten zu steuern. |
profile |
Das Codierungsprofil, das beim Codieren von Audio mit AAC verwendet werden soll. |
|
samplingRate |
integer |
Die Samplingrate, die für die Codierung in Hertz verwendet werden soll. |
AacAudioProfile
Das Codierungsprofil, das beim Codieren von Audio mit AAC verwendet werden soll.
Name | Typ | Beschreibung |
---|---|---|
AacLc |
string |
Gibt an, dass die Ausgabeaudio in AAC Low Complexity Profile (AAC-LC) codiert werden soll. |
HeAacV1 |
string |
Gibt an, dass die Ausgabeaudio in das HE-AAC v1-Profil codiert werden soll. |
HeAacV2 |
string |
Gibt an, dass die Ausgabeaudio in das HE-AAC v2-Profil codiert werden soll. |
AnalysisResolution
Gibt die maximale Auflösung an, mit der Ihr Video analysiert wird. Das Standardverhalten ist "SourceResolution". Dadurch bleibt das Eingabevideo bei der Analyse in der ursprünglichen Auflösung. Mithilfe von "StandardDefinition" wird die Größe von Eingabevideos in die Standarddefinition geändert, wobei das entsprechende Seitenverhältnis beibehalten wird. Die Größe wird nur geändert, wenn das Video eine höhere Auflösung aufweist. Beispielsweise würde eine Eingabe von 1920 x 1080 vor der Verarbeitung auf 640 x 360 skaliert werden. Der Wechsel zu "StandardDefinition" reduziert die Zeit, die für die Verarbeitung hochauflösender Videos benötigt wird. Es kann auch die Kosten für die Verwendung dieser Komponente reduzieren (weitere Informationen finden Sie unter https://azure.microsoft.com/en-us/pricing/details/media-services/#analytics ). Gesichter, die im geänderten Video zu klein sind, werden jedoch möglicherweise nicht erkannt.
Name | Typ | Beschreibung |
---|---|---|
SourceResolution |
string |
|
StandardDefinition |
string |
Audio
Definiert die allgemeinen Eigenschaften für alle Audiocodecs.
Name | Typ | Beschreibung |
---|---|---|
@odata.type |
string:
#Microsoft. |
Der Diskriminator für abgeleitete Typen. |
bitrate |
integer |
Die Bitrate des ausgabecodierten Audios in Bits pro Sekunde. |
channels |
integer |
Die Anzahl der Kanäle im Audio. |
label |
string |
Eine optionale Bezeichnung für den Codec. Die Bezeichnung kann verwendet werden, um das Muxingverhalten zu steuern. |
samplingRate |
integer |
Die Samplingrate, die für die Codierung in Hertz verwendet werden soll. |
AudioAnalysisMode
Bestimmt den Satz der auszuführenden Audioanalysevorgänge. Wenn nicht angegeben, wird der Standard AudioAnalysisMode ausgewählt.
Name | Typ | Beschreibung |
---|---|---|
Basic |
string |
In diesem Modus werden Transkriptionen von gesprochenen Texten erstellt und VTT-Dateien mit Untertiteln und Beschriftungstexten generiert. Die Ausgabe in diesem Modus beinhaltet eine Insights JSON-Datei, die nur die Stichwörter, die Transkription und Zeitinformationen enthält. Eine automatische Spracherkennung und Sprecherdiarisierung sind nicht Bestandteil dieses Modus. |
Standard |
string |
Führt alle Vorgänge aus, die im Basic-Modus enthalten sind, und führt zusätzlich spracherkennung und Sprecherdurchdung durch. |
AudioAnalyzerPreset
Die Audio Analyzer-Voreinstellung wendet einen vordefinierten Satz von KI-basierten Analysevorgängen an, einschließlich der Sprachtranskription. Die Voreinstellung unterstützt derzeit die Verarbeitung von Inhalten mit einer einzelnen Audiospur.
Name | Typ | Beschreibung |
---|---|---|
@odata.type |
string:
#Microsoft. |
Der Diskriminator für abgeleitete Typen. |
audioLanguage |
string |
Die Sprache für die Audionutzlast in der Eingabe im BCP-47-Format von "language tag-region" (z. B. "en-US"). Wenn Sie die Sprache Ihrer Inhalte kennen, empfiehlt es sich, sie anzugeben. Die Sprache muss für AudioAnalysisMode::Basic explizit angegeben werden, da die automatische Spracherkennung nicht im Einfachen Modus enthalten ist. Wenn die Sprache nicht angegeben oder auf NULL festgelegt ist, wählt die automatische Spracherkennung die erste erkannte Sprache aus und führt die Verarbeitung für die ausgewählte Sprache für die Länge der Datei durch. Sie unterstützt derzeit keine dynamische Umschaltung zwischen Sprachen, nachdem die erste Sprache erkannt wurde. Die automatische Erkennung funktioniert am besten mit Audioaufzeichnungen mit deutlich erkennbarer Sprache. Wenn die Sprache bei der automatischen Erkennung nicht gefunden werden kann, würde die Transkription auf 'en-US' zurückfallen." Die Liste der unterstützten Sprachen finden Sie hier: https://go.microsoft.com/fwlink/?linkid=2109463 |
experimentalOptions |
object |
Wörterbuch mit Schlüsselwertpaaren für Parameter, die in der Voreinstellung selbst nicht verfügbar gemacht werden |
mode |
Bestimmt den Satz der auszuführenden Audioanalysevorgänge. Wenn sie nicht angegeben ist, wird der Standard-AudioAnalysisMode ausgewählt. |
AudioOverlay
Beschreibt die Eigenschaften einer Audioüberlagerung.
Name | Typ | Beschreibung |
---|---|---|
@odata.type |
string:
#Microsoft. |
Der Diskriminator für abgeleitete Typen. |
audioGainLevel |
number |
Der Verstärkungsgrad des Audios in der Überlagerung. Der Wert sollte im Bereich [0, 1,0] liegen. Der Standardwert ist 1.0. |
end |
string |
Die Endposition mit Verweis auf das Eingabevideo, an dem das Overlay endet. Der Wert sollte im ISO 8601-Format vorliegen. Beispiel: PT30S, um die Überlagerung bei 30 Sekunden im Eingabevideo zu beenden. Wenn nicht angegeben oder der Wert größer als die Dauer des Eingabevideos ist, wird die Überlagerung bis zum Ende des Eingabevideos angewendet, wenn die Dauer der Überlagerungsmedien größer als die Dauer des Eingabevideos ist, andernfalls dauert die Überlagerung so lange wie die Überlagerungsmediendauer. |
fadeInDuration |
string |
Die Dauer, über die das Overlay auf dem Eingabevideo verblasst. Der Wert sollte im ISO 8601-Dauerformat vorliegen. Wenn nicht angegeben, besteht das Standardverhalten darin, kein Einblenden zu haben (identisch mit PT0S). |
fadeOutDuration |
string |
Die Dauer, in der die Überlagerung aus dem Eingabevideo verblasst. Der Wert sollte im ISO 8601-Dauerformat vorliegen. Wenn nicht angegeben, besteht das Standardverhalten darin, kein Ausblenden zu haben (identisch mit PT0S). |
inputLabel |
string |
Die Bezeichnung der Auftragseingabe, die als Überlagerung verwendet werden soll. Die Eingabe muss genau eine Datei angeben. Sie können eine Bilddatei im JPG-, PNG-, GIF- oder BMP-Format oder eine Audiodatei (z. B. eine WAV-, MP3-, WMA- oder M4A-Datei) oder eine Videodatei angeben. Eine vollständige Liste der unterstützten Audio- und Videodateiformate finden Sie https://aka.ms/mesformats unter. |
start |
string |
Die Startposition mit Verweis auf das Eingabevideo, an dem das Overlay beginnt. Der Wert sollte im ISO 8601-Format vorliegen. Beispiel: PT05S, um das Overlay bei 5 Sekunden im Eingabevideo zu starten. Wenn nicht angegeben, beginnt die Überlagerung am Anfang des Eingabevideos. |
BlurType
Weichzeichnertyp
Name | Typ | Beschreibung |
---|---|---|
Black |
string |
Schwarz: Verdunkelungsfilter |
Box |
string |
Box: Debugfilter, nur Begrenzungsfeld |
High |
string |
Hoch: Verwechslungsfilter |
Low |
string |
Niedrig: Box-Car-Unschärfefilter |
Med |
string |
Med: Gaußsche Unschärfefilter |
BuiltInStandardEncoderPreset
Beschreibt eine integrierte Voreinstellung zum Codieren des Eingabevideos mit dem Standardencoder.
Name | Typ | Beschreibung |
---|---|---|
@odata.type |
string:
#Microsoft. |
Der Diskriminator für abgeleitete Typen. |
configurations |
Optionale Konfigurationseinstellungen für Encoder. Konfigurationen werden nur für ContentAwareEncoding und H265ContentAwareEncoding BuiltInStandardEncoderPreset unterstützt. |
|
presetName |
Die integrierte Voreinstellung, die zum Codieren von Videos verwendet werden soll. |
Complexity
Ermöglicht Ihnen das Konfigurieren der Encodereinstellungen, um das Gleichgewicht zwischen Geschwindigkeit und Qualität zu steuern. Beispiel: Legen Sie Komplexität auf Geschwindigkeit fest, um eine schnellere Codierung, aber eine geringere Komprimierungseffizienz zu erzielen.
Name | Typ | Beschreibung |
---|---|---|
Balanced |
string |
Konfiguriert den Encoder für die Verwendung von Einstellungen, die ein Gleichgewicht zwischen Geschwindigkeit und Qualität erzielen. |
Quality |
string |
Konfiguriert den Encoder für die Verwendung von Einstellungen, die für die Ausgabe mit höherer Qualität optimiert sind, und das zu Lasten einer geringeren Gesamtcodierungszeit. |
Speed |
string |
Konfiguriert den Encoder für die Verwendung von Einstellungen, die für eine schnellere Codierung optimiert sind. Qualität wird geopfert, um die Codierungszeit zu verringern. |
CopyAudio
Ein Codecflag, das den Encoder angibt, den Eingabeaudiobitstream zu kopieren.
Name | Typ | Beschreibung |
---|---|---|
@odata.type |
string:
#Microsoft. |
Der Diskriminator für abgeleitete Typen. |
label |
string |
Eine optionale Bezeichnung für den Codec. Die Bezeichnung kann verwendet werden, um das Muxingverhalten zu steuern. |
CopyVideo
Ein Codecflag, das den Encoder angibt, den Bitstream des Eingabevideos ohne erneute Codierung zu kopieren.
Name | Typ | Beschreibung |
---|---|---|
@odata.type |
string:
#Microsoft. |
Der Diskriminator für abgeleitete Typen. |
label |
string |
Eine optionale Bezeichnung für den Codec. Die Bezeichnung kann verwendet werden, um das Muxingverhalten zu steuern. |
createdByType
Der Identitätstyp, der die Ressource erstellt hat.
Name | Typ | Beschreibung |
---|---|---|
Application |
string |
|
Key |
string |
|
ManagedIdentity |
string |
|
User |
string |
DDAudio
Beschreibt die Audiocodierungseinstellungen des Dolby Digital Audio Codec (AC3). Die aktuelle Implementierung für Dolby Digital Audio-Unterstützung sind: Audiokanalnummern bei 1((mono), 2(stereo), 6(5.1side); Audio-Samplingfrequenzraten bei: 32K/44,1K/48K Hz; Audiobitratewerte als AC3-Spezifikation unterstützt: 32000, 40000, 48000, 56000, 64000, 80000, 96000, 112000, 128000, 160000, 192000, 224000, 256000, 320000, 384000, 448000, 512000, 576000, 640000 bps.
Name | Typ | Beschreibung |
---|---|---|
@odata.type |
string:
#Microsoft. |
Der Diskriminator für abgeleitete Typen. |
bitrate |
integer |
Die Bitrate des ausgabecodierten Audios in Bits pro Sekunde. |
channels |
integer |
Die Anzahl der Kanäle im Audio. |
label |
string |
Eine optionale Bezeichnung für den Codec. Die Bezeichnung kann verwendet werden, um das Muxingverhalten zu steuern. |
samplingRate |
integer |
Die Samplingrate, die für die Codierung in Hertz verwendet werden soll. |
Deinterlace
Beschreibt die De-Interlacing-Einstellungen.
Name | Typ | Beschreibung |
---|---|---|
mode |
Der Deinterlacing-Modus. Der Standardwert ist AutoPixelAdaptive. |
|
parity |
Die Feldparität für die De-Interlacing-Funktion ist standardmäßig auf Auto festgelegt. |
DeinterlaceMode
Der Deinterlacing-Modus. Standardmäßig wird AutoPixelAdaptive verwendet.
Name | Typ | Beschreibung |
---|---|---|
AutoPixelAdaptive |
string |
Wenden Sie die automatische adaptive Pixel-Entflechtung auf jeden Frame im Eingabevideo an. |
Off |
string |
Deaktiviert das De-Interlacing des Quellvideos. |
DeinterlaceParity
Die Feldparität für die Entflechtung wird standardmäßig auf Auto festgelegt.
Name | Typ | Beschreibung |
---|---|---|
Auto |
string |
Automatisches Erkennen der Reihenfolge der Felder |
BottomFieldFirst |
string |
Wenden Sie die erste Verarbeitung des Eingabevideos im unteren Feld an. |
TopFieldFirst |
string |
Wenden Sie die erste Verarbeitung des Eingabevideos im oberen Feld an. |
EncoderNamedPreset
Die integrierte Voreinstellung, die zum Codieren von Videos verwendet werden soll.
Name | Typ | Beschreibung |
---|---|---|
AACGoodQualityAudio |
string |
Erzeugt eine einzelne MP4-Datei, die nur AAC-Stereoaudio enthält, das mit 192 KBit/s codiert ist. |
AdaptiveStreaming |
string |
Erzeugt eine Reihe von GOP-ausgerichteten MP4-Dateien mit H.264-Video und Stereo-AAC-Audio. Generiert automatisch eine Reihe von Bitraten, die auf der eingegebenen Auflösung, der Bitrate und der Bildfrequenz basieren. Die automatisch generierte Voreinstellung wird nie höher als die eingegebene Auflösung sein. Wenn beispielsweise 720p eingegeben wird, bleibt die Ausgabe am besten auch bei 720p. |
ContentAwareEncoding |
string |
Erzeugt mithilfe der inhaltsbezogenen Codierung verschiedene GOP-orientierte MP4s. Der Dienst führt eine einfache Erstanalyse für den Eingabeinhalt aus und ermittelt anhand der Ergebnisse die optimale Anzahl von Ebenen, die geeignete Bitrate und die Auflösungseinstellungen für die Bereitstellung durch adaptives Streaming. Diese Voreinstellung ist besonders effektiv für Videos mit geringer und mittlerer Komplexität, bei denen die Ausgabedateien mit niedrigeren Bitraten, aber in einer Qualität vorliegen, die dem Betrachter dennoch ein gutes Ergebnis bietet. Die Ausgabe enthält MP4-Dateien mit überlappendem Video und Audio. |
ContentAwareEncodingExperimental |
string |
Macht eine experimentelle Voreinstellung für inhaltsbasierte Codierung verfügbar. Anhand der eingegebenen Inhalte versucht der Dienst, automatisch die optimale Anzahl der Ebenen, die geeignete Bitrate und die Auflösungseinstellungen für die Bereitstellung durch adaptives Streaming zu bestimmen. Die zugrunde liegenden Algorithmen werden im Laufe der Zeit weiter entwickelt. Die Ausgabe enthält MP4-Dateien mit überlappendem Video und Audio. |
CopyAllBitrateNonInterleaved |
string |
Kopieren Sie alle Video- und Audiostreams aus dem Eingabemedienobjekt als nicht verschachtelte Video- und Audioausgabedateien. Diese Voreinstellung kann verwendet werden, um ein vorhandenes Medienobjekt zu beschneiden oder eine Gruppe von MP4-Dateien mit Keyframeausrichtung (GOP) als Medienobjekt zu konvertieren, das gestreamt werden kann. |
DDGoodQualityAudio |
string |
Erzeugt eine einzelne MP4-Datei, die nur DD(Digital Dolby)-Stereoaudio enthält, das mit 192 KBit/s codiert ist. |
H264MultipleBitrate1080p |
string |
Erzeugt einen Satz von 8 GOP-ausgerichteten MP4-Dateien, die von 6000 KBit/s bis 400 KBit/s reichen, und Stereo-AAC-Audio. Die Auflösung beginnt bei 1080p und geht auf 180p herunter. |
H264MultipleBitrate720p |
string |
Erzeugt einen Satz von 6 GOP-orientierten MP4-Dateien, die von 3400 kbps bis 400 kbps reichen, und Stereo-AAC-Audio. Die Auflösung beginnt bei 720p und geht auf 180p herunter. |
H264MultipleBitrateSD |
string |
Erzeugt einen Satz von 5 GOP-orientierten MP4-Dateien, die von 1900 kbps bis 400 kbps reichen, und Stereo-AAC-Audio. Die Auflösung beginnt bei 480p und geht auf 240p herunter. |
H264SingleBitrate1080p |
string |
Erzeugt eine MP4-Datei, bei der das Video mit dem H.264-Codec mit 6750 KBit/s und einer Bildhöhe von 1080 Pixel codiert ist, und das Stereoaudio mit AAC-LC-Codec mit 128 kBit/s codiert ist. |
H264SingleBitrate720p |
string |
Erzeugt eine MP4-Datei, bei der das Video mit dem H.264-Codec mit 4500 KBit/s und einer Bildhöhe von 720 Pixel codiert ist, und das Stereoaudio mit AAC-LC-Codec mit 128 kBit/s codiert ist. |
H264SingleBitrateSD |
string |
Erzeugt eine MP4-Datei, bei der das Video mit H.264-Codec mit 2200 KBit/s und einer Bildhöhe von 480 Pixel codiert ist, und das Stereoaudio mit AAC-LC-Codec mit 128 KBit/s codiert ist. |
H265AdaptiveStreaming |
string |
Erzeugt mehrere auf GOP ausgerichtete MP4-Dateien mit Video- und Stereo-AAC-Audio für H.265. Generiert automatisch eine Reihe von Bitraten, die auf der eingegebenen Auflösung, der Bitrate und der Bildfrequenz basieren. Die automatisch generierte Voreinstellung wird nie höher als die eingegebene Auflösung sein. Wenn beispielsweise 720p eingegeben wird, bleibt die Ausgabe am besten auch bei 720p. |
H265ContentAwareEncoding |
string |
Erzeugt mithilfe der inhaltsbezogenen Codierung verschiedene GOP-orientierte MP4s. Der Dienst führt eine einfache Erstanalyse für den Eingabeinhalt aus und ermittelt anhand der Ergebnisse die optimale Anzahl von Ebenen, die geeignete Bitrate und die Auflösungseinstellungen für die Bereitstellung durch adaptives Streaming. Diese Voreinstellung ist besonders effektiv für Videos mit geringer und mittlerer Komplexität, bei denen die Ausgabedateien mit niedrigeren Bitraten, aber in einer Qualität vorliegen, die dem Betrachter dennoch ein gutes Ergebnis bietet. Die Ausgabe enthält MP4-Dateien mit überlappendem Video und Audio. |
H265SingleBitrate1080p |
string |
Erzeugt eine MP4-Datei, in der das Video mit dem H.265-Codec mit 3500 KBit/s und einer Bildhöhe von 1080 Pixel codiert ist, und das Stereoaudio mit AAC-LC-Codec mit 128 kBit/s codiert ist. |
H265SingleBitrate4K |
string |
Erzeugt eine MP4-Datei, in der das Video mit dem H.265-Codec mit 9500 KBit/s und einer Bildhöhe von 2160 Pixel codiert ist, und das Stereoaudio mit AAC-LC-Codec mit 128 kBit/s codiert ist. |
H265SingleBitrate720p |
string |
Erzeugt eine MP4-Datei, in der das Video mit H.265-Codec mit 1800 Kbit/s und einer Bildhöhe von 720 Pixel codiert ist, und das Stereoaudio mit AAC-LC-Codec mit 128 KBit/s codiert ist. |
EntropyMode
Der Entropiemodus, der für diese Ebene verwendet werden soll. Wenn nicht angegeben, wählt der Encoder den Modus aus, der für das Profil und die Ebene geeignet ist.
Name | Typ | Beschreibung |
---|---|---|
Cabac |
string |
Cabac-Entropiecodierung (Adaptive Binary Arithmetische Arithmetikcoder) des Kontexts. |
Cavlc |
string |
CAVLC-Entropiecodierung (Context Adaptive Variable Length Coder) |
ErrorAdditionalInfo
Zusätzliche Informationen zum Ressourcenverwaltungsfehler.
Name | Typ | Beschreibung |
---|---|---|
info |
object |
Zusätzliche Informationen. |
type |
string |
Typ der zusätzlichen Informationen. |
ErrorDetail
Die Fehlerdetails.
Name | Typ | Beschreibung |
---|---|---|
additionalInfo |
Die zusätzlichen Fehlerinformationen. |
|
code |
string |
Der Fehlercode. |
details |
Die Fehlerdetails. |
|
message |
string |
Die Fehlermeldung. |
target |
string |
Das Fehlerziel. |
ErrorResponse
Fehlerantwort
Name | Typ | Beschreibung |
---|---|---|
error |
Das Fehlerobjekt. |
FaceDetectorPreset
Beschreibt alle Einstellungen, die bei der Analyse eines Videos verwendet werden sollen, um alle vorhandenen Gesichter zu erkennen (und optional zu rotieren).
Name | Typ | Beschreibung |
---|---|---|
@odata.type |
string:
#Microsoft. |
Der Diskriminator für abgeleitete Typen. |
blurType |
Weichzeichnertyp |
|
experimentalOptions |
object |
Wörterbuch mit Schlüsselwertpaaren für Parameter, die in der Voreinstellung selbst nicht verfügbar gemacht werden |
mode |
Dieser Modus bietet die Möglichkeit, zwischen den folgenden Einstellungen zu wählen: 1) Analysieren – nur für die Erkennung. Dieser Modus generiert eine JSON-Metadatendatei, die die Darstellungen von Gesichtern im gesamten Video markiert. Wenn möglich, wird dem Erscheinungsbild der gleichen Person die gleiche ID zugewiesen. 2) Kombiniert – Zusätzlich wurden Gesichter rot (Weichzeichner) erkannt. 3) Redact : Dies ermöglicht einen 2-Pass-Prozess, der eine selektive Redaktion einer Teilmenge der erkannten Gesichter ermöglicht. Die Metadatendatei aus einem vorherigen Analysedurchlauf wird zusammen mit dem Quellvideo und einer vom Benutzer ausgewählten Teilmenge von IDs übernommen, die eine Bearbeitung erfordern. |
|
resolution |
Gibt die maximale Auflösung an, mit der Ihr Video analysiert wird. Das Standardverhalten ist "SourceResolution", das das Eingabevideo bei der Analyse in seiner ursprünglichen Auflösung behält. Mithilfe von "StandardDefinition" wird die Größe von Eingabevideos in die Standarddefinition geändert, während das entsprechende Seitenverhältnis beibehalten wird. Die Größe wird nur geändert, wenn das Video eine höhere Auflösung aufweist. Beispielsweise würde eine Eingabe von 1920 x 1080 vor der Verarbeitung auf 640 x 360 skaliert. Wenn Sie zu "StandardDefinition" wechseln, wird die Zeit für die Verarbeitung von Videos mit hoher Auflösung reduziert. Es kann auch die Kosten für die Verwendung dieser Komponente reduzieren (weitere Informationen finden Sie unter https://azure.microsoft.com/en-us/pricing/details/media-services/#analytics ). Gesichter, die im geänderten Video zu klein sind, werden jedoch möglicherweise nicht erkannt. |
FaceRedactorMode
Dieser Modus bietet die Möglichkeit, zwischen den folgenden Einstellungen zu wählen: 1) Analysieren – nur für die Erkennung. Dieser Modus generiert eine JSON-Metadatendatei, die die Darstellungen von Gesichtern im gesamten Video kennzeichnet. Wenn möglich, wird dem Erscheinungsbild derselben Person die gleiche ID zugewiesen. 2) Kombiniert – Zusätzlich wurden Gesichter gerötet(Unschärfen) erkannt. 3) Redact : Dies ermöglicht einen 2-Pass-Prozess, der eine selektive Redaction einer Teilmenge der erkannten Gesichter ermöglicht. Es übernimmt die Metadatendatei aus einem vorherigen Analysedurchlauf, zusammen mit dem Quellvideo und einer vom Benutzer ausgewählten Teilmenge von IDs, die Redaction erfordern.
Name | Typ | Beschreibung |
---|---|---|
Analyze |
string |
Der Analysemodus erkennt Gesichter und gibt eine Metadatendatei mit den Ergebnissen aus. Ermöglicht das Bearbeiten der Metadatendatei, bevor Gesichter im Redact-Modus verwischt werden. |
Combined |
string |
Der kombinierte Modus führt die Schritte Analysieren und Redact in einem Durchgang durch, wenn das Bearbeiten der analysierten Gesichter nicht erwünscht ist. |
Redact |
string |
Der Redact-Modus nutzt die Metadatendatei aus dem Analysemodus und redigiert die gefundenen Gesichter. |
Fade
Beschreibt die Eigenschaften eines Einblenden-Effekts, der auf das Eingabemedium angewendet wird.
Name | Typ | Beschreibung |
---|---|---|
duration |
string |
Die Dauer des Einblendeffekts im Video. Der Wert kann im ISO 8601-Format (z. B. PT05S, um eine Farbe während von 5 Sekunden ein-/ausblenden) oder eine Frameanzahl (z. B. 10 bis 10 Frames aus der Startzeit) oder einen relativen Wert zur Streamdauer (z. B. 10 % bis 10 % der Streamdauer) sein. |
fadeColor |
string |
Die Farbe für das Ein-/Ausblenden. Es kann sich um die CSS Level1-Farben https://developer.mozilla.org/en-US/docs/Web/CSS/color_value/color_keywords oder einen RGB/Hexadezim-Wert: z. B. rgb(255,0,0), 0xFF0000 oder #FF0000 |
start |
string |
Die Position im Eingabevideo, ab der mit dem Einblenden begonnen werden soll. Der Wert kann das ISO 8601-Format aufweisen, z. B. PT05S, damit ab fünf Sekunden gestartet wird, oder die Nummer eines Frames, z. B. 10, damit beim zehnten Frame gestartet wird, oder einen relativen Wert zur Dauer des Streams, z. B. 10 %, damit bei zehn Prozent der Gesamtdauer des Streams gestartet wird. Der Standardwert ist 0. |
Filters
Beschreibt alle Filtervorgänge, z. B. De-Interlacing, Rotation usw., die vor der Codierung auf die Eingabemedien angewendet werden sollen.
Name | Typ | Beschreibung |
---|---|---|
crop |
Die Parameter für das rechteckige Fenster, mit dem das Eingabevideo zugeschnitten werden soll. |
|
deinterlace |
Die De-Interlacing-Einstellungen. |
|
fadeIn |
Beschreibt die Eigenschaften eines Fade-Effekts, der auf das Eingabemedium angewendet wird. |
|
fadeOut |
Beschreibt die Eigenschaften eines Fade-Effekts, der auf das Eingabemedium angewendet wird. |
|
overlays | Overlay[]: |
Die Eigenschaften von Overlays, die auf das Eingabevideo angewendet werden sollen. Dies können Audio-, Bild- oder Videoüberlagerungen sein. |
rotation |
Die Drehung, falls vorhanden, die auf das Eingabevideo angewendet werden soll, bevor es codiert wird. Die Standardeinstellung ist Auto |
H264Complexity
Teilt dem Encoder mit, wie seine Codierungseinstellungen ausgewählt werden sollen. Der Standardwert ist Balanced.
Name | Typ | Beschreibung |
---|---|---|
Balanced |
string |
Weist den Encoder an, Einstellungen zu verwenden, die ein Gleichgewicht zwischen Geschwindigkeit und Qualität erzielen. |
Quality |
string |
Weist den Encoder an, Einstellungen zu verwenden, die optimiert sind, um eine höhere Ausgabequalität auf Kosten einer langsameren Gesamtcodierungszeit zu erzeugen. |
Speed |
string |
Weist den Encoder an, Einstellungen zu verwenden, die für eine schnellere Codierung optimiert sind. Qualität wird geopfert, um die Codierungszeit zu verkürzen. |
H264Layer
Beschreibt die Einstellungen, die beim Codieren des Eingabevideos in eine gewünschte Ausgabebitrateebene mit dem H.264-Videocodec verwendet werden sollen.
Name | Typ | Beschreibung |
---|---|---|
adaptiveBFrame |
boolean |
Gibt an, ob adaptive B-Frames beim Codieren dieser Ebene verwendet werden sollen oder nicht. Wenn dies nicht angegeben ist, wird es vom Encoder aktiviert, wenn das Videoprofil die Verwendung zulässt. |
bFrames |
integer |
Die Anzahl der B-Frames, die beim Codieren dieser Ebene verwendet werden sollen. Falls nicht angegeben, wählt der Encoder eine geeignete Nummer basierend auf dem Videoprofil und der Videoebene aus. |
bitrate |
integer |
Die durchschnittliche Bitrate in Bits pro Sekunde, mit der das Eingabevideo beim Generieren dieser Ebene codiert werden soll. Dies ist ein Pflichtfeld. |
bufferWindow |
string |
Die Länge des VBV-Pufferfensters. Der Wert sollte im ISO 8601-Format vorliegen. Der Wert sollte im Bereich [0,1-100] Sekunden liegen. Der Standardwert ist 5 Sekunden (z. B. PT5S). |
crf |
number |
Der Wert von CRF, der beim Codieren dieser Ebene verwendet werden soll. Diese Einstellung wird wirksam, wenn RateControlMode des Videocodecs im CRF-Modus festgelegt ist. Der Bereich des CRF-Werts liegt zwischen 0 und 51, wobei niedrigere Werte zu einer besseren Qualität führen würden, auf Kosten höherer Dateigrößen. Höhere Werte bedeuten mehr Komprimierung, aber irgendwann wird eine Qualitätsverschlechterung festgestellt. Der Standardwert ist 23. |
entropyMode |
Der Entropiemodus, der für diese Ebene verwendet werden soll. Wenn nicht angegeben, wählt der Encoder den Modus aus, der für das Profil und die Ebene geeignet ist. |
|
frameRate |
string |
Die Bildrate (in Frames pro Sekunde), mit der diese Ebene codiert werden soll. Der Wert kann in Form von M/N sein, wobei M und N ganze Zahlen sind (z. B. 30000/1001), oder in Form einer Zahl (z. B. 30 oder 29,97). Der Encoder erzwingt Einschränkungen für zulässige Bildraten basierend auf dem Profil und der Ebene. Wenn dies nicht angegeben ist, verwendet der Encoder die gleiche Bildrate wie das Eingabevideo. |
height |
string |
Die Höhe des Ausgabevideos für diese Ebene. Der Wert kann absolut (in Pixel) oder relativ (in Prozent) sein. Beispielsweise bedeutet 50 %, dass das Ausgabevideo halb so viele Pixel in der Höhe hat wie die Eingabe. |
label |
string |
Die alphanumerische Bezeichnung für diese Ebene, die zum Multiplexen verschiedener Video- und Audioebenen oder zum Benennen der Ausgabedatei verwendet werden kann. |
level |
string |
Derzeit unterstützen wir Level bis 6.2. Der Wert kann Auto oder eine Zahl sein, die dem H.264-Profil entspricht. Wenn nicht angegeben, ist der Standardwert Auto, wodurch der Encoder die für diese Ebene geeignete Ebene auswählen kann. |
maxBitrate |
integer |
Die maximale Bitrate (in Bits pro Sekunde), bei der davon ausgegangen werden sollte, dass der VBV-Puffer erneut aufgefüllt werden soll. Wenn nicht angegeben, wird standardmäßig derselbe Wert wie die Bitrate verwendet. |
profile |
Derzeit unterstützen wir Baseline, Main, High, High422, High444. Der Standardwert ist Auto. |
|
referenceFrames |
integer |
Die Anzahl der Referenzframes, die beim Codieren dieser Ebene verwendet werden sollen. Wenn nicht angegeben, bestimmt der Encoder eine geeignete Zahl basierend auf der Komplexitätseinstellung des Encoders. |
slices |
integer |
Die Anzahl der Slices, die beim Codieren dieser Ebene verwendet werden sollen. Wenn nicht angegeben, ist der Standardwert 0. Dies bedeutet, dass der Encoder für jeden Frame ein einzelnes Slice verwendet. |
width |
string |
Die Breite des Ausgabevideos für diese Ebene. Der Wert kann absolut (in Pixel) oder relativ (in Prozent) sein. Beispielsweise bedeutet 50 %, dass das Ausgabevideo halb so viele Pixel breit ist wie die Eingabe. |
H264RateControlMode
Der Modus zur Steuerung der Videorate
Name | Typ | Beschreibung |
---|---|---|
ABR |
string |
AbR-Modus (Average Bitrate), der die Zielbitrate erreicht: Standardmodus. |
CBR |
string |
Der CBR-Modus (Constant Bitrate) strafft Bitratenvariationen um die Zielbitrate. |
CRF |
string |
CrF-Modus (Constant Rate Factor), der auf konstante subjektive Qualität abzielt. |
H264Video
Beschreibt alle Eigenschaften zum Codieren eines Videos mit dem H.264-Codec.
Name | Typ | Beschreibung |
---|---|---|
@odata.type |
string:
#Microsoft. |
Der Diskriminator für abgeleitete Typen. |
complexity |
Teilt dem Encoder mit, wie seine Codierungseinstellungen ausgewählt werden sollen. Der Standardwert ist Balanced. |
|
keyFrameInterval |
string |
Der Abstand zwischen zwei Keyframes. Der Wert sollte im Bereich [0,5, 20] Sekunden ungleich null sein, der im ISO 8601-Format angegeben ist. Der Standardwert ist 2 Sekunden (PT2S). Beachten Sie, dass diese Einstellung ignoriert wird, wenn VideoSyncMode.Passthrough festgelegt ist, wobei der KeyFrameInterval-Wert der Eingabequelleneinstellung folgt. |
label |
string |
Eine optionale Bezeichnung für den Codec. Die Bezeichnung kann verwendet werden, um das Muxingverhalten zu steuern. |
layers |
Die Auflistung der H.264-Ausgabeebenen, die vom Encoder erzeugt werden sollen. |
|
rateControlMode |
Der Modus zur Steuerung der Videorate |
|
sceneChangeDetection |
boolean |
Gibt an, ob der Encoder Keyframes bei Szenenänderungen einfügen soll oder nicht. Wenn nicht angegeben, ist der Standardwert false. Dieses Flag sollte nur dann auf true festgelegt werden, wenn der Encoder für die Erstellung eines einzelnen Ausgabevideos konfiguriert wird. |
stretchMode |
Der Größenänderungsmodus: Die Größe des Eingabevideos wird an die gewünschte Ausgabeauflösung(en) angepasst. Die Standardeinstellung ist AutoSize. |
|
syncMode |
Videosynchronisierungsmodus |
H264VideoProfile
Derzeit unterstützen wir Baseline, Main, High, High422, High444. Der Standardwert ist Auto.
Name | Typ | Beschreibung |
---|---|---|
Auto |
string |
Weist den Encoder an, das entsprechende H.264-Profil automatisch zu ermitteln. |
Baseline |
string |
Baselineprofil |
High |
string |
High Profile. |
High422 |
string |
Hohes 4:2:2-Profil. |
High444 |
string |
Hohes Vorhersageprofil von 4:4:4. |
Main |
string |
Hauptprofil |
H265Complexity
Teilt dem Encoder mit, wie seine Codierungseinstellungen ausgewählt werden sollen. Qualität sorgt für ein höheres Komprimierungsverhältnis, aber zu höheren Kosten und längerer Computezeit. Die Geschwindigkeit erzeugt eine relativ größere Datei, ist aber schneller und wirtschaftlicher. Der Standardwert ist Balanced.
Name | Typ | Beschreibung |
---|---|---|
Balanced |
string |
Weist den Encoder an, Einstellungen zu verwenden, die ein Gleichgewicht zwischen Geschwindigkeit und Qualität erzielen. |
Quality |
string |
Weist den Encoder an, Einstellungen zu verwenden, die optimiert sind, um eine höhere Ausgabequalität auf Kosten einer langsameren Gesamtcodierungszeit zu erzeugen. |
Speed |
string |
Weist den Encoder an, Einstellungen zu verwenden, die für eine schnellere Codierung optimiert sind. Qualität wird geopfert, um die Codierungszeit zu verkürzen. |
H265Layer
Beschreibt die Einstellungen, die beim Codieren des Eingabevideos in eine gewünschte Ausgabebitrateebene mit dem H.265-Videocodec verwendet werden sollen.
Name | Typ | Beschreibung |
---|---|---|
adaptiveBFrame |
boolean |
Gibt an, ob adaptive B-Frames beim Codieren dieser Ebene verwendet werden sollen. Wenn dies nicht angegeben ist, wird es vom Encoder aktiviert, wenn das Videoprofil die Verwendung zulässt. |
bFrames |
integer |
Die Anzahl der B-Frames, die beim Codieren dieser Ebene verwendet werden sollen. Falls nicht angegeben, wählt der Encoder eine geeignete Nummer basierend auf dem Videoprofil und der Videoebene aus. |
bitrate |
integer |
Die durchschnittliche Bitrate in Bits pro Sekunde, mit der das Eingabevideo beim Generieren dieser Ebene codiert werden soll. Beispiel: Eine Zielbitrate von 3000 KBit/s oder 3 Mbit/s bedeutet, dass dieser Wert 30000000 sein sollte. Dies ist ein erforderliches Feld. |
bufferWindow |
string |
Die Länge des VBV-Pufferfensters. Der Wert sollte im ISO 8601-Format vorliegen. Der Wert sollte im Bereich [0,1-100] Sekunden liegen. Der Standardwert ist 5 Sekunden (z. B. PT5S). |
crf |
number |
Der Wert von CRF, der beim Codieren dieser Ebene verwendet werden soll. Diese Einstellung wird wirksam, wenn RateControlMode des Videocodecs im CRF-Modus festgelegt ist. Der Bereich des CRF-Werts liegt zwischen 0 und 51, wobei niedrigere Werte zu einer besseren Qualität führen würden, auf Kosten höherer Dateigrößen. Höhere Werte bedeuten mehr Komprimierung, aber irgendwann wird eine Qualitätsverschlechterung festgestellt. Der Standardwert ist 28. |
frameRate |
string |
Die Bildrate (in Frames pro Sekunde), mit der diese Ebene codiert werden soll. Der Wert kann in Form von M/N sein, wobei M und N ganze Zahlen sind (z. B. 30000/1001), oder in Form einer Zahl (z. B. 30 oder 29,97). Der Encoder erzwingt Einschränkungen für zulässige Bildraten basierend auf dem Profil und der Ebene. Wenn dies nicht angegeben ist, verwendet der Encoder die gleiche Bildrate wie das Eingabevideo. |
height |
string |
Die Höhe des Ausgabevideos für diese Ebene. Der Wert kann absolut (in Pixel) oder relativ (in Prozent) sein. Beispielsweise bedeutet 50 %, dass das Ausgabevideo halb so viele Pixel in der Höhe hat wie die Eingabe. |
label |
string |
Die alphanumerische Bezeichnung für diese Ebene, die zum Multiplexen verschiedener Video- und Audioebenen oder zum Benennen der Ausgabedatei verwendet werden kann. |
level |
string |
Derzeit unterstützen wir Level bis 6.2. Der Wert kann Auto oder eine Zahl sein, die dem H.265-Profil entspricht. Wenn nicht angegeben, ist der Standardwert Auto, wodurch der Encoder die für diese Ebene geeignete Ebene auswählen kann. |
maxBitrate |
integer |
Die maximale Bitrate (in Bits pro Sekunde), bei der davon ausgegangen werden sollte, dass der VBV-Puffer erneut aufgefüllt werden soll. Wenn nicht angegeben, wird standardmäßig derselbe Wert wie die Bitrate verwendet. |
profile |
Derzeit unterstützen wir Main. Der Standardwert ist Auto. |
|
referenceFrames |
integer |
Die Anzahl der Referenzframes, die beim Codieren dieser Ebene verwendet werden sollen. Wenn nicht angegeben, bestimmt der Encoder eine geeignete Zahl basierend auf der Komplexitätseinstellung des Encoders. |
slices |
integer |
Die Anzahl der Slices, die beim Codieren dieser Ebene verwendet werden sollen. Wenn nicht angegeben, ist der Standardwert 0. Dies bedeutet, dass der Encoder für jeden Frame ein einzelnes Slice verwendet. |
width |
string |
Die Breite des Ausgabevideos für diese Ebene. Der Wert kann absolut (in Pixel) oder relativ (in Prozent) sein. Beispielsweise bedeutet 50 %, dass das Ausgabevideo halb so viele Pixel breit ist wie die Eingabe. |
H265Video
Beschreibt alle Eigenschaften zum Codieren eines Videos mit dem H.265-Codec.
Name | Typ | Beschreibung |
---|---|---|
@odata.type |
string:
#Microsoft. |
Der Diskriminator für abgeleitete Typen. |
complexity |
Teilt dem Encoder mit, wie seine Codierungseinstellungen ausgewählt werden sollen. Die Qualität sorgt für ein höheres Komprimierungsverhältnis, aber zu höheren Kosten und längerer Computezeit. Die Geschwindigkeit erzeugt eine relativ größere Datei, ist aber schneller und wirtschaftlicher. Der Standardwert ist Balanced. |
|
keyFrameInterval |
string |
Der Abstand zwischen zwei Keyframes. Der Wert sollte ungleich Null im Bereich [0,5, 20] Sekunden sein, der im ISO 8601-Format angegeben ist. Der Standardwert ist 2 Sekunden (PT2S). Beachten Sie, dass diese Einstellung ignoriert wird, wenn VideoSyncMode.Passthrough festgelegt ist, wobei der KeyFrameInterval-Wert der Einstellung für die Eingabequelle folgt. |
label |
string |
Eine optionale Bezeichnung für den Codec. Die Bezeichnung kann verwendet werden, um das Muxingverhalten zu steuern. |
layers |
Die Sammlung der H.265-Ausgabeebenen, die vom Encoder erzeugt werden sollen. |
|
sceneChangeDetection |
boolean |
Gibt an, ob der Encoder keyframes bei Szenenänderungen einfügen soll. Wenn nicht angegeben, ist der Standardwert false. Dieses Flag sollte nur auf TRUE festgelegt werden, wenn der Encoder für die Erstellung eines einzelnen Ausgabevideos konfiguriert wird. |
stretchMode |
Der Größenänderungsmodus: Gibt an, wie die Größe des Eingabevideos an die gewünschte Ausgabeauflösung angepasst wird. Der Standardwert ist AutoSize. |
|
syncMode |
Videosynchronisierungsmodus |
H265VideoProfile
Derzeit unterstützen wir Main. Der Standardwert ist Auto.
Name | Typ | Beschreibung |
---|---|---|
Auto |
string |
Weist den Encoder an, automatisch das entsprechende H.265-Profil zu ermitteln. |
Main |
string |
Hauptprofil (https://x265.readthedocs.io/en/default/cli.html?highlight=profile#profile-level-tier) |
Main10 |
string |
Hauptprofil 10 (https://en.wikipedia.org/wiki/High_Efficiency_Video_Coding#Main_10) |
Image
Beschreibt die grundlegenden Eigenschaften zum Generieren von Miniaturansichten aus dem Eingabevideo.
Name | Typ | Beschreibung |
---|---|---|
@odata.type |
string:
#Microsoft. |
Der Diskriminator für abgeleitete Typen. |
keyFrameInterval |
string |
Der Abstand zwischen zwei Keyframes. Der Wert sollte im Bereich [0,5, 20] Sekunden ungleich null sein, der im ISO 8601-Format angegeben ist. Der Standardwert ist 2 Sekunden (PT2S). Beachten Sie, dass diese Einstellung ignoriert wird, wenn VideoSyncMode.Passthrough festgelegt ist, wobei der KeyFrameInterval-Wert der Eingabequelleneinstellung folgt. |
label |
string |
Eine optionale Bezeichnung für den Codec. Die Bezeichnung kann verwendet werden, um das Muxingverhalten zu steuern. |
range |
string |
Die Position relativ zur transformationsvoreingestellten Startzeit im Eingabevideo, an der die Generierung von Miniaturansichten beendet werden soll. Der Wert kann im ISO 8601-Format (z. B. PT5M30S, um bei 5 Minuten und 30 Sekunden ab der Startzeit anzuhalten) oder eine Frameanzahl (z. B. 300, um beim 300. Frame des Frames zum Start anzuhalten) sein. Wenn dieser Wert 1 ist, bedeutet dies, dass zur Startzeit nur eine Miniaturansicht oder ein relativer Wert zur Streamdauer erzeugt wird (z. B. 50 %, um bei der Hälfte der Streamdauer ab der Startzeit anzuhalten). Der Standardwert ist 100 %. Dies bedeutet, dass am Ende des Streams angehalten werden soll. |
start |
string |
Die Position im Eingabevideo, von der aus mit dem Generieren von Miniaturansichten begonnen werden soll. Der Wert kann das ISO 8601-Format aufweisen, z. B. PT05S, damit ab fünf Sekunden gestartet wird, oder die Nummer eines Frames, z. B. 10, damit beim zehnten Frame gestartet wird, oder einen relativen Wert zur Dauer des Streams, z. B. 10 %, damit bei zehn Prozent der Gesamtdauer des Streams gestartet wird. Außerdem wird ein Makro namens {Best} unterstützt, das den Encoder anweist, die beste Vorschauminiatur aus den ersten Sekunden des Videos auszuwählen. Dabei wird unabhängig von anderen Einstellungen für „step“ und „range“ nur eine Vorschauminiatur erstellt. Der Standardwert des Makros lautet {Best}. |
step |
string |
Die Intervalle, in denen Miniaturansichten generiert werden. Der Wert kann im ISO 8601-Format (z. B. PT05S für ein Bild alle 5 Sekunden) oder eine Frameanzahl (z. B. 30 für ein Bild alle 30 Frames) oder ein relativer Wert für die Streamdauer (z. B. 10 % für ein Bild alle 10 % der Datenstromdauer) sein. Hinweis: Der Schrittwert wirkt sich auf die erste generierte Miniaturansicht aus, die möglicherweise nicht genau die Miniaturansicht ist, die bei der Startzeit der transformationsvoreingestellten Transformation angegeben wurde. Dies ist auf den Encoder zurückzuführen, der versucht, die beste Miniaturansicht zwischen Startzeit und Schrittposition von der Startzeit als erste Ausgabe auszuwählen. Da der Standardwert 10 % beträgt, bedeutet dies, dass die erste generierte Miniaturansicht, wenn der Stream eine lange Dauer hat, möglicherweise weit von der zur Startzeit angegebenen Miniaturansicht entfernt ist. Versuchen Sie, einen angemessenen Wert für Schritt auszuwählen, wenn die erste Miniaturansicht nahe der Startzeit erwartet wird, oder legen Sie den Wert bereich auf 1 fest, wenn zur Startzeit nur eine Miniaturansicht erforderlich ist. |
stretchMode |
Der Größenänderungsmodus: Die Größe des Eingabevideos wird an die gewünschte Ausgabeauflösung(en) angepasst. Die Standardeinstellung ist AutoSize. |
|
syncMode |
Videosynchronisierungsmodus |
ImageFormat
Beschreibt die Eigenschaften für eine Ausgabebilddatei.
Name | Typ | Beschreibung |
---|---|---|
@odata.type |
string:
#Microsoft. |
Der Diskriminator für abgeleitete Typen. |
filenamePattern |
string |
Das Dateibenennungsmuster, das für die Erstellung von Ausgabedateien verwendet wird. Die folgenden Makros werden im Dateinamen unterstützt: {Basename} – Ein Erweiterungsmakro, das den Namen der Eingabevideodatei verwendet. Wenn der Basisname (das Dateisuffix ist nicht enthalten) der Eingabevideodatei weniger als 32 Zeichen lang ist, wird der Basisname der Eingabevideodateien verwendet. Wenn die Länge des Basisnamens der Eingabevideodatei 32 Zeichen überschreitet, wird der Basisname auf die ersten 32 Zeichen der Gesamtlänge gekürzt. {Extension} – Die entsprechende Erweiterung für dieses Format. {Label} – Die Bezeichnung, die dem Codec/der Ebene zugewiesen ist. {Index} – Ein eindeutiger Index für Miniaturansichten. Gilt nur für Miniaturansichten. {AudioStream} - Zeichenfolge "Audio" plus Audiostreamnummer (Start von 1). {Bitrate} – Die Audio-/Videobitrate in Kbit/s. Gilt nicht für Miniaturansichten. {Codec} – Der Typ des Audio-/Video-Codecs. {Resolution} – Die Videoauflösung. Alle nicht substituierten Makros werden reduziert und aus dem Dateinamen entfernt. |
InsightsType
Definiert den Typ von Erkenntnissen, die der Dienst generieren soll. Die zulässigen Werte sind "AudioInsightsOnly", "VideoInsightsOnly" und "AllInsights". Der Standardwert ist AllInsights. Wenn Sie dies auf AllInsights festlegen und die Eingabe nur Audio ist, werden nur Audioerkenntnisse generiert. Wenn es sich bei der Eingabe nur um Video handelt, werden auch nur Videoeinblicke generiert. Es wird empfohlen, AudioInsightsOnly nicht zu verwenden, wenn Sie erwarten, dass einige Ihrer Eingaben nur Video sind. oder verwenden Sie VideoInsightsOnly, wenn Sie erwarten, dass einige Ihrer Eingaben nur Audio sind. Ihre Aufträge unter solchen Bedingungen würden einen Fehler verursachen.
Name | Typ | Beschreibung |
---|---|---|
AllInsights |
string |
Generieren Von Audio- und Videoerkenntnissen Tritt ein Fehler auf, wenn Audio- oder Videoeinblicke fehlschlagen. |
AudioInsightsOnly |
string |
Generieren sie Nur-Audio-Erkenntnisse. Video ignorieren, auch wenn vorhanden. Tritt ein Fehler auf, wenn keine Audiodaten vorhanden sind. |
VideoInsightsOnly |
string |
Generieren sie nur Video-Erkenntnisse. Audio ignorieren, falls vorhanden. Schlägt fehl, wenn kein Video vorhanden ist. |
InterleaveOutput
Legt den Interleave-Modus der Ausgabe fest, um zu steuern, wie Audio und Video im Containerformat gespeichert werden. Beispiel: Legen Sie InterleavedOutput auf NonInterleavedOutput fest, um nur Audio- und Videoausgaben in separaten MP4-Dateien zu erzeugen.
Name | Typ | Beschreibung |
---|---|---|
InterleavedOutput |
string |
Die Ausgabe umfasst sowohl Audio als auch Video. |
NonInterleavedOutput |
string |
Die Ausgabe ist nur Video oder nur Audio. |
JpgFormat
Beschreibt die Einstellungen zum Erstellen von JPEG-Miniaturansichten.
Name | Typ | Beschreibung |
---|---|---|
@odata.type |
string:
#Microsoft. |
Der Diskriminator für abgeleitete Typen. |
filenamePattern |
string |
Das Dateibenennungsmuster, das für die Erstellung von Ausgabedateien verwendet wird. Die folgenden Makros werden im Dateinamen unterstützt: {Basename} – Ein Erweiterungsmakro, das den Namen der Eingabevideodatei verwendet. Wenn der Basisname (das Dateisuffix ist nicht enthalten) der Eingabevideodatei weniger als 32 Zeichen lang ist, wird der Basisname der Eingabevideodateien verwendet. Wenn die Länge des Basisnamens der Eingabevideodatei 32 Zeichen überschreitet, wird der Basisname auf die ersten 32 Zeichen der Gesamtlänge gekürzt. {Extension} – Die entsprechende Erweiterung für dieses Format. {Label} – Die Bezeichnung, die dem Codec/der Ebene zugewiesen ist. {Index} – Ein eindeutiger Index für Miniaturansichten. Gilt nur für Miniaturansichten. {AudioStream} - Zeichenfolge "Audio" plus Audiostreamnummer (Start von 1). {Bitrate} – Die Audio-/Videobitrate in Kbit/s. Gilt nicht für Miniaturansichten. {Codec} – Der Typ des Audio-/Video-Codecs. {Resolution} – Die Videoauflösung. Alle nicht substituierten Makros werden reduziert und aus dem Dateinamen entfernt. |
JpgImage
Beschreibt die Eigenschaften zum Erstellen einer Reihe von JPEG-Bildern aus dem Eingabevideo.
Name | Typ | Beschreibung |
---|---|---|
@odata.type |
string:
#Microsoft. |
Der Diskriminator für abgeleitete Typen. |
keyFrameInterval |
string |
Der Abstand zwischen zwei Keyframes. Der Wert sollte im Bereich [0,5, 20] Sekunden ungleich null sein, der im ISO 8601-Format angegeben ist. Der Standardwert ist 2 Sekunden (PT2S). Beachten Sie, dass diese Einstellung ignoriert wird, wenn VideoSyncMode.Passthrough festgelegt ist, wobei der KeyFrameInterval-Wert der Eingabequelleneinstellung folgt. |
label |
string |
Eine optionale Bezeichnung für den Codec. Die Bezeichnung kann verwendet werden, um das Muxingverhalten zu steuern. |
layers |
Jpg |
Eine Sammlung von JPEG-Ausgabebildebenen, die vom Encoder erzeugt werden sollen. |
range |
string |
Die Position relativ zur transformationsvoreingestellten Startzeit im Eingabevideo, an der die Generierung von Miniaturansichten beendet werden soll. Der Wert kann im ISO 8601-Format (z. B. PT5M30S, um bei 5 Minuten und 30 Sekunden ab der Startzeit anzuhalten) oder eine Frameanzahl (z. B. 300, um beim 300. Frame des Frames zum Start anzuhalten) sein. Wenn dieser Wert 1 ist, bedeutet dies, dass zur Startzeit nur eine Miniaturansicht oder ein relativer Wert zur Streamdauer erzeugt wird (z. B. 50 %, um bei der Hälfte der Streamdauer ab der Startzeit anzuhalten). Der Standardwert ist 100 %. Dies bedeutet, dass am Ende des Streams angehalten werden soll. |
spriteColumn |
integer |
Legt die Anzahl der Spalten fest, die im Miniaturansichts-Sprite-Bild verwendet werden. Die Anzahl der Zeilen wird automatisch berechnet, und eine VTT-Datei mit den Koordinatenzuordnungen für jede Miniaturansicht im Sprite wird generiert. Hinweis: Dieser Wert sollte eine positive ganze Zahl sein, und ein korrekter Wert wird empfohlen, damit die Auflösung des Ausgabebilds nicht über das maximale JPEG-Pixelauflösungslimit von 65535 x 655535 hinausgeht. |
start |
string |
Die Position im Eingabevideo, von der aus mit der Erstellung von Miniaturansichten begonnen werden soll. Der Wert kann das ISO 8601-Format aufweisen, z. B. PT05S, damit ab fünf Sekunden gestartet wird, oder die Nummer eines Frames, z. B. 10, damit beim zehnten Frame gestartet wird, oder einen relativen Wert zur Dauer des Streams, z. B. 10 %, damit bei zehn Prozent der Gesamtdauer des Streams gestartet wird. Außerdem wird ein Makro namens {Best} unterstützt, das den Encoder anweist, die beste Vorschauminiatur aus den ersten Sekunden des Videos auszuwählen. Dabei wird unabhängig von anderen Einstellungen für „step“ und „range“ nur eine Vorschauminiatur erstellt. Der Standardwert des Makros lautet {Best}. |
step |
string |
Die Intervalle, in denen Miniaturansichten generiert werden. Der Wert kann im ISO 8601-Format (z. B. PT05S für ein Bild alle 5 Sekunden) oder eine Frameanzahl (z. B. 30 für ein Bild alle 30 Frames) oder ein relativer Wert für die Streamdauer (z. B. 10 % für ein Bild alle 10 % der Datenstromdauer) sein. Hinweis: Der Schrittwert wirkt sich auf die erste generierte Miniaturansicht aus, die möglicherweise nicht genau die Miniaturansicht ist, die bei der Startzeit der transformationsvoreingestellten Transformation angegeben wurde. Dies ist auf den Encoder zurückzuführen, der versucht, die beste Miniaturansicht zwischen Startzeit und Schrittposition von der Startzeit als erste Ausgabe auszuwählen. Da der Standardwert 10 % beträgt, bedeutet dies, dass die erste generierte Miniaturansicht, wenn der Stream eine lange Dauer hat, möglicherweise weit von der zur Startzeit angegebenen Miniaturansicht entfernt ist. Versuchen Sie, einen angemessenen Wert für Schritt auszuwählen, wenn die erste Miniaturansicht nahe der Startzeit erwartet wird, oder legen Sie den Wert bereich auf 1 fest, wenn zur Startzeit nur eine Miniaturansicht erforderlich ist. |
stretchMode |
Der Größenänderungsmodus: Die Größe des Eingabevideos wird an die gewünschte Ausgabeauflösung(en) angepasst. Die Standardeinstellung ist AutoSize. |
|
syncMode |
Videosynchronisierungsmodus |
JpgLayer
Beschreibt die Einstellungen zum Erstellen eines JPEG-Bilds aus dem Eingabevideo.
Name | Typ | Beschreibung |
---|---|---|
height |
string |
Die Höhe des Ausgabevideos für diese Ebene. Der Wert kann absolut (in Pixel) oder relativ (in Prozent) sein. Beispielsweise bedeutet 50 %, dass das Ausgabevideo halb so viele Pixel in der Höhe hat wie die Eingabe. |
label |
string |
Die alphanumerische Bezeichnung für diese Ebene, die zum Multiplexen verschiedener Video- und Audioebenen oder zum Benennen der Ausgabedatei verwendet werden kann. |
quality |
integer |
Die Komprimierungsqualität der JPEG-Ausgabe. Der Bereich liegt zwischen 0 und 100, der Standardwert ist 70. |
width |
string |
Die Breite des Ausgabevideos für diese Ebene. Der Wert kann absolut (in Pixel) oder relativ (in Prozent) sein. Beispielsweise bedeutet 50 %, dass das Ausgabevideo halb so viele Pixel breit ist wie die Eingabe. |
Mp4Format
Beschreibt die Eigenschaften für eine AUSGABE-ISO-MP4-Datei.
Name | Typ | Beschreibung |
---|---|---|
@odata.type |
string:
#Microsoft. |
Der Diskriminator für abgeleitete Typen. |
filenamePattern |
string |
Das Dateibenennungsmuster, das für die Erstellung von Ausgabedateien verwendet wird. Die folgenden Makros werden im Dateinamen unterstützt: {Basename} – Ein Erweiterungsmakro, das den Namen der Eingabevideodatei verwendet. Wenn der Basisname (das Dateisuffix ist nicht enthalten) der Eingabevideodatei weniger als 32 Zeichen lang ist, wird der Basisname der Eingabevideodateien verwendet. Wenn die Länge des Basisnamens der Eingabevideodatei 32 Zeichen überschreitet, wird der Basisname auf die ersten 32 Zeichen der Gesamtlänge gekürzt. {Extension} – Die entsprechende Erweiterung für dieses Format. {Label} – Die Bezeichnung, die dem Codec/der Ebene zugewiesen ist. {Index} – Ein eindeutiger Index für Miniaturansichten. Gilt nur für Miniaturansichten. {AudioStream} - Zeichenfolge "Audio" plus Audiostreamnummer (Start von 1). {Bitrate} – Die Audio-/Videobitrate in Kbit/s. Gilt nicht für Miniaturansichten. {Codec} – Der Typ des Audio-/Video-Codecs. {Resolution} – Die Videoauflösung. Alle nicht substituierten Makros werden reduziert und aus dem Dateinamen entfernt. |
outputFiles |
Die Liste der zu erstellenden Ausgabedateien. Jeder Eintrag in der Liste ist eine Gruppe von Beschriftungen der Audio- und Videoebene, die zusammen muxiert werden sollen. |
MultiBitrateFormat
Beschreibt die Eigenschaften zum Erstellen einer Auflistung von GOP-ausgerichteten Dateien mit mehreren Bitraten. Das Standardverhalten besteht darin, eine Ausgabedatei für jede Videoebene zu erstellen, die zusammen mit allen Audios muxiert wird. Die genau erstellten Ausgabedateien können durch Angabe der outputFiles-Auflistung gesteuert werden.
Name | Typ | Beschreibung |
---|---|---|
@odata.type |
string:
#Microsoft. |
Der Diskriminator für abgeleitete Typen. |
filenamePattern |
string |
Das Dateibenennungsmuster, das für die Erstellung von Ausgabedateien verwendet wird. Die folgenden Makros werden im Dateinamen unterstützt: {Basename} – Ein Erweiterungsmakro, das den Namen der Eingabevideodatei verwendet. Wenn der Basisname (das Dateisuffix ist nicht enthalten) der Eingabevideodatei weniger als 32 Zeichen lang ist, wird der Basisname der Eingabevideodateien verwendet. Wenn die Länge des Basisnamens der Eingabevideodatei 32 Zeichen überschreitet, wird der Basisname auf die ersten 32 Zeichen der Gesamtlänge gekürzt. {Extension} – Die entsprechende Erweiterung für dieses Format. {Label} – Die Bezeichnung, die dem Codec/der Ebene zugewiesen ist. {Index} – Ein eindeutiger Index für Miniaturansichten. Gilt nur für Miniaturansichten. {AudioStream} - Zeichenfolge "Audio" plus Audiostreamnummer (Start von 1). {Bitrate} – Die Audio-/Videobitrate in Kbit/s. Gilt nicht für Miniaturansichten. {Codec} – Der Typ des Audio-/Video-Codecs. {Resolution} – Die Videoauflösung. Alle nicht substituierten Makros werden reduziert und aus dem Dateinamen entfernt. |
outputFiles |
Die Liste der zu erstellenden Ausgabedateien. Jeder Eintrag in der Liste ist eine Gruppe von Beschriftungen der Audio- und Videoebene, die zusammen muxiert werden sollen. |
OnErrorType
Eine Transformation kann mehrere Ausgaben definieren. Diese Eigenschaft definiert, was der Dienst tun soll, wenn eine Ausgabe fehlschlägt– entweder weiterhin andere Ausgaben zu erzeugen oder die anderen Ausgaben zu beenden. Der allgemeine Auftragszustand spiegelt keine Fehler von Ausgaben wider, die mit "ContinueJob" angegeben sind. Der Standardwert ist "StopProcessingJob".
Name | Typ | Beschreibung |
---|---|---|
ContinueJob |
string |
Teilt dem Dienst mit, dass, wenn dieser TransformOutput fehlschlägt, alle anderen TransformOutput-Vorgänge fortgesetzt werden können. |
StopProcessingJob |
string |
Teilt dem Dienst mit, dass alle anderen unvollständigen TransformOutputs beendet werden können, wenn dieser TransformOutput fehlschlägt. |
OutputFile
Stellt eine generierte Ausgabedatei dar.
Name | Typ | Beschreibung |
---|---|---|
labels |
string[] |
Die Liste der Bezeichnungen, die beschreiben, wie der Encoder Video und Audio in eine Ausgabedatei multiplexen soll. Wenn der Encoder beispielsweise zwei Videoebenen mit den Bezeichnungen v1 und v2 und eine Audioebene mit der Bezeichnung a1 erzeugt, teilt ein Array wie "[v1, a1]" dem Encoder mit, eine Ausgabedatei mit der durch v1 dargestellten Videospur und der durch a1 dargestellten Audiospur zu erstellen. |
PngFormat
Beschreibt die Einstellungen zum Erstellen von PNG-Miniaturansichten.
Name | Typ | Beschreibung |
---|---|---|
@odata.type |
string:
#Microsoft. |
Der Diskriminator für abgeleitete Typen. |
filenamePattern |
string |
Das Dateibenennungsmuster, das für die Erstellung von Ausgabedateien verwendet wird. Die folgenden Makros werden im Dateinamen unterstützt: {Basename} – Ein Erweiterungsmakro, das den Namen der Eingabevideodatei verwendet. Wenn der Basisname (das Dateisuffix ist nicht enthalten) der Eingabevideodatei weniger als 32 Zeichen lang ist, wird der Basisname der Eingabevideodateien verwendet. Wenn die Länge des Basisnamens der Eingabevideodatei 32 Zeichen überschreitet, wird der Basisname auf die ersten 32 Zeichen der Gesamtlänge gekürzt. {Extension} – Die entsprechende Erweiterung für dieses Format. {Label} – Die Bezeichnung, die dem Codec/der Ebene zugewiesen ist. {Index} – Ein eindeutiger Index für Miniaturansichten. Gilt nur für Miniaturansichten. {AudioStream} - Zeichenfolge "Audio" plus Audiostreamnummer (Start von 1). {Bitrate} – Die Audio-/Videobitrate in Kbit/s. Gilt nicht für Miniaturansichten. {Codec} – Der Typ des Audio-/Video-Codecs. {Resolution} – Die Videoauflösung. Alle nicht substituierten Makros werden reduziert und aus dem Dateinamen entfernt. |
PngImage
Beschreibt die Eigenschaften zum Erstellen einer Reihe von PNG-Bildern aus dem Eingabevideo.
Name | Typ | Beschreibung |
---|---|---|
@odata.type |
string:
#Microsoft. |
Der Diskriminator für abgeleitete Typen. |
keyFrameInterval |
string |
Der Abstand zwischen zwei Keyframes. Der Wert sollte im Bereich [0,5, 20] Sekunden ungleich null sein, der im ISO 8601-Format angegeben ist. Der Standardwert ist 2 Sekunden (PT2S). Beachten Sie, dass diese Einstellung ignoriert wird, wenn VideoSyncMode.Passthrough festgelegt ist, wobei der KeyFrameInterval-Wert der Eingabequelleneinstellung folgt. |
label |
string |
Eine optionale Bezeichnung für den Codec. Die Bezeichnung kann verwendet werden, um das Muxingverhalten zu steuern. |
layers |
Png |
Eine Sammlung von PNG-Ausgabebildebenen, die vom Encoder erzeugt werden sollen. |
range |
string |
Die Position relativ zur transformationsvoreingestellten Startzeit im Eingabevideo, an der die Generierung von Miniaturansichten beendet werden soll. Der Wert kann im ISO 8601-Format (z. B. PT5M30S, um bei 5 Minuten und 30 Sekunden ab der Startzeit anzuhalten) oder eine Frameanzahl (z. B. 300, um beim 300. Frame des Frames zum Start anzuhalten) sein. Wenn dieser Wert 1 ist, bedeutet dies, dass zur Startzeit nur eine Miniaturansicht oder ein relativer Wert zur Streamdauer erzeugt wird (z. B. 50 %, um bei der Hälfte der Streamdauer ab der Startzeit anzuhalten). Der Standardwert ist 100 %. Dies bedeutet, dass am Ende des Streams angehalten werden soll. |
start |
string |
Die Position im Eingabevideo, von der aus mit der Erstellung von Miniaturansichten begonnen werden soll. Der Wert kann das ISO 8601-Format aufweisen, z. B. PT05S, damit ab fünf Sekunden gestartet wird, oder die Nummer eines Frames, z. B. 10, damit beim zehnten Frame gestartet wird, oder einen relativen Wert zur Dauer des Streams, z. B. 10 %, damit bei zehn Prozent der Gesamtdauer des Streams gestartet wird. Außerdem wird ein Makro namens {Best} unterstützt, das den Encoder anweist, die beste Vorschauminiatur aus den ersten Sekunden des Videos auszuwählen. Dabei wird unabhängig von anderen Einstellungen für „step“ und „range“ nur eine Vorschauminiatur erstellt. Der Standardwert des Makros lautet {Best}. |
step |
string |
Die Intervalle, in denen Miniaturansichten generiert werden. Der Wert kann im ISO 8601-Format (z. B. PT05S für ein Bild alle 5 Sekunden) oder eine Frameanzahl (z. B. 30 für ein Bild alle 30 Frames) oder ein relativer Wert für die Streamdauer (z. B. 10 % für ein Bild alle 10 % der Datenstromdauer) sein. Hinweis: Der Schrittwert wirkt sich auf die erste generierte Miniaturansicht aus, die möglicherweise nicht genau die Miniaturansicht ist, die bei der Startzeit der transformationsvoreingestellten Transformation angegeben wurde. Dies ist auf den Encoder zurückzuführen, der versucht, die beste Miniaturansicht zwischen Startzeit und Schrittposition von der Startzeit als erste Ausgabe auszuwählen. Da der Standardwert 10 % beträgt, bedeutet dies, dass die erste generierte Miniaturansicht, wenn der Stream eine lange Dauer hat, möglicherweise weit von der zur Startzeit angegebenen Miniaturansicht entfernt ist. Versuchen Sie, einen angemessenen Wert für Schritt auszuwählen, wenn die erste Miniaturansicht nahe der Startzeit erwartet wird, oder legen Sie den Wert bereich auf 1 fest, wenn zur Startzeit nur eine Miniaturansicht erforderlich ist. |
stretchMode |
Der Größenänderungsmodus: Die Größe des Eingabevideos wird an die gewünschte Ausgabeauflösung(en) angepasst. Die Standardeinstellung ist AutoSize. |
|
syncMode |
Videosynchronisierungsmodus |
PngLayer
Beschreibt die Einstellungen zum Erstellen eines PNG-Bilds aus dem Eingabevideo.
Name | Typ | Beschreibung |
---|---|---|
height |
string |
Die Höhe des Ausgabevideos für diese Ebene. Der Wert kann absolut (in Pixel) oder relativ (in Prozent) sein. Beispielsweise bedeutet 50 %, dass das Ausgabevideo halb so viele Pixel in der Höhe hat wie die Eingabe. |
label |
string |
Die alphanumerische Bezeichnung für diese Ebene, die zum Multiplexen verschiedener Video- und Audioebenen oder zum Benennen der Ausgabedatei verwendet werden kann. |
width |
string |
Die Breite des Ausgabevideos für diese Ebene. Der Wert kann absolut (in Pixel) oder relativ (in Prozent) sein. Beispielsweise bedeutet 50 %, dass das Ausgabevideo halb so viele Pixel breit ist wie die Eingabe. |
PresetConfigurations
Ein Objekt mit optionalen Konfigurationseinstellungen für den Encoder.
Name | Typ | Beschreibung |
---|---|---|
complexity |
Ermöglicht Ihnen das Konfigurieren der Encodereinstellungen, um das Gleichgewicht zwischen Geschwindigkeit und Qualität zu steuern. Beispiel: Legen Sie Komplexität auf Geschwindigkeit fest, um eine schnellere Codierung, aber eine geringere Komprimierungseffizienz zu erzielen. |
|
interleaveOutput |
Legt den Interleave-Modus der Ausgabe fest, um zu steuern, wie Audio und Video im Containerformat gespeichert werden. Beispiel: Legen Sie InterleavedOutput auf NonInterleavedOutput fest, um audio- und videogeschützte Ausgaben in separaten MP4-Dateien zu erzeugen. |
|
keyFrameIntervalInSeconds |
number |
Das Keyframeintervall in Sekunden. Beispiel: Legen Sie KeyFrameIntervalInSeconds auf 2 fest, um den Wiedergabepuffer für einige Spieler zu verringern. |
maxBitrateBps |
integer |
Die maximale Bitrate in Bits pro Sekunde (Schwellenwert für die oberste Videoebene). Beispiel: Legen Sie MaxBitrateBps auf 6000000 fest, um die Ausgabe sehr hoher Bitrate für Inhalte mit hoher Komplexität zu vermeiden. |
maxHeight |
integer |
Die maximale Höhe der Ausgabevideoebenen. Beispiel: Legen Sie MaxHeight auf 720 fest, um Ausgabeebenen bis zu 720P zu erzeugen, auch wenn die Eingabe 4K ist. |
maxLayers |
integer |
Die maximale Anzahl von Ausgabevideoebenen. Beispiel: Legen Sie MaxLayers auf 4 fest, um sicherzustellen, dass maximal 4 Ausgabeebenen erstellt werden, um die Gesamtkosten des Codierungsauftrags zu steuern. |
minBitrateBps |
integer |
Die minimale Bitrate in Bits pro Sekunde (Schwellenwert für die untere Videoebene). Beispiel: Legen Sie MinBitrateBps auf 200000 fest, um eine untere Ebene zu erhalten, die Benutzer mit geringer Netzwerkbandbreite abdeckt. |
minHeight |
integer |
Die Mindesthöhe der Ausgabevideoebenen. Beispiel: Legen Sie MinHeight auf 360 fest, um Ausgabeebenen kleinerer Auflösungen wie 180P zu vermeiden. |
Priority
Legt die relative Priorität der TransformOutputs innerhalb einer Transformation fest. Dadurch wird die Priorität festgelegt, die der Dienst für die Verarbeitung von TransformOutputs verwendet. Die Standardpriorität ist Normal.
Name | Typ | Beschreibung |
---|---|---|
High |
string |
Wird für TransformOutputs verwendet, die Vorrang vor anderen haben sollten. |
Low |
string |
Wird für TransformOutputs verwendet, die nach TransformOutputs mit normaler und hoher Priorität generiert werden können. |
Normal |
string |
Wird für TransformOutputs verwendet, die mit normaler Priorität generiert werden können. |
Rectangle
Beschreibt die Eigenschaften eines rechteckigen Fensters, das vor der Verarbeitung auf das Eingabemedium angewendet wird.
Name | Typ | Beschreibung |
---|---|---|
height |
string |
Die Höhe des rechteckigen Bereichs in Pixel. Dies kann ein absoluter Pixelwert (z. B. 100) oder relativ zur Größe des Videos (z. B. 50 %) sein. |
left |
string |
Die Anzahl der Pixel vom linken Rand. Dies kann ein absoluter Pixelwert (z. B. 100) oder relativ zur Größe des Videos (z. B. 50 %) sein. |
top |
string |
Die Anzahl der Pixel vom oberen Rand. Dies kann ein absoluter Pixelwert (z. B. 100) oder relativ zur Größe des Videos (z. B. 50 %) sein. |
width |
string |
Die Breite des rechteckigen Bereichs in Pixel. Dies kann ein absoluter Pixelwert (z. B. 100) oder relativ zur Größe des Videos (z. B. 50 %) sein. |
Rotation
Die Drehung, falls vorhanden, die auf das Eingabevideo angewendet werden soll, bevor es codiert wird. Der Standardwert ist Auto.
Name | Typ | Beschreibung |
---|---|---|
Auto |
string |
Automatische Erkennung und Drehung nach Bedarf. |
None |
string |
Drehen Sie das Video nicht. Wenn das Ausgabeformat dies unterstützt, bleiben alle Metadaten zur Rotation intakt. |
Rotate0 |
string |
Drehen Sie das Video nicht, sondern entfernen Sie alle Metadaten zur Drehung. |
Rotate180 |
string |
Drehen Sie sich um 180 Grad im Uhrzeigersinn. |
Rotate270 |
string |
Drehen Sie sich um 270 Grad im Uhrzeigersinn. |
Rotate90 |
string |
Drehen Sie sich um 90 Grad im Uhrzeigersinn. |
StandardEncoderPreset
Beschreibt alle Einstellungen, die beim Codieren des Eingabevideos mit dem Standardencoder verwendet werden sollen.
Name | Typ | Beschreibung |
---|---|---|
@odata.type |
string:
#Microsoft. |
Der Diskriminator für abgeleitete Typen. |
codecs | Codec[]: |
Die Liste der Codecs, die beim Codieren des Eingabevideos verwendet werden sollen. |
experimentalOptions |
object |
Wörterbuch mit Schlüsselwertpaaren für Parameter, die in der Voreinstellung selbst nicht verfügbar gemacht werden |
filters |
Mindestens ein Filtervorgänge, der vor der Codierung auf die Eingabemedien angewendet wird. |
|
formats | Format[]: |
Die Liste der Ausgaben, die vom Encoder erzeugt werden sollen. |
StretchMode
Der Größenänderungsmodus: Die Größe des Eingabevideos wird an die gewünschte Ausgabeauflösung(en) angepasst. Die Standardeinstellung ist AutoSize.
Name | Typ | Beschreibung |
---|---|---|
AutoFit |
string |
Binden Sie die Ausgabe (entweder mit Briefkasten oder Säulenfeld) ein, um die Ausgabeauflösung zu berücksichtigen, und stellen Sie sicher, dass der aktive Videobereich in der Ausgabe das gleiche Seitenverhältnis wie die Eingabe aufweist. Wenn die Eingabe beispielsweise 1920x1080 ist und die Codierungsvoreinstellung nach 1280 x 1280 fragt, liegt die Ausgabe bei 1280 x 1280, die ein inneres Rechteck von 1280x720 im Seitenverhältnis von 16:9 und Säulenfeldbereiche mit einer Breite von 280 Pixeln links und rechts enthält. |
AutoSize |
string |
Überschreiben Sie die Ausgabeauflösung, und ändern Sie sie so, dass sie dem Anzeigeseitenverhältnis der Eingabe ohne Auffüllung entspricht. Wenn die Auflösung der Eingabe beispielsweise 1920 × 1080 ist und die Codierungsvoreinstellung 1280 × 1280 fordert, wird der Wert in der Voreinstellung außer Kraft gesetzt, und die Ausgabe erfolgt in 1280 × 720, sodass das Eingabeseitenverhältnis von 16 : 9 beibehalten wird. |
None |
string |
Achten Sie streng auf die Ausgabeauflösung, ohne das Pixelseitenverhältnis oder das Anzeigeseitenverhältnis des Eingabevideos zu berücksichtigen. |
systemData
Metadaten, die sich auf die Erstellung und letzte Änderung der Ressource beziehen.
Name | Typ | Beschreibung |
---|---|---|
createdAt |
string |
Der Zeitstempel der Ressourcenerstellung (UTC). |
createdBy |
string |
Die Identität, die die Ressource erstellt hat. |
createdByType |
Der Identitätstyp, der die Ressource erstellt hat. |
|
lastModifiedAt |
string |
Der Zeitstempel der letzten Änderung der Ressource (UTC) |
lastModifiedBy |
string |
Die Identität, die die Ressource zuletzt geändert hat. |
lastModifiedByType |
Der Identitätstyp, der die Ressource zuletzt geändert hat. |
Transform
Eine Transformation kapselt die Regeln oder Anweisungen zum Generieren gewünschter Ausgaben aus Eingabemedien, z. B. durch Transcodierung oder durch Extrahieren von Erkenntnissen. Nachdem die Transformation erstellt wurde, kann sie auf Eingabemedien angewendet werden, indem Aufträge erstellt werden.
Name | Typ | Beschreibung |
---|---|---|
id |
string |
Vollqualifizierte Ressourcen-ID für die Ressource. Beispiel: /subscriptions/{subscriptionId}/resourceGroups/{resourceGroupName}/providers/{resourceProviderNamespace}/{resourceType}/{resourceName} |
name |
string |
Der Name der Ressource |
properties.created |
string |
Das Datum und die Uhrzeit (in UTC), an dem die Transformation erstellt wurde, im Format „JJJJ-MM-TTThh:mm:ssZ“. |
properties.description |
string |
Eine ausführliche Beschreibung der Transformation. |
properties.lastModified |
string |
Das Datum und die Uhrzeit (in UTC), an dem die Transformation zuletzt aktualisiert wurde, im Format „JJJJ-MM-TTTss:mm:ssZ“. |
properties.outputs |
Ein Array von mindestens einem TransformOutput-Objekt, das die Transformation generieren soll. |
|
systemData |
Die Systemmetadaten, die sich auf diese Ressource beziehen. |
|
type |
string |
Der Typ der Ressource. Z.B. "Microsoft.Compute/virtualMachines" oder "Microsoft.Storage/storageAccounts" |
TransformOutput
Beschreibt die Eigenschaften eines TransformOutput, bei denen es sich um die Regeln handelt, die beim Generieren der gewünschten Ausgabe angewendet werden sollen.
Name | Typ | Beschreibung |
---|---|---|
onError |
Eine Transformation kann mehrere Ausgaben definieren. Diese Eigenschaft definiert, was der Dienst tun soll, wenn eine Ausgabe fehlschlägt– entweder weiterhin andere Ausgaben zu erzeugen oder die anderen Ausgaben zu beenden. Der allgemeine Auftragszustand spiegelt keine Fehler von Ausgaben wider, die mit "ContinueJob" angegeben sind. Der Standardwert ist "StopProcessingJob". |
|
preset | Preset: |
Voreinstellung, die die Vorgänge beschreibt, die zum Ändern, Transcodieren oder Extrahieren von Erkenntnissen aus der Quelldatei verwendet werden, um die Ausgabe zu generieren. |
relativePriority |
Legt die relative Priorität der TransformOutputs innerhalb einer Transformation fest. Dadurch wird die Priorität festgelegt, die der Dienst für die Verarbeitung von TransformOutputs verwendet. Die Standardpriorität ist Normal. |
TransportStreamFormat
Beschreibt die Eigenschaften zum Generieren einer MPEG-2-Transportstream-Ausgabedatei (ISO/IEC 13818-1).
Name | Typ | Beschreibung |
---|---|---|
@odata.type |
string:
#Microsoft. |
Der Diskriminator für abgeleitete Typen. |
filenamePattern |
string |
Das Dateibenennungsmuster, das für die Erstellung von Ausgabedateien verwendet wird. Die folgenden Makros werden im Dateinamen unterstützt: {Basename} – Ein Erweiterungsmakro, das den Namen der Eingabevideodatei verwendet. Wenn der Basisname (das Dateisuffix ist nicht enthalten) der Eingabevideodatei weniger als 32 Zeichen lang ist, wird der Basisname der Eingabevideodateien verwendet. Wenn die Länge des Basisnamens der Eingabevideodatei 32 Zeichen überschreitet, wird der Basisname auf die ersten 32 Zeichen der Gesamtlänge gekürzt. {Extension} – Die entsprechende Erweiterung für dieses Format. {Label} – Die Bezeichnung, die dem Codec/der Ebene zugewiesen ist. {Index} – Ein eindeutiger Index für Miniaturansichten. Gilt nur für Miniaturansichten. {AudioStream} - Zeichenfolge "Audio" plus Audiostreamnummer (Start von 1). {Bitrate} – Die Audio-/Videobitrate in Kbit/s. Gilt nicht für Miniaturansichten. {Codec} – Der Typ des Audio-/Video-Codecs. {Resolution} – Die Videoauflösung. Alle nicht substituierten Makros werden reduziert und aus dem Dateinamen entfernt. |
outputFiles |
Die Liste der zu erstellenden Ausgabedateien. Jeder Eintrag in der Liste ist eine Gruppe von Beschriftungen der Audio- und Videoebene, die zusammen muxiert werden sollen. |
Video
Beschreibt die grundlegenden Eigenschaften für die Codierung des Eingabevideos.
Name | Typ | Beschreibung |
---|---|---|
@odata.type |
string:
#Microsoft. |
Der Diskriminator für abgeleitete Typen. |
keyFrameInterval |
string |
Der Abstand zwischen zwei Keyframes. Der Wert sollte ungleich Null im Bereich [0,5, 20] Sekunden sein, der im ISO 8601-Format angegeben ist. Der Standardwert ist 2 Sekunden (PT2S). Beachten Sie, dass diese Einstellung ignoriert wird, wenn VideoSyncMode.Passthrough festgelegt ist, wobei der KeyFrameInterval-Wert der Einstellung für die Eingabequelle folgt. |
label |
string |
Eine optionale Bezeichnung für den Codec. Die Bezeichnung kann verwendet werden, um das Muxingverhalten zu steuern. |
stretchMode |
Der Größenänderungsmodus: Gibt an, wie die Größe des Eingabevideos an die gewünschte Ausgabeauflösung angepasst wird. Der Standardwert ist AutoSize. |
|
syncMode |
Videosynchronisierungsmodus |
VideoAnalyzerPreset
Eine Videoanalysevoreinstellung, die Erkenntnisse (umfangreiche Metadaten) aus Audio und Video extrahiert und eine JSON-Formatdatei ausgibt.
Name | Typ | Beschreibung |
---|---|---|
@odata.type |
string:
#Microsoft. |
Der Diskriminator für abgeleitete Typen. |
audioLanguage |
string |
Die Sprache für die Audionutzlast in der Eingabe im BCP-47-Format von "language tag-region" (z. B. "en-US"). Wenn Sie die Sprache Ihrer Inhalte kennen, empfiehlt es sich, sie anzugeben. Die Sprache muss für AudioAnalysisMode::Basic explizit angegeben werden, da die automatische Spracherkennung nicht im Einfachen Modus enthalten ist. Wenn die Sprache nicht angegeben oder auf NULL festgelegt ist, wählt die automatische Spracherkennung die erste erkannte Sprache aus und führt die Verarbeitung für die ausgewählte Sprache für die Länge der Datei durch. Sie unterstützt derzeit keine dynamische Umschaltung zwischen Sprachen, nachdem die erste Sprache erkannt wurde. Die automatische Erkennung funktioniert am besten bei Audioaufzeichnungen mit deutlich erkennbarer Sprache. Wenn die Sprache bei der automatischen Erkennung nicht gefunden werden kann, würde die Transkription auf "en-US" zurückfallen." Die Liste der unterstützten Sprachen finden Sie hier: https://go.microsoft.com/fwlink/?linkid=2109463 |
experimentalOptions |
object |
Wörterbuch, das Schlüsselwertpaare für Parameter enthält, die in der Voreinstellung selbst nicht verfügbar gemacht werden |
insightsToExtract |
Definiert den Typ der Erkenntnisse, die der Dienst generieren soll. Die zulässigen Werte sind "AudioInsightsOnly", "VideoInsightsOnly" und "AllInsights". Der Standardwert ist AllInsights. Wenn Sie dies auf AllInsights festlegen und die Eingabe nur Audio ist, werden nur Audioerkenntnisse generiert. Wenn es sich bei der Eingabe nur um Video handelt, werden auch nur Videoeinblicke generiert. Es wird empfohlen, AudioInsightsOnly nicht zu verwenden, wenn Sie erwarten, dass einige Ihrer Eingaben nur Video sind. oder verwenden Sie VideoInsightsOnly, wenn Sie erwarten, dass einige Ihrer Eingaben nur Audio sind. Ihre Aufträge unter solchen Bedingungen würden einen Fehler verursachen. |
|
mode |
Bestimmt den Satz der auszuführenden Audioanalysevorgänge. Wenn nicht angegeben, wird der Standard AudioAnalysisMode ausgewählt. |
VideoOverlay
Beschreibt die Eigenschaften einer Videoüberlagerung.
Name | Typ | Beschreibung |
---|---|---|
@odata.type |
string:
#Microsoft. |
Der Diskriminator für abgeleitete Typen. |
audioGainLevel |
number |
Der Verstärkungsgrad des Audios in der Überlagerung. Der Wert sollte im Bereich [0, 1,0] liegen. Der Standardwert ist 1.0. |
cropRectangle |
Ein optionales rechteckiges Fenster, das zum Zuschneiden des Überlagerungsbilds oder Videos verwendet wird. |
|
end |
string |
Die Endposition mit Verweis auf das Eingabevideo, an dem das Overlay endet. Der Wert sollte im ISO 8601-Format vorliegen. Beispiel: PT30S, um die Überlagerung bei 30 Sekunden im Eingabevideo zu beenden. Wenn nicht angegeben oder der Wert größer als die Dauer des Eingabevideos ist, wird die Überlagerung bis zum Ende des Eingabevideos angewendet, wenn die Dauer der Überlagerungsmedien größer als die Dauer des Eingabevideos ist, andernfalls dauert die Überlagerung so lange wie die Überlagerungsmediendauer. |
fadeInDuration |
string |
Die Dauer, über die das Overlay auf dem Eingabevideo verblasst. Der Wert sollte im ISO 8601-Dauerformat vorliegen. Wenn nicht angegeben, besteht das Standardverhalten darin, kein Einblenden zu haben (identisch mit PT0S). |
fadeOutDuration |
string |
Die Dauer, in der die Überlagerung aus dem Eingabevideo verblasst. Der Wert sollte im ISO 8601-Dauerformat vorliegen. Wenn nicht angegeben, besteht das Standardverhalten darin, kein Ausblenden zu haben (identisch mit PT0S). |
inputLabel |
string |
Die Bezeichnung der Auftragseingabe, die als Überlagerung verwendet werden soll. Die Eingabe muss genau eine Datei angeben. Sie können eine Bilddatei im JPG-, PNG-, GIF- oder BMP-Format oder eine Audiodatei (z. B. eine WAV-, MP3-, WMA- oder M4A-Datei) oder eine Videodatei angeben. Eine vollständige Liste der unterstützten Audio- und Videodateiformate finden Sie https://aka.ms/mesformats unter. |
opacity |
number |
Die Deckkraft der Überlagerung. Dies ist ein Wert im Bereich [0 - 1,0]. Der Standardwert ist 1.0, was bedeutet, dass die Überlagerung undurchsichtig ist. |
position |
Die Position im Eingabevideo, an der das Overlay angewendet wird. |
|
start |
string |
Die Startposition mit Verweis auf das Eingabevideo, an dem das Overlay beginnt. Der Wert sollte im ISO 8601-Format vorliegen. Beispiel: PT05S, um das Overlay bei 5 Sekunden im Eingabevideo zu starten. Wenn nicht angegeben, beginnt die Überlagerung am Anfang des Eingabevideos. |
VideoSyncMode
Videosynchronisierungsmodus
Name | Typ | Beschreibung |
---|---|---|
Auto |
string |
Dies ist die Standardmethode. Wählt je nach Muxer-Funktionen zwischen Cfr und Vfr aus. Für das Ausgabeformat MP4 ist der Standardmodus Cfr. |
Cfr |
string |
Eingabeframes werden bei Bedarf wiederholt und/oder gelöscht, um genau die angeforderte konstante Bildrate zu erreichen. Empfohlen, wenn die Ausgabebildrate explizit auf einen angegebenen Wert festgelegt wird |
Passthrough |
string |
Die Präsentationszeitstempel für Frames werden von der Eingabedatei an den Ausgabedateischreiber übergeben. Empfohlen, wenn die Eingabequelle über eine variable Framerate verfügt und versucht, mehrere Ebenen für adaptives Streaming in der Ausgabe mit abgestimmten GOP-Grenzen zu erzeugen. Hinweis: Wenn mindestens zwei Frames in der Eingabe doppelte Zeitstempel aufweisen, weist auch die Ausgabe das gleiche Verhalten auf. |
Vfr |
string |
Ähnlich wie der Passthrough-Modus, aber wenn die Eingabe Über Frames mit doppelten Zeitstempeln verfügt, wird nur ein Frame an die Ausgabe übergeben, und andere werden gelöscht. Empfohlen, wenn die Anzahl der Ausgabeframes der Anzahl der Eingabeframes entspricht. Die Ausgabe wird beispielsweise verwendet, um eine Qualitätsmetrik wie PSNR für die Eingabe zu berechnen. |