Jobs - Get
Get Job
Ruft einen Auftrag ab.
GET https://management.azure.com/subscriptions/{subscriptionId}/resourceGroups/{resourceGroupName}/providers/Microsoft.Media/mediaServices/{accountName}/transforms/{transformName}/jobs/{jobName}?api-version=2022-07-01
URI-Parameter
Name | In | Erforderlich | Typ | Beschreibung |
---|---|---|---|---|
account
|
path | True |
string |
Der Name des Media Services-Kontos. |
job
|
path | True |
string |
Der Auftragsname. |
resource
|
path | True |
string |
Der Name der Ressourcengruppe innerhalb des Azure-Abonnements. |
subscription
|
path | True |
string |
Der eindeutige Bezeichner für ein Microsoft Azure-Abonnement. |
transform
|
path | True |
string |
Der Name der Transformation. |
api-version
|
query | True |
string |
Die Version der API, die mit der Clientanforderung verwendet werden soll. |
Antworten
Name | Typ | Beschreibung |
---|---|---|
200 OK |
OK |
|
Other Status Codes |
Ausführliche Fehlerinformationen. |
Beispiele
Get a Job by name
Beispielanforderung
Beispiel für eine Antwort
{
"name": "job1",
"id": "/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/contosoresources/providers/Microsoft.Media/mediaservices/contosomedia/transforms/exampleTransform/jobs/job1",
"type": "Microsoft.Media/mediaservices/transforms/jobs",
"properties": {
"created": "2021-06-01T00:00:00Z",
"state": "Queued",
"input": {
"@odata.type": "#Microsoft.Media.JobInputs",
"inputs": [
{
"@odata.type": "#Microsoft.Media.JobInputAsset",
"files": [],
"inputDefinitions": [],
"assetName": "job1-InputAsset"
}
]
},
"lastModified": "2021-06-01T00:00:00Z",
"outputs": [
{
"@odata.type": "#Microsoft.Media.JobOutputAsset",
"state": "Queued",
"progress": 0,
"label": "example-custom-label",
"assetName": "job1-OutputAsset"
}
],
"priority": "Low",
"correlationData": {}
},
"systemData": {
"createdBy": "contoso@microsoft.com",
"createdByType": "User",
"createdAt": "2021-06-01T00:00:00Z",
"lastModifiedBy": "contoso@microsoft.com",
"lastModifiedByType": "User",
"lastModifiedAt": "2021-06-01T00:00:00Z"
}
}
Definitionen
Name | Beschreibung |
---|---|
Aac |
Beschreibt AAC-Audiocodierungseinstellungen (Advanced Audio Codec). |
Aac |
Das Codierungsprofil, das beim Codieren von Audiodaten mit AAC verwendet werden soll. |
Absolute |
Gibt die Clipzeit als absolute Zeitposition in der Mediendatei an. Die absolute Zeit kann auf eine andere Position verweisen, je nachdem, ob die Mediendatei mit einem Zeitstempel von 0 beginnt oder nicht. |
Analysis |
Gibt die maximale Auflösung an, mit der Ihr Video analysiert wird. Das Standardverhalten ist "SourceResolution". Dadurch bleibt das Eingabevideo bei der Analyse in der ursprünglichen Auflösung. Mithilfe von "StandardDefinition" wird die Größe von Eingabevideos in die Standarddefinition geändert, wobei das entsprechende Seitenverhältnis beibehalten wird. Die Größe wird nur geändert, wenn das Video eine höhere Auflösung aufweist. Beispielsweise würde eine Eingabe von 1920 x 1080 vor der Verarbeitung auf 640 x 360 skaliert werden. Der Wechsel zu "StandardDefinition" reduziert die Zeit, die für die Verarbeitung hochauflösender Videos benötigt wird. Es kann auch die Kosten für die Verwendung dieser Komponente reduzieren (weitere Informationen finden Sie unter https://azure.microsoft.com/en-us/pricing/details/media-services/#analytics ). Gesichter, die im geänderten Video zu klein sind, werden jedoch möglicherweise nicht erkannt. |
Attribute |
Der Typ von AttributeFilter, der auf das TrackAttribute angewendet werden soll, um die Spuren auszuwählen. |
Audio |
Definiert die allgemeinen Eigenschaften für alle Audiocodecs. |
Audio |
Bestimmt den Satz der auszuführenden Audioanalysevorgänge. Wenn nicht angegeben, wird der Standard AudioAnalysisMode ausgewählt. |
Audio |
Die Audio Analyzer-Voreinstellung wendet einen vordefinierten Satz KI-basierter Analysevorgänge an, einschließlich Sprachtranskription. Die Voreinstellung unterstützt derzeit die Verarbeitung von Inhalten mit einer einzelnen Audiospur. |
Audio |
Beschreibt die Eigenschaften einer Audioüberlagerung. |
Audio |
Eine TrackSelection zum Auswählen von Audiospuren. |
Blur |
Weichzeichnertyp |
Built |
Beschreibt eine integrierte Voreinstellung zum Codieren des Eingabevideos mit dem Standardencoder. |
Channel |
Optionale Bezeichnung für Einkanal-Audiospuren. Kann verwendet werden, um die Tracks in Stereo- oder Mehrkanal-Audiospuren zu kombinieren. |
Complexity |
Ermöglicht Ihnen das Konfigurieren der Encodereinstellungen, um das Gleichgewicht zwischen Geschwindigkeit und Qualität zu steuern. Beispiel: Legen Sie Komplexität auf Geschwindigkeit fest, um eine schnellere Codierung, aber eine geringere Komprimierungseffizienz zu erzielen. |
Copy |
Ein Codecflag, das den Encoder angibt, den Eingabeaudiobitstream zu kopieren. |
Copy |
Ein Codecflag, das den Encoder angibt, den Bitstream des Eingabevideos ohne erneute Codierung zu kopieren. |
created |
Der Identitätstyp, der die Ressource erstellt hat. |
DDAudio |
Beschreibt die Audiocodierungseinstellungen des Dolby Digital Audio Codec (AC3). Die aktuelle Implementierung für Dolby Digital Audio-Unterstützung sind: Audiokanalnummern bei 1((mono), 2(stereo), 6(5.1side); Audio-Samplingfrequenzraten bei: 32K/44,1K/48K Hz; Audiobitratewerte als AC3-Spezifikation unterstützt: 32000, 40000, 48000, 56000, 64000, 80000, 96000, 112000, 128000, 160000, 192000, 224000, 256000, 320000, 384000, 448000, 512000, 576000, 640000 bps. |
Deinterlace |
Beschreibt die De-Interlacing-Einstellungen. |
Deinterlace |
Der Deinterlacing-Modus. Standardmäßig wird AutoPixelAdaptive verwendet. |
Deinterlace |
Die Feldparität für die Entflechtung wird standardmäßig auf Auto festgelegt. |
Encoder |
Die integrierte Voreinstellung, die zum Codieren von Videos verwendet werden soll. |
Entropy |
Der Entropiemodus, der für diese Ebene verwendet werden soll. Wenn nicht angegeben, wählt der Encoder den Modus aus, der für das Profil und die Ebene geeignet ist. |
Error |
Zusätzliche Informationen zum Ressourcenverwaltungsfehler. |
Error |
Die Fehlerdetails. |
Error |
Fehlerantwort |
Face |
Beschreibt alle Einstellungen, die bei der Analyse eines Videos verwendet werden sollen, um alle vorhandenen Gesichter zu erkennen (und optional zu rotieren). |
Face |
Dieser Modus bietet die Möglichkeit, zwischen den folgenden Einstellungen zu wählen: 1) Analysieren – nur für die Erkennung. Dieser Modus generiert eine JSON-Metadatendatei, die die Darstellungen von Gesichtern im gesamten Video kennzeichnet. Wenn möglich, wird dem Erscheinungsbild derselben Person die gleiche ID zugewiesen. 2) Kombiniert – Zusätzlich wurden Gesichter gerötet(Unschärfen) erkannt. 3) Redact : Dies ermöglicht einen 2-Pass-Prozess, der eine selektive Redaction einer Teilmenge der erkannten Gesichter ermöglicht. Es übernimmt die Metadatendatei aus einem vorherigen Analysedurchlauf, zusammen mit dem Quellvideo und einer vom Benutzer ausgewählten Teilmenge von IDs, die Redaction erfordern. |
Fade |
Beschreibt die Eigenschaften eines Einblenden-Effekts, der auf das Eingabemedium angewendet wird. |
Filters |
Beschreibt alle Filtervorgänge, z. B. De-Interlacing, Rotation usw., die vor der Codierung auf die Eingabemedien angewendet werden sollen. |
From |
Ein InputDefinition-Objekt, das alle Dateien durchsieht, die zum Auswählen von Spuren bereitgestellt werden, die von der IncludedTracks-Eigenschaft angegeben werden. Wird in der Regel mit AudioTrackByAttribute und VideoTrackByAttribute verwendet, um die Auswahl einer einzelnen Spur für eine Reihe von Eingabedateien zu ermöglichen. |
From |
Eine InputDefinition, die jede Eingabedatei untersucht, die zum Auswählen von Spuren bereitgestellt wird, die von der IncludedTracks-Eigenschaft angegeben werden. Wird in der Regel mit audioTrackByAttribute und VideoTrackByAttribute verwendet, um Titel aus jeder angegebenen Datei auszuwählen. |
H264Complexity |
Teilt dem Encoder mit, wie seine Codierungseinstellungen ausgewählt werden sollen. Der Standardwert ist Balanced. |
H264Layer |
Beschreibt die Einstellungen, die beim Codieren des Eingabevideos in eine gewünschte Ausgabebitrateebene mit dem H.264-Videocodec verwendet werden sollen. |
H264Rate |
Der Modus zur Steuerung der Videorate |
H264Video |
Beschreibt alle Eigenschaften zum Codieren eines Videos mit dem H.264-Codec. |
H264Video |
Derzeit unterstützen wir Baseline, Main, High, High422, High444. Der Standardwert ist Auto. |
H265Complexity |
Teilt dem Encoder mit, wie seine Codierungseinstellungen ausgewählt werden sollen. Qualität sorgt für ein höheres Komprimierungsverhältnis, aber zu höheren Kosten und längerer Computezeit. Die Geschwindigkeit erzeugt eine relativ größere Datei, ist aber schneller und wirtschaftlicher. Der Standardwert ist Balanced. |
H265Layer |
Beschreibt die Einstellungen, die beim Codieren des Eingabevideos in eine gewünschte Ausgabebitrateebene mit dem H.265-Videocodec verwendet werden sollen. |
H265Video |
Beschreibt alle Eigenschaften zum Codieren eines Videos mit dem H.265-Codec. |
H265Video |
Derzeit unterstützen wir Main. Der Standardwert ist Auto. |
Image |
Beschreibt die grundlegenden Eigenschaften zum Generieren von Miniaturansichten aus dem Eingabevideo. |
Image |
Beschreibt die Eigenschaften für eine Ausgabebilddatei. |
Input |
Eine InputDefinition für eine einzelne Datei. TrackSelections sind auf die angegebene Datei festgelegt. |
Insights |
Definiert den Typ der Erkenntnisse, die der Dienst generieren soll. Die zulässigen Werte sind "AudioInsightsOnly", "VideoInsightsOnly" und "AllInsights". Der Standardwert ist AllInsights. Wenn Sie dies auf AllInsights festlegen und die Eingabe nur Audio ist, werden nur Audioerkenntnisse generiert. Wenn es sich bei der Eingabe nur um Video handelt, werden auch nur Videoeinblicke generiert. Es wird empfohlen, AudioInsightsOnly nicht zu verwenden, wenn Sie erwarten, dass einige Ihrer Eingaben nur Video sind. oder verwenden Sie VideoInsightsOnly, wenn Sie erwarten, dass einige Ihrer Eingaben nur Audio sind. Ihre Aufträge unter solchen Bedingungen würden einen Fehler verursachen. |
Interleave |
Legt den Interleave-Modus der Ausgabe fest, um zu steuern, wie Audio und Video im Containerformat gespeichert werden. Beispiel: Legen Sie InterleavedOutput auf NonInterleavedOutput fest, um nur Audio- und Videoausgaben in separaten MP4-Dateien zu erzeugen. |
Job |
Ein Auftragsressourcentyp. Status und Status können abgerufen werden, indem Sie einen Auftrag abfragen oder Ereignisse mithilfe von EventGrid abonnieren. |
Job |
Details zu JobOutput-Fehlern. |
Job |
Hilft bei der Kategorisierung von Fehlern. |
Job |
Fehlercode, der den Fehler beschreibt. |
Job |
Details zu JobOutput-Fehlern. |
Job |
Stellt ein Objekt für die Eingabe in einen Auftrag dar. |
Job |
Stellt Eingabedateien für einen Auftrag dar. |
Job |
Stellt die HTTPS-Auftragseingabe dar. |
Job |
Beschreibt eine Liste von Eingaben für einen Auftrag. |
Job |
Eine Sequenz enthält eine sortierte Liste von Clips, wobei jeder Clip ein JobInput ist. Die Sequenz wird als einzelne Eingabe behandelt. |
Job |
Stellt ein Medienobjekt dar, das als JobOutput verwendet wird. |
Job |
Gibt an, dass es möglich ist, den Auftrag erneut zu versuchen. Wenn die Wiederholung nicht erfolgreich ist, wenden Sie sich über das Azure-Portal an Azure-Support. |
Job |
Beschreibt den Status von JobOutput. |
Jpg |
Beschreibt die Einstellungen zum Erstellen von JPEG-Miniaturansichten. |
Jpg |
Beschreibt die Eigenschaften zum Erstellen einer Reihe von JPEG-Bildern aus dem Eingabevideo. |
Jpg |
Beschreibt die Einstellungen zum Erstellen eines JPEG-Bilds aus dem Eingabevideo. |
Mp4Format |
Beschreibt die Eigenschaften für eine AUSGABE-ISO-MP4-Datei. |
Multi |
Beschreibt die Eigenschaften zum Erstellen einer Auflistung von GOP-ausgerichteten Dateien mit mehreren Bitraten. Das Standardverhalten besteht darin, eine Ausgabedatei für jede Videoebene zu erstellen, die zusammen mit allen Audios muxiert wird. Die genau erstellten Ausgabedateien können durch Angabe der outputFiles-Auflistung gesteuert werden. |
Output |
Stellt eine erstellte Ausgabedatei dar. |
Png |
Beschreibt die Einstellungen zum Erstellen von PNG-Miniaturansichten. |
Png |
Beschreibt die Eigenschaften zum Erstellen einer Reihe von PNG-Bildern aus dem Eingabevideo. |
Png |
Beschreibt die Einstellungen zum Erstellen eines PNG-Bilds aus dem Eingabevideo. |
Preset |
Ein Objekt mit optionalen Konfigurationseinstellungen für den Encoder. |
Priority |
Legt die relative Priorität der TransformationOutputs innerhalb einer Transformation fest. Dadurch wird die Priorität festgelegt, die der Dienst für die Verarbeitung von TransformOutputs verwendet. Die Standardpriorität ist Normal. |
Rectangle |
Beschreibt die Eigenschaften eines rechteckigen Fensters, das vor der Verarbeitung auf das Eingabemedium angewendet wird. |
Rotation |
Die Drehung, falls vorhanden, die auf das Eingabevideo angewendet werden soll, bevor es codiert wird. Der Standardwert ist Auto. |
Select |
Wählen Sie audiospuren aus der Eingabe aus, indem Sie ein Attribut und einen Attributfilter angeben. |
Select |
Wählen Sie audiospuren aus der Eingabe aus, indem Sie einen Titelbezeichner angeben. |
Select |
Wählen Sie Videospuren aus der Eingabe aus, indem Sie ein Attribut und einen Attributfilter angeben. |
Select |
Wählen Sie Videospuren aus der Eingabe aus, indem Sie einen Trackbezeichner angeben. |
Standard |
Beschreibt alle Einstellungen, die beim Codieren des Eingabevideos mit dem Standardencoder verwendet werden sollen. |
Stretch |
Der Größenänderungsmodus: Die Größe des Eingabevideos wird an die gewünschte Ausgabeauflösung(en) angepasst. Die Standardeinstellung ist AutoSize. |
system |
Metadaten, die sich auf die Erstellung und letzte Änderung der Ressource beziehen. |
Track |
Das TrackAttribute, nach dem die Spuren gefiltert werden sollen. |
Transport |
Beschreibt die Eigenschaften zum Generieren einer MPEG-2 Transport Stream(ISO/IEC 13818-1)-Ausgabevideodatei(en). |
Utc |
Gibt die Clipzeit als Utc-Zeitposition in der Mediendatei an. Die Utc-Zeit kann auf eine andere Position verweisen, je nachdem, ob die Mediendatei mit einem Zeitstempel von null beginnt oder nicht. |
Video |
Beschreibt die grundlegenden Eigenschaften für die Codierung des Eingabevideos. |
Video |
Eine Videoanalysevoreinstellung, die Erkenntnisse (umfangreiche Metadaten) aus Audio und Video extrahiert und eine JSON-Formatdatei ausgibt. |
Video |
Beschreibt die Eigenschaften einer Videoüberlagerung. |
Video |
Videosynchronisierungsmodus |
Video |
Eine TrackSelection zum Auswählen von Videospuren. |
AacAudio
Beschreibt AAC-Audiocodierungseinstellungen (Advanced Audio Codec).
Name | Typ | Beschreibung |
---|---|---|
@odata.type |
string:
#Microsoft. |
Der Diskriminator für abgeleitete Typen. |
bitrate |
integer |
Die Bitrate des ausgabecodierten Audios in Bits pro Sekunde. |
channels |
integer |
Die Anzahl der Kanäle im Audio. |
label |
string |
Eine optionale Bezeichnung für den Codec. Die Bezeichnung kann verwendet werden, um das Muxingverhalten zu steuern. |
profile |
Das Codierungsprofil, das beim Codieren von Audio mit AAC verwendet werden soll. |
|
samplingRate |
integer |
Die Samplingrate, die für die Codierung in Hertz verwendet werden soll. |
AacAudioProfile
Das Codierungsprofil, das beim Codieren von Audiodaten mit AAC verwendet werden soll.
Name | Typ | Beschreibung |
---|---|---|
AacLc |
string |
Gibt an, dass das Ausgabeaudio in AAC Low Complexity Profile (AAC-LC) codiert werden soll. |
HeAacV1 |
string |
Gibt an, dass das Ausgabeaudio im HE-AAC v1-Profil codiert werden soll. |
HeAacV2 |
string |
Gibt an, dass das Ausgabeaudio im HE-AAC v2-Profil codiert werden soll. |
AbsoluteClipTime
Gibt die Clipzeit als absolute Zeitposition in der Mediendatei an. Die absolute Zeit kann auf eine andere Position verweisen, je nachdem, ob die Mediendatei mit einem Zeitstempel von 0 beginnt oder nicht.
Name | Typ | Beschreibung |
---|---|---|
@odata.type |
string:
#Microsoft. |
Der Diskriminator für abgeleitete Typen. |
time |
string |
Die Zeitposition auf der Zeitleiste des Eingabemediums. Sie wird in der Regel als ISO8601 Zeitraum angegeben. z.B. PT30S für 30 Sekunden. |
AnalysisResolution
Gibt die maximale Auflösung an, mit der Ihr Video analysiert wird. Das Standardverhalten ist "SourceResolution". Dadurch bleibt das Eingabevideo bei der Analyse in der ursprünglichen Auflösung. Mithilfe von "StandardDefinition" wird die Größe von Eingabevideos in die Standarddefinition geändert, wobei das entsprechende Seitenverhältnis beibehalten wird. Die Größe wird nur geändert, wenn das Video eine höhere Auflösung aufweist. Beispielsweise würde eine Eingabe von 1920 x 1080 vor der Verarbeitung auf 640 x 360 skaliert werden. Der Wechsel zu "StandardDefinition" reduziert die Zeit, die für die Verarbeitung hochauflösender Videos benötigt wird. Es kann auch die Kosten für die Verwendung dieser Komponente reduzieren (weitere Informationen finden Sie unter https://azure.microsoft.com/en-us/pricing/details/media-services/#analytics ). Gesichter, die im geänderten Video zu klein sind, werden jedoch möglicherweise nicht erkannt.
Name | Typ | Beschreibung |
---|---|---|
SourceResolution |
string |
|
StandardDefinition |
string |
AttributeFilter
Der Typ von AttributeFilter, der auf das TrackAttribute angewendet werden soll, um die Spuren auszuwählen.
Name | Typ | Beschreibung |
---|---|---|
All |
string |
Alle Tracks sind enthalten. |
Bottom |
string |
Die erste Spur wird eingeschlossen, wenn das Attribut in aufsteigender Reihenfolge sortiert wird. Wird im Allgemeinen verwendet, um die kleinste Bitrate auszuwählen. |
Top |
string |
Die erste Spur wird eingeschlossen, wenn das Attribut in absteigender Reihenfolge sortiert wird. Wird im Allgemeinen verwendet, um die größte Bitrate auszuwählen. |
ValueEquals |
string |
Alle Spuren, die über ein Attribut verfügen, das dem angegebenen Wert entspricht, werden eingeschlossen. |
Audio
Definiert die allgemeinen Eigenschaften für alle Audiocodecs.
Name | Typ | Beschreibung |
---|---|---|
@odata.type |
string:
#Microsoft. |
Der Diskriminator für abgeleitete Typen. |
bitrate |
integer |
Die Bitrate des ausgabecodierten Audios in Bits pro Sekunde. |
channels |
integer |
Die Anzahl der Kanäle im Audio. |
label |
string |
Eine optionale Bezeichnung für den Codec. Die Bezeichnung kann verwendet werden, um das Muxingverhalten zu steuern. |
samplingRate |
integer |
Die Samplingrate, die für die Codierung in Hertz verwendet werden soll. |
AudioAnalysisMode
Bestimmt den Satz der auszuführenden Audioanalysevorgänge. Wenn nicht angegeben, wird der Standard AudioAnalysisMode ausgewählt.
Name | Typ | Beschreibung |
---|---|---|
Basic |
string |
In diesem Modus werden Transkriptionen von gesprochenen Texten erstellt und VTT-Dateien mit Untertiteln und Beschriftungstexten generiert. Die Ausgabe in diesem Modus beinhaltet eine Insights JSON-Datei, die nur die Stichwörter, die Transkription und Zeitinformationen enthält. Eine automatische Spracherkennung und Sprecherdiarisierung sind nicht Bestandteil dieses Modus. |
Standard |
string |
Führt alle Vorgänge aus, die im Basic-Modus enthalten sind, und führt zusätzlich spracherkennung und Sprecherdurchdung durch. |
AudioAnalyzerPreset
Die Audio Analyzer-Voreinstellung wendet einen vordefinierten Satz KI-basierter Analysevorgänge an, einschließlich Sprachtranskription. Die Voreinstellung unterstützt derzeit die Verarbeitung von Inhalten mit einer einzelnen Audiospur.
Name | Typ | Beschreibung |
---|---|---|
@odata.type |
string:
#Microsoft. |
Der Diskriminator für abgeleitete Typen. |
audioLanguage |
string |
Die Sprache für die Audionutzlast in der Eingabe, die das BCP-47-Format "language tag-region" (z. B. "en-US") verwendet. Wenn Sie die Sprache Ihrer Inhalte kennen, empfiehlt es sich, sie anzugeben. Die Sprache muss explizit für AudioAnalysisMode::Basic angegeben werden, da die automatische Spracherkennung nicht im Standardmodus enthalten ist. Wenn die Sprache nicht angegeben oder auf NULL festgelegt ist, wählt die automatische Spracherkennung die erste erkannte Sprache aus und führt die Verarbeitung für die ausgewählte Sprache für die Länge der Datei durch. Sie unterstützt derzeit keine dynamische Umschaltung zwischen Sprachen, nachdem die erste Sprache erkannt wurde. Die automatische Erkennung funktioniert am besten bei Audioaufzeichnungen mit deutlich erkennbarer Sprache. Wenn die Sprache bei der automatischen Erkennung nicht gefunden werden kann, würde die Transkription auf "en-US" zurückfallen." Die Liste der unterstützten Sprachen finden Sie hier: https://go.microsoft.com/fwlink/?linkid=2109463 |
experimentalOptions |
object |
Wörterbuch, das Schlüsselwertpaare für Parameter enthält, die in der Voreinstellung selbst nicht verfügbar gemacht werden |
mode |
Bestimmt den Satz der auszuführenden Audioanalysevorgänge. Wenn nicht angegeben, wird der Standard AudioAnalysisMode ausgewählt. |
AudioOverlay
Beschreibt die Eigenschaften einer Audioüberlagerung.
Name | Typ | Beschreibung |
---|---|---|
@odata.type |
string:
#Microsoft. |
Der Diskriminator für abgeleitete Typen. |
audioGainLevel |
number |
Der Verstärkungsgrad des Audios in der Überlagerung. Der Wert sollte im Bereich [0, 1,0] liegen. Der Standardwert ist 1.0. |
end |
string |
Die Endposition mit Verweis auf das Eingabevideo, an dem das Overlay endet. Der Wert sollte im ISO 8601-Format vorliegen. Beispiel: PT30S, um die Überlagerung bei 30 Sekunden im Eingabevideo zu beenden. Wenn nicht angegeben oder der Wert größer als die Dauer des Eingabevideos ist, wird die Überlagerung bis zum Ende des Eingabevideos angewendet, wenn die Dauer der Überlagerungsmedien größer als die Dauer des Eingabevideos ist, andernfalls dauert die Überlagerung so lange wie die Überlagerungsmediendauer. |
fadeInDuration |
string |
Die Dauer, über die das Overlay auf dem Eingabevideo verblasst. Der Wert sollte im ISO 8601-Dauerformat vorliegen. Wenn nicht angegeben, besteht das Standardverhalten darin, kein Einblenden zu haben (identisch mit PT0S). |
fadeOutDuration |
string |
Die Dauer, in der die Überlagerung aus dem Eingabevideo verblasst. Der Wert sollte im ISO 8601-Dauerformat vorliegen. Wenn nicht angegeben, besteht das Standardverhalten darin, kein Ausblenden zu haben (identisch mit PT0S). |
inputLabel |
string |
Die Bezeichnung der Auftragseingabe, die als Überlagerung verwendet werden soll. Die Eingabe muss genau eine Datei angeben. Sie können eine Bilddatei im JPG-, PNG-, GIF- oder BMP-Format oder eine Audiodatei (z. B. eine WAV-, MP3-, WMA- oder M4A-Datei) oder eine Videodatei angeben. Eine vollständige Liste der unterstützten Audio- und Videodateiformate finden Sie https://aka.ms/mesformats unter. |
start |
string |
Die Startposition mit Verweis auf das Eingabevideo, an dem das Overlay beginnt. Der Wert sollte im ISO 8601-Format vorliegen. Beispiel: PT05S, um das Overlay bei 5 Sekunden im Eingabevideo zu starten. Wenn nicht angegeben, beginnt die Überlagerung am Anfang des Eingabevideos. |
AudioTrackDescriptor
Eine TrackSelection zum Auswählen von Audiospuren.
Name | Typ | Beschreibung |
---|---|---|
@odata.type |
string:
#Microsoft. |
Der Diskriminator für abgeleitete Typen. |
channelMapping |
Optionale Bezeichnung für Einkanal-Audiospuren. Kann verwendet werden, um die Tracks in Stereo- oder Mehrkanal-Audiospuren zu kombinieren. |
BlurType
Weichzeichnertyp
Name | Typ | Beschreibung |
---|---|---|
Black |
string |
Schwarz: Verdunkelungsfilter |
Box |
string |
Box: Debugfilter, nur Begrenzungsfeld |
High |
string |
Hoch: Verwechslungsfilter |
Low |
string |
Niedrig: Box-Car-Unschärfefilter |
Med |
string |
Med: Gaußsche Unschärfefilter |
BuiltInStandardEncoderPreset
Beschreibt eine integrierte Voreinstellung zum Codieren des Eingabevideos mit dem Standardencoder.
Name | Typ | Beschreibung |
---|---|---|
@odata.type |
string:
#Microsoft. |
Der Diskriminator für abgeleitete Typen. |
configurations |
Optionale Konfigurationseinstellungen für Encoder. Konfigurationen werden nur für ContentAwareEncoding und H265ContentAwareEncoding BuiltInStandardEncoderPreset unterstützt. |
|
presetName |
Die integrierte Voreinstellung, die zum Codieren von Videos verwendet werden soll. |
ChannelMapping
Optionale Bezeichnung für Einkanal-Audiospuren. Kann verwendet werden, um die Tracks in Stereo- oder Mehrkanal-Audiospuren zu kombinieren.
Name | Typ | Beschreibung |
---|---|---|
BackLeft |
string |
Der linke Rückkanal. Manchmal auch als linker Surroundkanal bezeichnet. |
BackRight |
string |
Der Rück-rechts-Kanal. Manchmal auch als rechter Surroundkanal bezeichnet. |
Center |
string |
Der zentrierte Kanal. |
FrontLeft |
string |
Der vordere linke Kanal. |
FrontRight |
string |
Der vordere rechte Kanal. |
LowFrequencyEffects |
string |
Low Frequency Effects Channel( Low Frequency Effects Channel). Manchmal auch als Subwoofer bezeichnet. |
StereoLeft |
string |
Der linke Stereokanal. Manchmal auch als Linksmischung nach unten bezeichnet. |
StereoRight |
string |
Der Rechte Stereokanal. Manchmal auch als Down Mix Right bezeichnet. |
Complexity
Ermöglicht Ihnen das Konfigurieren der Encodereinstellungen, um das Gleichgewicht zwischen Geschwindigkeit und Qualität zu steuern. Beispiel: Legen Sie Komplexität auf Geschwindigkeit fest, um eine schnellere Codierung, aber eine geringere Komprimierungseffizienz zu erzielen.
Name | Typ | Beschreibung |
---|---|---|
Balanced |
string |
Konfiguriert den Encoder für die Verwendung von Einstellungen, die ein Gleichgewicht zwischen Geschwindigkeit und Qualität erzielen. |
Quality |
string |
Konfiguriert den Encoder für die Verwendung von Einstellungen, die für die Ausgabe mit höherer Qualität optimiert sind, und das zu Lasten einer geringeren Gesamtcodierungszeit. |
Speed |
string |
Konfiguriert den Encoder für die Verwendung von Einstellungen, die für eine schnellere Codierung optimiert sind. Qualität wird geopfert, um die Codierungszeit zu verringern. |
CopyAudio
Ein Codecflag, das den Encoder angibt, den Eingabeaudiobitstream zu kopieren.
Name | Typ | Beschreibung |
---|---|---|
@odata.type |
string:
#Microsoft. |
Der Diskriminator für abgeleitete Typen. |
label |
string |
Eine optionale Bezeichnung für den Codec. Die Bezeichnung kann verwendet werden, um das Muxingverhalten zu steuern. |
CopyVideo
Ein Codecflag, das den Encoder angibt, den Bitstream des Eingabevideos ohne erneute Codierung zu kopieren.
Name | Typ | Beschreibung |
---|---|---|
@odata.type |
string:
#Microsoft. |
Der Diskriminator für abgeleitete Typen. |
label |
string |
Eine optionale Bezeichnung für den Codec. Die Bezeichnung kann verwendet werden, um das Muxingverhalten zu steuern. |
createdByType
Der Identitätstyp, der die Ressource erstellt hat.
Name | Typ | Beschreibung |
---|---|---|
Application |
string |
|
Key |
string |
|
ManagedIdentity |
string |
|
User |
string |
DDAudio
Beschreibt die Audiocodierungseinstellungen des Dolby Digital Audio Codec (AC3). Die aktuelle Implementierung für Dolby Digital Audio-Unterstützung sind: Audiokanalnummern bei 1((mono), 2(stereo), 6(5.1side); Audio-Samplingfrequenzraten bei: 32K/44,1K/48K Hz; Audiobitratewerte als AC3-Spezifikation unterstützt: 32000, 40000, 48000, 56000, 64000, 80000, 96000, 112000, 128000, 160000, 192000, 224000, 256000, 320000, 384000, 448000, 512000, 576000, 640000 bps.
Name | Typ | Beschreibung |
---|---|---|
@odata.type |
string:
#Microsoft. |
Der Diskriminator für abgeleitete Typen. |
bitrate |
integer |
Die Bitrate des ausgabecodierten Audios in Bits pro Sekunde. |
channels |
integer |
Die Anzahl der Kanäle im Audio. |
label |
string |
Eine optionale Bezeichnung für den Codec. Die Bezeichnung kann verwendet werden, um das Muxingverhalten zu steuern. |
samplingRate |
integer |
Die Samplingrate, die für die Codierung in Hertz verwendet werden soll. |
Deinterlace
Beschreibt die De-Interlacing-Einstellungen.
Name | Typ | Beschreibung |
---|---|---|
mode |
Der Deinterlacing-Modus. Der Standardwert ist AutoPixelAdaptive. |
|
parity |
Die Feldparität für die De-Interlacing-Funktion ist standardmäßig auf Auto festgelegt. |
DeinterlaceMode
Der Deinterlacing-Modus. Standardmäßig wird AutoPixelAdaptive verwendet.
Name | Typ | Beschreibung |
---|---|---|
AutoPixelAdaptive |
string |
Wenden Sie die automatische adaptive Pixel-Entflechtung auf jeden Frame im Eingabevideo an. |
Off |
string |
Deaktiviert das De-Interlacing des Quellvideos. |
DeinterlaceParity
Die Feldparität für die Entflechtung wird standardmäßig auf Auto festgelegt.
Name | Typ | Beschreibung |
---|---|---|
Auto |
string |
Automatisches Erkennen der Reihenfolge der Felder |
BottomFieldFirst |
string |
Wenden Sie die erste Verarbeitung des Eingabevideos im unteren Feld an. |
TopFieldFirst |
string |
Wenden Sie die erste Verarbeitung des Eingabevideos im oberen Feld an. |
EncoderNamedPreset
Die integrierte Voreinstellung, die zum Codieren von Videos verwendet werden soll.
Name | Typ | Beschreibung |
---|---|---|
AACGoodQualityAudio |
string |
Erzeugt eine einzelne MP4-Datei, die nur AAC-Stereoaudio enthält, das mit 192 KBit/s codiert ist. |
AdaptiveStreaming |
string |
Erzeugt eine Reihe von GOP-ausgerichteten MP4-Dateien mit H.264-Video und Stereo-AAC-Audio. Generiert automatisch eine Reihe von Bitraten, die auf der eingegebenen Auflösung, der Bitrate und der Bildfrequenz basieren. Die automatisch generierte Voreinstellung wird nie höher als die eingegebene Auflösung sein. Wenn beispielsweise 720p eingegeben wird, bleibt die Ausgabe am besten auch bei 720p. |
ContentAwareEncoding |
string |
Erzeugt mithilfe der inhaltsbezogenen Codierung verschiedene GOP-orientierte MP4s. Der Dienst führt eine einfache Erstanalyse für den Eingabeinhalt aus und ermittelt anhand der Ergebnisse die optimale Anzahl von Ebenen, die geeignete Bitrate und die Auflösungseinstellungen für die Bereitstellung durch adaptives Streaming. Diese Voreinstellung ist besonders effektiv für Videos mit geringer und mittlerer Komplexität, bei denen die Ausgabedateien mit niedrigeren Bitraten, aber in einer Qualität vorliegen, die dem Betrachter dennoch ein gutes Ergebnis bietet. Die Ausgabe enthält MP4-Dateien mit überlappendem Video und Audio. |
ContentAwareEncodingExperimental |
string |
Macht eine experimentelle Voreinstellung für die inhaltsbezogene Codierung verfügbar. Anhand der eingegebenen Inhalte versucht der Dienst, automatisch die optimale Anzahl der Ebenen, die geeignete Bitrate und die Auflösungseinstellungen für die Bereitstellung durch adaptives Streaming zu bestimmen. Die zugrunde liegenden Algorithmen werden im Laufe der Zeit weiter entwickelt. Die Ausgabe enthält MP4-Dateien mit überlappendem Video und Audio. |
CopyAllBitrateNonInterleaved |
string |
Kopieren Sie alle Video- und Audiostreams aus dem Eingabemedienobjekt als nicht verschachtelte Video- und Audioausgabedateien. Diese Voreinstellung kann verwendet werden, um ein vorhandenes Medienobjekt zu beschneiden oder eine Gruppe von MP4-Dateien mit Keyframeausrichtung (GOP) als Medienobjekt zu konvertieren, das gestreamt werden kann. |
DDGoodQualityAudio |
string |
Erzeugt eine einzelne MP4-Datei, die nur DD(Digital Dolby)-Stereoaudio enthält, das mit 192 KBit/s codiert ist. |
H264MultipleBitrate1080p |
string |
Erzeugt einen Satz von 8 GOP-ausgerichteten MP4-Dateien im Bereich von 6000 KBit/s bis 400 KBit/s und Stereo-AAC-Audio. Die Auflösung beginnt bei 1080p und geht auf 180p herunter. |
H264MultipleBitrate720p |
string |
Erzeugt einen Satz von 6 GOP-ausgerichteten MP4-Dateien im Bereich von 3400 KBit/s bis 400 KBit/s und Stereo-AAC-Audio. Die Auflösung beginnt bei 720p und geht auf 180p herunter. |
H264MultipleBitrateSD |
string |
Erzeugt einen Satz von 5 GOP-ausgerichteten MP4-Dateien im Bereich von 1900 kbps bis 400 KBit/s und Stereo-AAC-Audio. Die Auflösung beginnt bei 480p und geht auf 240p herunter. |
H264SingleBitrate1080p |
string |
Erzeugt eine MP4-Datei, bei der das Video mit dem H.264-Codec mit 6750 KBit/s und einer Bildhöhe von 1080 Pixel codiert ist, und das Stereoaudio mit AAC-LC-Codec mit 128 kBit/s codiert ist. |
H264SingleBitrate720p |
string |
Erzeugt eine MP4-Datei, bei der das Video mit dem H.264-Codec mit 4500 KBit/s und einer Bildhöhe von 720 Pixel codiert ist, und das Stereoaudio mit AAC-LC-Codec mit 128 kBit/s codiert ist. |
H264SingleBitrateSD |
string |
Erzeugt eine MP4-Datei, bei der das Video mit H.264-Codec mit 2200 KBit/s und einer Bildhöhe von 480 Pixel codiert ist, und das Stereoaudio mit AAC-LC-Codec mit 128 KBit/s codiert ist. |
H265AdaptiveStreaming |
string |
Erzeugt mehrere auf GOP ausgerichtete MP4-Dateien mit Video- und Stereo-AAC-Audio für H.265. Generiert automatisch eine Reihe von Bitraten, die auf der eingegebenen Auflösung, der Bitrate und der Bildfrequenz basieren. Die automatisch generierte Voreinstellung wird nie höher als die eingegebene Auflösung sein. Wenn beispielsweise 720p eingegeben wird, bleibt die Ausgabe am besten auch bei 720p. |
H265ContentAwareEncoding |
string |
Erzeugt mithilfe der inhaltsbezogenen Codierung verschiedene GOP-orientierte MP4s. Der Dienst führt eine einfache Erstanalyse für den Eingabeinhalt aus und ermittelt anhand der Ergebnisse die optimale Anzahl von Ebenen, die geeignete Bitrate und die Auflösungseinstellungen für die Bereitstellung durch adaptives Streaming. Diese Voreinstellung ist besonders effektiv für Videos mit geringer und mittlerer Komplexität, bei denen die Ausgabedateien mit niedrigeren Bitraten, aber in einer Qualität vorliegen, die dem Betrachter dennoch ein gutes Ergebnis bietet. Die Ausgabe enthält MP4-Dateien mit überlappendem Video und Audio. |
H265SingleBitrate1080p |
string |
Erzeugt eine MP4-Datei, in der das Video mit dem H.265-Codec mit 3500 KBit/s und einer Bildhöhe von 1080 Pixel codiert wird und das Stereoaudio mit dem AAC-LC-Codec mit 128 KBit/s codiert wird. |
H265SingleBitrate4K |
string |
Erzeugt eine MP4-Datei, in der das Video mit dem H.265-Codec mit 9500 KBit/s und einer Bildhöhe von 2160 Pixel codiert ist und das Stereoaudio mit dem AAC-LC-Codec mit 128 KBit/s codiert wird. |
H265SingleBitrate720p |
string |
Erzeugt eine MP4-Datei, in der das Video mit dem H.265-Codec mit 1800 KBit/s und einer Bildhöhe von 720 Pixel codiert wird, und das Stereoaudio wird mit dem AAC-LC-Codec mit 128 KBit/s codiert. |
EntropyMode
Der Entropiemodus, der für diese Ebene verwendet werden soll. Wenn nicht angegeben, wählt der Encoder den Modus aus, der für das Profil und die Ebene geeignet ist.
Name | Typ | Beschreibung |
---|---|---|
Cabac |
string |
Cabac-Entropiecodierung (Context Adaptive Binary Arithmetic Coder). |
Cavlc |
string |
CAVLC-Entropiecodierung (Context Adaptive Variable Length Coder). |
ErrorAdditionalInfo
Zusätzliche Informationen zum Ressourcenverwaltungsfehler.
Name | Typ | Beschreibung |
---|---|---|
info |
object |
Zusätzliche Informationen. |
type |
string |
Typ der zusätzlichen Informationen. |
ErrorDetail
Die Fehlerdetails.
Name | Typ | Beschreibung |
---|---|---|
additionalInfo |
Die zusätzlichen Fehlerinformationen. |
|
code |
string |
Der Fehlercode. |
details |
Die Fehlerdetails. |
|
message |
string |
Die Fehlermeldung. |
target |
string |
Das Fehlerziel. |
ErrorResponse
Fehlerantwort
Name | Typ | Beschreibung |
---|---|---|
error |
Das Fehlerobjekt. |
FaceDetectorPreset
Beschreibt alle Einstellungen, die bei der Analyse eines Videos verwendet werden sollen, um alle vorhandenen Gesichter zu erkennen (und optional zu rotieren).
Name | Typ | Beschreibung |
---|---|---|
@odata.type |
string:
#Microsoft. |
Der Diskriminator für abgeleitete Typen. |
blurType |
Weichzeichnertyp |
|
experimentalOptions |
object |
Wörterbuch, das Schlüsselwertpaare für Parameter enthält, die in der Voreinstellung selbst nicht verfügbar gemacht werden |
mode |
Dieser Modus bietet die Möglichkeit, zwischen den folgenden Einstellungen zu wählen: 1) Analysieren – nur für die Erkennung. Dieser Modus generiert eine JSON-Metadatendatei, die die Darstellungen von Gesichtern im gesamten Video kennzeichnet. Wenn möglich, wird dem Erscheinungsbild derselben Person die gleiche ID zugewiesen. 2) Kombiniert – Zusätzlich wurden Gesichter gerötet(Unschärfen) erkannt. 3) Redact : Dies ermöglicht einen 2-Pass-Prozess, der eine selektive Redaction einer Teilmenge der erkannten Gesichter ermöglicht. Es übernimmt die Metadatendatei aus einem vorherigen Analysedurchlauf, zusammen mit dem Quellvideo und einer vom Benutzer ausgewählten Teilmenge von IDs, die Redaction erfordern. |
|
resolution |
Gibt die maximale Auflösung an, mit der Ihr Video analysiert wird. Das Standardverhalten ist "SourceResolution", das das Eingabevideo bei der Analyse in seiner ursprünglichen Auflösung behält. Mithilfe von "StandardDefinition" wird die Größe von Eingabevideos in die Standarddefinition geändert, während das entsprechende Seitenverhältnis beibehalten wird. Die Größe wird nur geändert, wenn das Video eine höhere Auflösung aufweist. Beispielsweise würde eine Eingabe von 1920 x 1080 vor der Verarbeitung auf 640 x 360 skaliert. Wenn Sie zu "StandardDefinition" wechseln, wird die Zeit für die Verarbeitung von Videos mit hoher Auflösung reduziert. Es kann auch die Kosten für die Verwendung dieser Komponente reduzieren (weitere Informationen finden Sie unter https://azure.microsoft.com/en-us/pricing/details/media-services/#analytics ). Gesichter, die im geänderten Video zu klein sind, werden jedoch möglicherweise nicht erkannt. |
FaceRedactorMode
Dieser Modus bietet die Möglichkeit, zwischen den folgenden Einstellungen zu wählen: 1) Analysieren – nur für die Erkennung. Dieser Modus generiert eine JSON-Metadatendatei, die die Darstellungen von Gesichtern im gesamten Video kennzeichnet. Wenn möglich, wird dem Erscheinungsbild derselben Person die gleiche ID zugewiesen. 2) Kombiniert – Zusätzlich wurden Gesichter gerötet(Unschärfen) erkannt. 3) Redact : Dies ermöglicht einen 2-Pass-Prozess, der eine selektive Redaction einer Teilmenge der erkannten Gesichter ermöglicht. Es übernimmt die Metadatendatei aus einem vorherigen Analysedurchlauf, zusammen mit dem Quellvideo und einer vom Benutzer ausgewählten Teilmenge von IDs, die Redaction erfordern.
Name | Typ | Beschreibung |
---|---|---|
Analyze |
string |
Der Analysemodus erkennt Gesichter und gibt eine Metadatendatei mit den Ergebnissen aus. Ermöglicht das Bearbeiten der Metadatendatei, bevor Gesichter im Redact-Modus verwischt werden. |
Combined |
string |
Der kombinierte Modus führt die Schritte Analysieren und Redact in einem Durchgang durch, wenn das Bearbeiten der analysierten Gesichter nicht erwünscht ist. |
Redact |
string |
Der Redact-Modus nutzt die Metadatendatei aus dem Analysemodus und redigiert die gefundenen Gesichter. |
Fade
Beschreibt die Eigenschaften eines Einblenden-Effekts, der auf das Eingabemedium angewendet wird.
Name | Typ | Beschreibung |
---|---|---|
duration |
string |
Die Dauer des Einblendeffekts im Video. Der Wert kann im ISO 8601-Format (z. B. PT05S, um eine Farbe während von 5 Sekunden ein-/ausblenden) oder eine Frameanzahl (z. B. 10 bis 10 Frames aus der Startzeit) oder einen relativen Wert zur Streamdauer (z. B. 10 % bis 10 % der Streamdauer) sein. |
fadeColor |
string |
Die Farbe für das Ein-/Ausblenden. Es kann sich um die CSS Level1-Farben https://developer.mozilla.org/en-US/docs/Web/CSS/color_value/color_keywords oder einen RGB/Hexadezim-Wert: z. B. rgb(255,0,0), 0xFF0000 oder #FF0000 |
start |
string |
Die Position im Eingabevideo, ab der mit dem Einblenden begonnen werden soll. Der Wert kann das ISO 8601-Format aufweisen, z. B. PT05S, damit ab fünf Sekunden gestartet wird, oder die Nummer eines Frames, z. B. 10, damit beim zehnten Frame gestartet wird, oder einen relativen Wert zur Dauer des Streams, z. B. 10 %, damit bei zehn Prozent der Gesamtdauer des Streams gestartet wird. Der Standardwert ist 0. |
Filters
Beschreibt alle Filtervorgänge, z. B. De-Interlacing, Rotation usw., die vor der Codierung auf die Eingabemedien angewendet werden sollen.
Name | Typ | Beschreibung |
---|---|---|
crop |
Die Parameter für das rechteckige Fenster, mit dem das Eingabevideo zugeschnitten werden soll. |
|
deinterlace |
Die De-Interlacing-Einstellungen. |
|
fadeIn |
Beschreibt die Eigenschaften eines Einblenden-Effekts, der auf das Eingabemedium angewendet wird. |
|
fadeOut |
Beschreibt die Eigenschaften eines Einblenden-Effekts, der auf das Eingabemedium angewendet wird. |
|
overlays | Overlay[]: |
Die Eigenschaften von Überlagerungen, die auf das Eingabevideo angewendet werden sollen. Dies können Audio-, Bild- oder Videoüberlagerungen sein. |
rotation |
Die Drehung, falls vorhanden, die auf das Eingabevideo angewendet werden soll, bevor es codiert wird. Der Standardwert ist Auto. |
FromAllInputFile
Ein InputDefinition-Objekt, das alle Dateien durchsieht, die zum Auswählen von Spuren bereitgestellt werden, die von der IncludedTracks-Eigenschaft angegeben werden. Wird in der Regel mit AudioTrackByAttribute und VideoTrackByAttribute verwendet, um die Auswahl einer einzelnen Spur für eine Reihe von Eingabedateien zu ermöglichen.
Name | Typ | Beschreibung |
---|---|---|
@odata.type |
string:
#Microsoft. |
Der Diskriminator für abgeleitete Typen. |
includedTracks | TrackDescriptor[]: |
Die Liste der TrackDescriptors, die die Metadaten und die Auswahl der Spuren in der Eingabe definieren. |
FromEachInputFile
Eine InputDefinition, die jede Eingabedatei untersucht, die zum Auswählen von Spuren bereitgestellt wird, die von der IncludedTracks-Eigenschaft angegeben werden. Wird in der Regel mit audioTrackByAttribute und VideoTrackByAttribute verwendet, um Titel aus jeder angegebenen Datei auszuwählen.
Name | Typ | Beschreibung |
---|---|---|
@odata.type |
string:
#Microsoft. |
Der Diskriminator für abgeleitete Typen. |
includedTracks | TrackDescriptor[]: |
Die Liste der TrackDescriptors, die die Metadaten und die Auswahl der Spuren in der Eingabe definieren. |
H264Complexity
Teilt dem Encoder mit, wie seine Codierungseinstellungen ausgewählt werden sollen. Der Standardwert ist Balanced.
Name | Typ | Beschreibung |
---|---|---|
Balanced |
string |
Weist den Encoder an, Einstellungen zu verwenden, die ein Gleichgewicht zwischen Geschwindigkeit und Qualität erzielen. |
Quality |
string |
Weist den Encoder an, Einstellungen zu verwenden, die optimiert sind, um eine höhere Ausgabequalität auf Kosten einer langsameren Gesamtcodierungszeit zu erzeugen. |
Speed |
string |
Weist den Encoder an, Einstellungen zu verwenden, die für eine schnellere Codierung optimiert sind. Qualität wird geopfert, um die Codierungszeit zu verkürzen. |
H264Layer
Beschreibt die Einstellungen, die beim Codieren des Eingabevideos in eine gewünschte Ausgabebitrateebene mit dem H.264-Videocodec verwendet werden sollen.
Name | Typ | Beschreibung |
---|---|---|
adaptiveBFrame |
boolean |
Gibt an, ob adaptive B-Frames beim Codieren dieser Ebene verwendet werden sollen oder nicht. Wenn dies nicht angegeben ist, wird es vom Encoder aktiviert, wenn das Videoprofil die Verwendung zulässt. |
bFrames |
integer |
Die Anzahl der B-Frames, die beim Codieren dieser Ebene verwendet werden sollen. Falls nicht angegeben, wählt der Encoder eine geeignete Nummer basierend auf dem Videoprofil und der Videoebene aus. |
bitrate |
integer |
Die durchschnittliche Bitrate in Bits pro Sekunde, mit der das Eingabevideo beim Generieren dieser Ebene codiert werden soll. Dies ist ein Pflichtfeld. |
bufferWindow |
string |
Die Länge des VBV-Pufferfensters. Der Wert sollte im ISO 8601-Format vorliegen. Der Wert sollte im Bereich [0,1-100] Sekunden liegen. Der Standardwert ist 5 Sekunden (z. B. PT5S). |
crf |
number |
Der Wert von CRF, der beim Codieren dieser Ebene verwendet werden soll. Diese Einstellung wird wirksam, wenn RateControlMode des Videocodecs im CRF-Modus festgelegt ist. Der Bereich des CRF-Werts liegt zwischen 0 und 51, wobei niedrigere Werte zu einer besseren Qualität führen würden, auf Kosten höherer Dateigrößen. Höhere Werte bedeuten mehr Komprimierung, aber irgendwann wird eine Qualitätsverschlechterung festgestellt. Der Standardwert ist 23. |
entropyMode |
Der Entropiemodus, der für diese Ebene verwendet werden soll. Wenn nicht angegeben, wählt der Encoder den Modus aus, der für das Profil und die Ebene geeignet ist. |
|
frameRate |
string |
Die Bildrate (in Frames pro Sekunde), mit der diese Ebene codiert werden soll. Der Wert kann in Form von M/N sein, wobei M und N ganze Zahlen sind (z. B. 30000/1001), oder in Form einer Zahl (z. B. 30 oder 29,97). Der Encoder erzwingt Einschränkungen für zulässige Bildraten basierend auf dem Profil und der Ebene. Wenn dies nicht angegeben ist, verwendet der Encoder die gleiche Bildrate wie das Eingabevideo. |
height |
string |
Die Höhe des Ausgabevideos für diese Ebene. Der Wert kann absolut (in Pixel) oder relativ (in Prozent) sein. Beispielsweise bedeutet 50 %, dass das Ausgabevideo halb so viele Pixel in der Höhe hat wie die Eingabe. |
label |
string |
Die alphanumerische Bezeichnung für diese Ebene, die zum Multiplexen verschiedener Video- und Audioebenen oder zum Benennen der Ausgabedatei verwendet werden kann. |
level |
string |
Derzeit unterstützen wir Level bis 6.2. Der Wert kann Auto oder eine Zahl sein, die dem H.264-Profil entspricht. Wenn nicht angegeben, ist der Standardwert Auto, wodurch der Encoder die für diese Ebene geeignete Ebene auswählen kann. |
maxBitrate |
integer |
Die maximale Bitrate (in Bits pro Sekunde), bei der davon ausgegangen werden sollte, dass der VBV-Puffer erneut aufgefüllt werden soll. Wenn nicht angegeben, wird standardmäßig derselbe Wert wie die Bitrate verwendet. |
profile |
Derzeit unterstützen wir Baseline, Main, High, High422, High444. Der Standardwert ist Auto. |
|
referenceFrames |
integer |
Die Anzahl der Referenzframes, die beim Codieren dieser Ebene verwendet werden sollen. Wenn nicht angegeben, bestimmt der Encoder eine geeignete Zahl basierend auf der Komplexitätseinstellung des Encoders. |
slices |
integer |
Die Anzahl der Slices, die beim Codieren dieser Ebene verwendet werden sollen. Wenn nicht angegeben, ist der Standardwert 0. Dies bedeutet, dass der Encoder für jeden Frame ein einzelnes Slice verwendet. |
width |
string |
Die Breite des Ausgabevideos für diese Ebene. Der Wert kann absolut (in Pixel) oder relativ (in Prozent) sein. Beispielsweise bedeutet 50 %, dass das Ausgabevideo halb so viele Pixel breit ist wie die Eingabe. |
H264RateControlMode
Der Modus zur Steuerung der Videorate
Name | Typ | Beschreibung |
---|---|---|
ABR |
string |
AbR-Modus (Average Bitrate), der die Zielbitrate erreicht: Standardmodus. |
CBR |
string |
Der CBR-Modus (Constant Bitrate) strafft Bitratenvariationen um die Zielbitrate. |
CRF |
string |
CrF-Modus (Constant Rate Factor), der auf konstante subjektive Qualität abzielt. |
H264Video
Beschreibt alle Eigenschaften zum Codieren eines Videos mit dem H.264-Codec.
Name | Typ | Beschreibung |
---|---|---|
@odata.type |
string:
#Microsoft. |
Der Diskriminator für abgeleitete Typen. |
complexity |
Teilt dem Encoder mit, wie seine Codierungseinstellungen ausgewählt werden sollen. Der Standardwert ist Balanced. |
|
keyFrameInterval |
string |
Der Abstand zwischen zwei Keyframes. Der Wert sollte im Bereich [0,5, 20] Sekunden ungleich null sein, der im ISO 8601-Format angegeben ist. Der Standardwert ist 2 Sekunden (PT2S). Beachten Sie, dass diese Einstellung ignoriert wird, wenn VideoSyncMode.Passthrough festgelegt ist, wobei der KeyFrameInterval-Wert der Eingabequelleneinstellung folgt. |
label |
string |
Eine optionale Bezeichnung für den Codec. Die Bezeichnung kann verwendet werden, um das Muxingverhalten zu steuern. |
layers |
Die Sammlung der H.264-Ausgabeebenen, die vom Encoder erzeugt werden sollen. |
|
rateControlMode |
Der Videoratensteuerungsmodus |
|
sceneChangeDetection |
boolean |
Gibt an, ob der Encoder Keyframes bei Szenenänderungen einfügen soll. Wenn nicht angegeben, ist der Standardwert false. Dieses Flag sollte nur auf TRUE festgelegt werden, wenn der Encoder für die Erstellung eines einzelnen Ausgabevideos konfiguriert wird. |
stretchMode |
Der Größenänderungsmodus: Die Größe des Eingabevideos wird an die gewünschte Ausgabeauflösung(en) angepasst. Die Standardeinstellung ist AutoSize. |
|
syncMode |
Videosynchronisierungsmodus |
H264VideoProfile
Derzeit unterstützen wir Baseline, Main, High, High422, High444. Der Standardwert ist Auto.
Name | Typ | Beschreibung |
---|---|---|
Auto |
string |
Weist den Encoder an, automatisch das entsprechende H.264-Profil zu bestimmen. |
Baseline |
string |
Baselineprofil |
High |
string |
Hohes Profil. |
High422 |
string |
Hohes 4:2:2-Profil. |
High444 |
string |
Hohes Vorhersageprofil von 4:4:4. |
Main |
string |
Hauptprofil |
H265Complexity
Teilt dem Encoder mit, wie seine Codierungseinstellungen ausgewählt werden sollen. Qualität sorgt für ein höheres Komprimierungsverhältnis, aber zu höheren Kosten und längerer Computezeit. Die Geschwindigkeit erzeugt eine relativ größere Datei, ist aber schneller und wirtschaftlicher. Der Standardwert ist Balanced.
Name | Typ | Beschreibung |
---|---|---|
Balanced |
string |
Weist den Encoder an, Einstellungen zu verwenden, die ein Gleichgewicht zwischen Geschwindigkeit und Qualität erzielen. |
Quality |
string |
Weist den Encoder an, Einstellungen zu verwenden, die optimiert sind, um eine höhere Ausgabequalität auf Kosten einer langsameren Gesamtcodierungszeit zu erzeugen. |
Speed |
string |
Weist den Encoder an, Einstellungen zu verwenden, die für eine schnellere Codierung optimiert sind. Qualität wird geopfert, um die Codierungszeit zu verkürzen. |
H265Layer
Beschreibt die Einstellungen, die beim Codieren des Eingabevideos in eine gewünschte Ausgabebitrateebene mit dem H.265-Videocodec verwendet werden sollen.
Name | Typ | Beschreibung |
---|---|---|
adaptiveBFrame |
boolean |
Gibt an, ob adaptive B-Frames beim Codieren dieser Ebene verwendet werden sollen. Wenn dies nicht angegeben ist, wird es vom Encoder aktiviert, wenn das Videoprofil die Verwendung zulässt. |
bFrames |
integer |
Die Anzahl der B-Frames, die beim Codieren dieser Ebene verwendet werden sollen. Falls nicht angegeben, wählt der Encoder eine geeignete Nummer basierend auf dem Videoprofil und der Videoebene aus. |
bitrate |
integer |
Die durchschnittliche Bitrate in Bits pro Sekunde, mit der das Eingabevideo beim Generieren dieser Ebene codiert werden soll. Beispiel: Eine Zielbitrate von 3000 KBit/s oder 3 Mbit/s bedeutet, dass dieser Wert 30000000 sein sollte. Dies ist ein erforderliches Feld. |
bufferWindow |
string |
Die Länge des VBV-Pufferfensters. Der Wert sollte im ISO 8601-Format vorliegen. Der Wert sollte im Bereich [0,1-100] Sekunden liegen. Der Standardwert ist 5 Sekunden (z. B. PT5S). |
crf |
number |
Der Wert von CRF, der beim Codieren dieser Ebene verwendet werden soll. Diese Einstellung wird wirksam, wenn RateControlMode des Videocodecs im CRF-Modus festgelegt ist. Der Bereich des CRF-Werts liegt zwischen 0 und 51, wobei niedrigere Werte zu einer besseren Qualität führen würden, auf Kosten höherer Dateigrößen. Höhere Werte bedeuten mehr Komprimierung, aber irgendwann wird eine Qualitätsverschlechterung festgestellt. Der Standardwert ist 28. |
frameRate |
string |
Die Bildrate (in Frames pro Sekunde), mit der diese Ebene codiert werden soll. Der Wert kann in Form von M/N sein, wobei M und N ganze Zahlen sind (z. B. 30000/1001), oder in Form einer Zahl (z. B. 30 oder 29,97). Der Encoder erzwingt Einschränkungen für zulässige Bildraten basierend auf dem Profil und der Ebene. Wenn dies nicht angegeben ist, verwendet der Encoder die gleiche Bildrate wie das Eingabevideo. |
height |
string |
Die Höhe des Ausgabevideos für diese Ebene. Der Wert kann absolut (in Pixel) oder relativ (in Prozent) sein. Beispielsweise bedeutet 50 %, dass das Ausgabevideo halb so viele Pixel in der Höhe hat wie die Eingabe. |
label |
string |
Die alphanumerische Bezeichnung für diese Ebene, die zum Multiplexen verschiedener Video- und Audioebenen oder zum Benennen der Ausgabedatei verwendet werden kann. |
level |
string |
Derzeit unterstützen wir Level bis 6.2. Der Wert kann Auto oder eine Zahl sein, die dem H.265-Profil entspricht. Wenn nicht angegeben, ist der Standardwert Auto, wodurch der Encoder die für diese Ebene geeignete Ebene auswählen kann. |
maxBitrate |
integer |
Die maximale Bitrate (in Bits pro Sekunde), bei der davon ausgegangen werden sollte, dass der VBV-Puffer erneut aufgefüllt werden soll. Wenn nicht angegeben, wird standardmäßig derselbe Wert wie die Bitrate verwendet. |
profile |
Derzeit unterstützen wir Main. Der Standardwert ist Auto. |
|
referenceFrames |
integer |
Die Anzahl der Referenzframes, die beim Codieren dieser Ebene verwendet werden sollen. Wenn nicht angegeben, bestimmt der Encoder eine geeignete Zahl basierend auf der Komplexitätseinstellung des Encoders. |
slices |
integer |
Die Anzahl der Slices, die beim Codieren dieser Ebene verwendet werden sollen. Wenn nicht angegeben, ist der Standardwert 0. Dies bedeutet, dass der Encoder für jeden Frame ein einzelnes Slice verwendet. |
width |
string |
Die Breite des Ausgabevideos für diese Ebene. Der Wert kann absolut (in Pixel) oder relativ (in Prozent) sein. Beispielsweise bedeutet 50 %, dass das Ausgabevideo halb so viele Pixel breit ist wie die Eingabe. |
H265Video
Beschreibt alle Eigenschaften zum Codieren eines Videos mit dem H.265-Codec.
Name | Typ | Beschreibung |
---|---|---|
@odata.type |
string:
#Microsoft. |
Der Diskriminator für abgeleitete Typen. |
complexity |
Teilt dem Encoder mit, wie seine Codierungseinstellungen ausgewählt werden sollen. Die Qualität sorgt für ein höheres Komprimierungsverhältnis, aber zu höheren Kosten und längerer Computezeit. Die Geschwindigkeit erzeugt eine relativ größere Datei, ist aber schneller und wirtschaftlicher. Der Standardwert ist Balanced. |
|
keyFrameInterval |
string |
Der Abstand zwischen zwei Keyframes. Der Wert sollte ungleich Null im Bereich [0,5, 20] Sekunden sein, der im ISO 8601-Format angegeben ist. Der Standardwert ist 2 Sekunden (PT2S). Beachten Sie, dass diese Einstellung ignoriert wird, wenn VideoSyncMode.Passthrough festgelegt ist, wobei der KeyFrameInterval-Wert der Einstellung für die Eingabequelle folgt. |
label |
string |
Eine optionale Bezeichnung für den Codec. Die Bezeichnung kann verwendet werden, um das Muxingverhalten zu steuern. |
layers |
Die Sammlung der H.265-Ausgabeebenen, die vom Encoder erzeugt werden sollen. |
|
sceneChangeDetection |
boolean |
Gibt an, ob der Encoder keyframes bei Szenenänderungen einfügen soll. Wenn nicht angegeben, ist der Standardwert false. Dieses Flag sollte nur auf TRUE festgelegt werden, wenn der Encoder für die Erstellung eines einzelnen Ausgabevideos konfiguriert wird. |
stretchMode |
Der Größenänderungsmodus: Gibt an, wie die Größe des Eingabevideos an die gewünschte Ausgabeauflösung angepasst wird. Der Standardwert ist AutoSize. |
|
syncMode |
Videosynchronisierungsmodus |
H265VideoProfile
Derzeit unterstützen wir Main. Der Standardwert ist Auto.
Name | Typ | Beschreibung |
---|---|---|
Auto |
string |
Weist den Encoder an, automatisch das entsprechende H.265-Profil zu bestimmen. |
Main |
string |
Hauptprofil (https://x265.readthedocs.io/en/default/cli.html?highlight=profile#profile-level-tier) |
Main10 |
string |
Hauptprofil 10 (https://en.wikipedia.org/wiki/High_Efficiency_Video_Coding#Main_10) |
Image
Beschreibt die grundlegenden Eigenschaften zum Generieren von Miniaturansichten aus dem Eingabevideo.
Name | Typ | Beschreibung |
---|---|---|
@odata.type |
string:
#Microsoft. |
Der Diskriminator für abgeleitete Typen. |
keyFrameInterval |
string |
Der Abstand zwischen zwei Keyframes. Der Wert sollte ungleich Null im Bereich [0,5, 20] Sekunden sein, der im ISO 8601-Format angegeben ist. Der Standardwert ist 2 Sekunden (PT2S). Beachten Sie, dass diese Einstellung ignoriert wird, wenn VideoSyncMode.Passthrough festgelegt ist, wobei der KeyFrameInterval-Wert der Einstellung für die Eingabequelle folgt. |
label |
string |
Eine optionale Bezeichnung für den Codec. Die Bezeichnung kann verwendet werden, um das Muxingverhalten zu steuern. |
range |
string |
Die Position relativ zur transformationsvoreingestellten Startzeit im Eingabevideo, an der die Generierung von Miniaturansichten beendet werden soll. Der Wert kann im ISO 8601-Format (z. B. PT5M30S, um bei 5 Minuten und 30 Sekunden ab der Startzeit anzuhalten) oder eine Frameanzahl (z. B. 300, um beim 300. Frame des Frames zum Startzeitpunkt anzuhalten). Wenn dieser Wert 1 ist, bedeutet dies, dass nur eine Miniaturansicht zur Startzeit erzeugt wird, oder ein relativer Wert zur Streamdauer (z. B. 50 %, um bei der Hälfte der Streamdauer ab der Startzeit anzuhalten). Der Standardwert ist 100 %. Dies bedeutet, dass am Ende des Streams angehalten werden soll. |
start |
string |
Die Position im Eingabevideo, von der aus mit dem Generieren von Miniaturansichten begonnen werden soll. Der Wert kann das ISO 8601-Format aufweisen, z. B. PT05S, damit ab fünf Sekunden gestartet wird, oder die Nummer eines Frames, z. B. 10, damit beim zehnten Frame gestartet wird, oder einen relativen Wert zur Dauer des Streams, z. B. 10 %, damit bei zehn Prozent der Gesamtdauer des Streams gestartet wird. Außerdem wird ein Makro namens {Best} unterstützt, das den Encoder anweist, die beste Vorschauminiatur aus den ersten Sekunden des Videos auszuwählen. Dabei wird unabhängig von anderen Einstellungen für „step“ und „range“ nur eine Vorschauminiatur erstellt. Der Standardwert des Makros lautet {Best}. |
step |
string |
Die Intervalle, in denen Miniaturansichten generiert werden. Der Wert kann im ISO 8601-Format (z. B. PT05S für ein Bild alle 5 Sekunden) oder eine Frameanzahl (z. B. 30 für ein Bild alle 30 Frames) oder ein relativer Wert zur Streamdauer (z. B. 10 % für ein Bild alle 10 % der Streamdauer) sein. Hinweis: Der Schrittwert wirkt sich auf die erste generierte Miniaturansicht aus, die möglicherweise nicht genau die ist, die bei der voreingestellten Transformationsstartzeit angegeben wurde. Dies liegt am Encoder, der versucht, die beste Miniaturansicht zwischen Startzeit und Schrittposition ab Startzeit als erste Ausgabe auszuwählen. Da der Standardwert 10 % beträgt, bedeutet dies, dass die erste generierte Miniaturansicht weit von der zur Startzeit angegebenen entfernt ist, wenn der Stream eine lange Dauer hat. Versuchen Sie, einen angemessenen Wert für Schritt auszuwählen, wenn die erste Miniaturansicht nahe der Startzeit erwartet wird, oder legen Sie den Wert bereich auf 1 fest, wenn zur Startzeit nur eine Miniaturansicht benötigt wird. |
stretchMode |
Der Größenänderungsmodus: Gibt an, wie die Größe des Eingabevideos an die gewünschte Ausgabeauflösung angepasst wird. Der Standardwert ist AutoSize. |
|
syncMode |
Videosynchronisierungsmodus |
ImageFormat
Beschreibt die Eigenschaften für eine Ausgabebilddatei.
Name | Typ | Beschreibung |
---|---|---|
@odata.type |
string:
#Microsoft. |
Der Diskriminator für abgeleitete Typen. |
filenamePattern |
string |
Das Dateibenennungsmuster, das für die Erstellung von Ausgabedateien verwendet wird. Die folgenden Makros werden im Dateinamen unterstützt: {Basename} – Ein Erweiterungsmakro, das den Namen der Eingabevideodatei verwendet. Wenn der Basisname (das Dateisuffix ist nicht enthalten) der Eingabevideodatei weniger als 32 Zeichen lang ist, wird der Basisname der Eingabevideodateien verwendet. Wenn die Länge des Basisnamens der Eingabevideodatei 32 Zeichen überschreitet, wird der Basisname auf die ersten 32 Zeichen der Gesamtlänge gekürzt. {Extension} – Die entsprechende Erweiterung für dieses Format. {Label} – Die Bezeichnung, die dem Codec/der Ebene zugewiesen ist. {Index} – Ein eindeutiger Index für Miniaturansichten. Gilt nur für Miniaturansichten. {AudioStream} - Zeichenfolge "Audio" plus Audiostreamnummer (Start von 1). {Bitrate} – Die Audio-/Videobitrate in Kbit/s. Gilt nicht für Miniaturansichten. {Codec} – Der Typ des Audio-/Video-Codecs. {Resolution} – Die Videoauflösung. Alle nicht substituierten Makros werden reduziert und aus dem Dateinamen entfernt. |
InputFile
Eine InputDefinition für eine einzelne Datei. TrackSelections sind auf die angegebene Datei festgelegt.
Name | Typ | Beschreibung |
---|---|---|
@odata.type |
string:
#Microsoft. |
Der Diskriminator für abgeleitete Typen. |
filename |
string |
Der Name der Datei, für die diese Eingabedefinition gilt. |
includedTracks | TrackDescriptor[]: |
Die Liste der TrackDescriptors, die die Metadaten und die Auswahl der Spuren in der Eingabe definieren. |
InsightsType
Definiert den Typ der Erkenntnisse, die der Dienst generieren soll. Die zulässigen Werte sind "AudioInsightsOnly", "VideoInsightsOnly" und "AllInsights". Der Standardwert ist AllInsights. Wenn Sie dies auf AllInsights festlegen und die Eingabe nur Audio ist, werden nur Audioerkenntnisse generiert. Wenn es sich bei der Eingabe nur um Video handelt, werden auch nur Videoeinblicke generiert. Es wird empfohlen, AudioInsightsOnly nicht zu verwenden, wenn Sie erwarten, dass einige Ihrer Eingaben nur Video sind. oder verwenden Sie VideoInsightsOnly, wenn Sie erwarten, dass einige Ihrer Eingaben nur Audio sind. Ihre Aufträge unter solchen Bedingungen würden einen Fehler verursachen.
Name | Typ | Beschreibung |
---|---|---|
AllInsights |
string |
Generieren Von Audio- und Videoerkenntnissen Tritt ein Fehler auf, wenn Audio- oder Videoeinblicke fehlschlagen. |
AudioInsightsOnly |
string |
Generieren sie Nur-Audio-Erkenntnisse. Video ignorieren, auch wenn vorhanden. Tritt ein Fehler auf, wenn keine Audiodaten vorhanden sind. |
VideoInsightsOnly |
string |
Generieren sie nur Video-Erkenntnisse. Audio ignorieren, falls vorhanden. Schlägt fehl, wenn kein Video vorhanden ist. |
InterleaveOutput
Legt den Interleave-Modus der Ausgabe fest, um zu steuern, wie Audio und Video im Containerformat gespeichert werden. Beispiel: Legen Sie InterleavedOutput auf NonInterleavedOutput fest, um nur Audio- und Videoausgaben in separaten MP4-Dateien zu erzeugen.
Name | Typ | Beschreibung |
---|---|---|
InterleavedOutput |
string |
Die Ausgabe umfasst sowohl Audio als auch Video. |
NonInterleavedOutput |
string |
Die Ausgabe ist nur Video oder nur Audio. |
Job
Ein Auftragsressourcentyp. Status und Status können abgerufen werden, indem Sie einen Auftrag abfragen oder Ereignisse mithilfe von EventGrid abonnieren.
Name | Typ | Beschreibung |
---|---|---|
id |
string |
Vollqualifizierte Ressourcen-ID für die Ressource. Beispiel: /subscriptions/{subscriptionId}/resourceGroups/{resourceGroupName}/providers/{resourceProviderNamespace}/{resourceType}/{resourceName} |
name |
string |
Der Name der Ressource |
properties.correlationData |
object |
Vom Kunden bereitgestellte Schlüssel- und Wertpaare, die in Auftrags- und JobOutput-Zustandsereignissen zurückgegeben werden. |
properties.created |
string |
Das UTC-Datum und die Uhrzeit, zu dem der Kunde den Auftrag im Format "JJJJ-MM-TTThh:mm:ssZ" erstellt hat. |
properties.description |
string |
Optionale vom Kunden bereitgestellte Beschreibung des Auftrags. |
properties.endTime |
string |
Das UTC-Datum und die Uhrzeit, zu denen dieser Auftrag die Verarbeitung abgeschlossen hat. |
properties.input | JobInput: |
Die Eingaben für den Auftrag. |
properties.lastModified |
string |
Das UTC-Datum und die Uhrzeit, zu dem der Kunde den Auftrag zuletzt aktualisiert hat, im Format "JJJJ-MM-TTThh:mm:ssZ". |
properties.outputs | JobOutput[]: |
Die Ausgaben für den Auftrag. |
properties.priority |
Die Priorität, mit dem der Auftrag verarbeitet werden soll. Aufträge mit höherer Priorität werden vor Aufträgen mit niedrigerer Priorität verarbeitet. Wenn diese Eigenschaft nicht festgelegt ist, ist die Priorität standardmäßig normal. |
|
properties.startTime |
string |
Das UTC-Datum und die Uhrzeit, zu der dieser Auftrag mit der Verarbeitung begonnen hat. |
properties.state |
Der aktuelle Status des Auftrags. |
|
systemData |
Die Systemmetadaten, die sich auf diese Ressource beziehen. |
|
type |
string |
Der Typ der Ressource. Z. B. "Microsoft.Compute/virtualMachines" oder "Microsoft.Storage/storageAccounts" |
JobError
Details zu JobOutput-Fehlern.
Name | Typ | Beschreibung |
---|---|---|
category |
Hilft bei der Kategorisierung von Fehlern. |
|
code |
Fehlercode, der den Fehler beschreibt. |
|
details |
Ein Array von Details zu bestimmten Fehlern, die zu diesem gemeldeten Fehler geführt haben. |
|
message |
string |
Eine lesbare sprachabhängige Darstellung des Fehlers. |
retry |
Gibt an, dass es möglich ist, den Auftrag erneut zu versuchen. Wenn die Wiederholung nicht erfolgreich ist, wenden Sie sich über das Azure-Portal an Azure-Support. |
JobErrorCategory
Hilft bei der Kategorisierung von Fehlern.
Name | Typ | Beschreibung |
---|---|---|
Account |
string |
Der Fehler bezieht sich auf Kontoinformationen. |
Configuration |
string |
Der Fehler bezieht sich auf die Konfiguration. |
Content |
string |
Der Fehler bezieht sich auf Daten in den Eingabedateien. |
Download |
string |
Der Fehler hängt mit dem Download zusammen. |
Service |
string |
Der Fehler ist dienstbezogen. |
Upload |
string |
Der Fehler hängt mit dem Upload zusammen. |
JobErrorCode
Fehlercode, der den Fehler beschreibt.
Name | Typ | Beschreibung |
---|---|---|
ConfigurationUnsupported |
string |
Es gab ein Problem mit der Kombination aus Eingabedateien und angewendeten Konfigurationseinstellungen, korrigieren Sie die Konfigurationseinstellungen und wiederholen Sie den Vorgang mit derselben Eingabe, oder ändern Sie die Eingabe, um der Konfiguration zu entsprechen. |
ContentMalformed |
string |
Es ist ein Problem mit dem Eingabeinhalt aufgetreten (z. B. Null-Byte-Dateien oder beschädigte/nicht decodierbare Dateien). Überprüfen Sie die Eingabedateien. |
ContentUnsupported |
string |
Es gab ein Problem mit dem Format der Eingabe (ungültige Mediendatei oder eine nicht unterstützte Datei/Codec), überprüfen Sie die Gültigkeit der Eingabedateien. |
DownloadNotAccessible |
string |
Beim Versuch, die Eingabedateien herunterzuladen, war der Zugriff auf die Dateien nicht möglich. Überprüfen Sie die Verfügbarkeit der Quelle. |
DownloadTransientError |
string |
Beim Versuch, die Eingabedateien herunterzuladen, ist während der Übertragung ein Problem aufgetreten (Speicherdienst, Netzwerkfehler). Sehen Sie sich Details an, und überprüfen Sie Ihre Quelle. |
IdentityUnsupported |
string |
Fehler beim Überprüfen der Kontoidentität. Überprüfen und korrigieren Sie die Identitätskonfigurationen, und wiederholen Sie den Vorgang. Wenn der Fehler nicht erfolgreich ist, wenden Sie sich bitte an den Support. |
ServiceError |
string |
Schwerwiegender Dienstfehler wenden Sie sich an den Support. |
ServiceTransientError |
string |
Vorübergehender Fehler, bitte wiederholen Sie den Vorgang. Wenn die Wiederholung nicht erfolgreich ist, wenden Sie sich an den Support. |
UploadNotAccessible |
string |
Beim Versuch, die Ausgabedateien hochzuladen, war das Ziel nicht erreichbar. Überprüfen Sie die Verfügbarkeit des Ziels. |
UploadTransientError |
string |
Beim Versuch, die Ausgabedateien hochzuladen, ist während der Übertragung ein Problem aufgetreten (Speicherdienst, Netzwerkfehler). Sehen Sie sich Details an, und überprüfen Sie Ihr Ziel. |
JobErrorDetail
Details zu JobOutput-Fehlern.
Name | Typ | Beschreibung |
---|---|---|
code |
string |
Code, der die Fehlerdetails beschreibt. |
message |
string |
Eine lesbare Darstellung des Fehlers. |
JobInputAsset
Stellt ein Objekt für die Eingabe in einen Auftrag dar.
Name | Typ | Beschreibung |
---|---|---|
@odata.type |
string:
#Microsoft. |
Der Diskriminator für abgeleitete Typen. |
assetName |
string |
Der Name des Eingabeobjekts. |
end | ClipTime: |
Definiert einen Punkt auf dem Zeitleiste des Eingabemediums, an dem die Verarbeitung endet. Standardmäßig wird das Ende der Eingabemedien verwendet. |
files |
string[] |
Liste der Dateien. Erforderlich für JobInputHttp. Maximal 4.000 Zeichen pro Zeichen. Abfragezeichenfolgen werden in Dienstantworten nicht zurückgegeben, um die Offenlegung vertraulicher Daten zu verhindern. |
inputDefinitions | InputDefinition[]: |
Definiert eine Liste von InputDefinitions. Für jede InputDefinition definiert sie eine Liste der Trackauswahlen und zugehörigen Metadaten. |
label |
string |
Eine Bezeichnung, die einem JobInputClip zugewiesen ist und zum Erfüllen eines in der Transformation verwendeten Verweises verwendet wird. Beispielsweise kann eine Transformation erstellt werden, um eine Bilddatei mit der Bezeichnung "xyz" zu erstellen und als Überlagerung auf das Eingabevideo anzuwenden, bevor sie codiert wird. Beim Übermitteln eines Auftrags sollte genau einer der JobInputs die Imagedatei sein, und es sollte die Bezeichnung "xyz" haben. |
start | ClipTime: |
Definiert einen Punkt auf dem Zeitleiste des Eingabemediums, an dem die Verarbeitung beginnt. Standardmäßig wird der Anfang des Eingabemediums verwendet. |
JobInputClip
Stellt Eingabedateien für einen Auftrag dar.
Name | Typ | Beschreibung |
---|---|---|
@odata.type |
string:
#Microsoft. |
Der Diskriminator für abgeleitete Typen. |
end | ClipTime: |
Definiert einen Punkt auf dem Zeitleiste des Eingabemediums, an dem die Verarbeitung endet. Standardmäßig wird das Ende der Eingabemedien verwendet. |
files |
string[] |
Liste der Dateien. Erforderlich für JobInputHttp. Maximal 4.000 Zeichen pro Zeichen. Abfragezeichenfolgen werden in Dienstantworten nicht zurückgegeben, um die Offenlegung vertraulicher Daten zu verhindern. |
inputDefinitions | InputDefinition[]: |
Definiert eine Liste von InputDefinitions. Für jede InputDefinition definiert sie eine Liste der Trackauswahlen und zugehörigen Metadaten. |
label |
string |
Eine Bezeichnung, die einem JobInputClip zugewiesen ist und zum Erfüllen eines in der Transformation verwendeten Verweises verwendet wird. Beispielsweise kann eine Transformation erstellt werden, um eine Bilddatei mit der Bezeichnung "xyz" zu erstellen und als Überlagerung auf das Eingabevideo anzuwenden, bevor sie codiert wird. Beim Übermitteln eines Auftrags sollte genau einer der JobInputs die Imagedatei sein, und es sollte die Bezeichnung "xyz" haben. |
start | ClipTime: |
Definiert einen Punkt auf dem Zeitleiste des Eingabemediums, an dem die Verarbeitung beginnt. Standardmäßig wird der Anfang des Eingabemediums verwendet. |
JobInputHttp
Stellt die HTTPS-Auftragseingabe dar.
Name | Typ | Beschreibung |
---|---|---|
@odata.type |
string:
#Microsoft. |
Der Diskriminator für abgeleitete Typen. |
baseUri |
string |
Basis-URI für HTTPS-Auftragseingabe. Es wird mit den angegebenen Dateinamen verkettet. Wenn kein Basis-URI angegeben wird, wird davon ausgegangen, dass die bereitgestellte Dateiliste vollqualifizierte URIs ist. Maximale Länge von 4.000 Zeichen. Die Abfragezeichenfolgen werden in Dienstantworten nicht zurückgegeben, um die Offenlegung vertraulicher Daten zu verhindern. |
end | ClipTime: |
Definiert einen Punkt auf der Zeitleiste des Eingabemediums, an dem die Verarbeitung endet. Standardmäßig wird das Ende des Eingabemediums verwendet. |
files |
string[] |
Liste der Dateien. Erforderlich für JobInputHttp. Maximal 4.000 Zeichen pro Zeichen. Abfragezeichenfolgen werden in Dienstantworten nicht zurückgegeben, um die Offenlegung vertraulicher Daten zu verhindern. |
inputDefinitions | InputDefinition[]: |
Definiert eine Liste von InputDefinitions. Für jede InputDefinition definiert sie eine Liste der Trackauswahlen und zugehörigen Metadaten. |
label |
string |
Eine Bezeichnung, die einem JobInputClip zugewiesen ist, der verwendet wird, um einen in der Transformation verwendeten Verweis zu erfüllen. Beispielsweise kann eine Transformation so erstellt werden, dass eine Bilddatei mit der Bezeichnung "xyz" aufgenommen und als Überlagerung auf das Eingabevideo angewendet wird, bevor es codiert wird. Wenn Sie einen Auftrag übermitteln, sollte genau einer der JobInputs die Bilddatei sein und die Bezeichnung "xyz" aufweisen. |
start | ClipTime: |
Definiert einen Punkt auf der Zeitleiste des Eingabemediums, an dem die Verarbeitung gestartet wird. Standardmäßig wird der Anfang des Eingabemediums verwendet. |
JobInputs
Beschreibt eine Liste von Eingaben für einen Auftrag.
Name | Typ | Beschreibung |
---|---|---|
@odata.type |
string:
#Microsoft. |
Der Diskriminator für abgeleitete Typen. |
inputs | JobInput[]: |
Liste der Eingaben für einen Auftrag. |
JobInputSequence
Eine Sequenz enthält eine sortierte Liste von Clips, wobei jeder Clip ein JobInput ist. Die Sequenz wird als einzelne Eingabe behandelt.
Name | Typ | Beschreibung |
---|---|---|
@odata.type |
string:
#Microsoft. |
Der Diskriminator für abgeleitete Typen. |
inputs | JobInputClip[]: |
JobInputs, die den Zeitleiste bilden. |
JobOutputAsset
Stellt ein Medienobjekt dar, das als JobOutput verwendet wird.
Name | Typ | Beschreibung |
---|---|---|
@odata.type |
string:
#Microsoft. |
Der Diskriminator für abgeleitete Typen. |
assetName |
string |
Der Name des Ausgabeobjekts. |
endTime |
string |
Das UTC-Datum und die Uhrzeit, zu dem diese Auftragsausgabe die Verarbeitung abgeschlossen hat. |
error |
Wenn sich jobOutput im Fehlerzustand befindet, enthält er die Details des Fehlers. |
|
label |
string |
Eine Bezeichnung, die einem JobOutput zugewiesen ist, um sie eindeutig zu identifizieren. Dies ist nützlich, wenn Ihre Transformation über mehr als einen TransformOutput verfügt, wobei Ihr Auftrag mehr als einen JobOutput aufweist. In solchen Fällen fügen Sie beim Übermitteln des Auftrags zwei oder mehr JobOutputs in der gleichen Reihenfolge wie TransformOutputs in der Transformation hinzu. Wenn Sie den Auftrag anschließend entweder über Ereignisse oder in einer GET-Anforderung abrufen, können Sie die Bezeichnung verwenden, um den JobOutput einfach zu identifizieren. Wenn keine Bezeichnung angegeben wird, wird der Standardwert '{presetName}_{outputIndex}' verwendet, wobei der Voreinstellungsname der Name der Voreinstellung im entsprechenden TransformOutput und der Ausgabeindex der relative Index dieses JobOutput-Werts innerhalb des Auftrags ist. Beachten Sie, dass dieser Index mit dem relativen Index des entsprechenden TransformOutput-Werts innerhalb seiner Transformation identisch ist. |
presetOverride | Preset: |
Eine Voreinstellung, die verwendet wird, um die Voreinstellung in der entsprechenden Transformationsausgabe zu überschreiben. |
progress |
integer |
Wenn sich jobOutput im Verarbeitungszustand befindet, enthält dieser den Prozentsatz des Auftragsabschlusses. Der Wert ist eine Schätzung und soll nicht zur Vorhersage von Auftragsabschlusszeiten verwendet werden. Verwenden Sie die State-Eigenschaft, um zu bestimmen, ob der JobOutput abgeschlossen ist. |
startTime |
string |
Das UTC-Datum und die Uhrzeit, zu dem diese Auftragsausgabe mit der Verarbeitung begonnen hat. |
state |
Beschreibt den Status von JobOutput. |
JobRetry
Gibt an, dass es möglich ist, den Auftrag erneut zu versuchen. Wenn die Wiederholung nicht erfolgreich ist, wenden Sie sich über das Azure-Portal an Azure-Support.
Name | Typ | Beschreibung |
---|---|---|
DoNotRetry |
string |
Das Problem muss untersucht werden, und dann wird der Auftrag erneut mit Korrekturen übermittelt oder wiederholt, nachdem das zugrunde liegende Problem behoben wurde. |
MayRetry |
string |
Das Problem kann behoben werden, nachdem sie einen bestimmten Zeitraum gewartet und denselben Auftrag erneut übermittelt haben. |
JobState
Beschreibt den Status von JobOutput.
Name | Typ | Beschreibung |
---|---|---|
Canceled |
string |
Der Auftrag wurde abgebrochen. Dies ist ein endgültiger Zustand für den Auftrag. |
Canceling |
string |
Der Auftrag wird gerade abgebrochen. Dies ist ein vorübergehender Zustand für den Auftrag. |
Error |
string |
Beim Auftrag ist ein Fehler aufgetreten. Dies ist ein endgültiger Zustand für den Auftrag. |
Finished |
string |
Der Auftrag ist abgeschlossen. Dies ist ein endgültiger Zustand für den Auftrag. |
Processing |
string |
Der Auftrag wird verarbeitet. Dies ist ein vorübergehender Zustand für den Auftrag. |
Queued |
string |
Der Auftrag befindet sich in einer Warteschlange und wartet darauf, dass Ressourcen verfügbar werden. Dies ist ein vorübergehender Status. |
Scheduled |
string |
Der Auftrag wird für die Ausführung auf einer verfügbaren Ressource geplant. Dies ist ein vorübergehender Zustand zwischen Warteschlange und Verarbeitungsstatus. |
JpgFormat
Beschreibt die Einstellungen zum Erstellen von JPEG-Miniaturansichten.
Name | Typ | Beschreibung |
---|---|---|
@odata.type |
string:
#Microsoft. |
Der Diskriminator für abgeleitete Typen. |
filenamePattern |
string |
Das Dateibenennungsmuster, das für die Erstellung von Ausgabedateien verwendet wird. Die folgenden Makros werden im Dateinamen unterstützt: {Basename} – Ein Erweiterungsmakro, das den Namen der Eingabevideodatei verwendet. Wenn der Basisname (das Dateisuffix ist nicht enthalten) der Eingabevideodatei weniger als 32 Zeichen lang ist, wird der Basisname der Eingabevideodateien verwendet. Wenn die Länge des Basisnamens der Eingabevideodatei 32 Zeichen überschreitet, wird der Basisname auf die ersten 32 Zeichen der Gesamtlänge abgeschnitten. {Extension} – Die entsprechende Erweiterung für dieses Format. {Label} – Die Bezeichnung, die dem Codec/der Ebene zugewiesen ist. {Index} – Ein eindeutiger Index für Miniaturansichten. Gilt nur für Miniaturansichten. {AudioStream} - Zeichenfolge "Audio" plus Audiostreamnummer (Start von 1). {Bitrate} – Die Audio-/Video-Bitrate in KBit/s. Gilt nicht für Miniaturansichten. {Codec} – Der Typ des Audio-/Videocodecs. {Resolution} – Die Videoauflösung. Alle nichtubstituierten Makros werden reduziert und aus dem Dateinamen entfernt. |
JpgImage
Beschreibt die Eigenschaften zum Erstellen einer Reihe von JPEG-Bildern aus dem Eingabevideo.
Name | Typ | Beschreibung |
---|---|---|
@odata.type |
string:
#Microsoft. |
Der Diskriminator für abgeleitete Typen. |
keyFrameInterval |
string |
Der Abstand zwischen zwei Keyframes. Der Wert sollte im Bereich [0,5, 20] Sekunden ungleich null sein, der im ISO 8601-Format angegeben ist. Der Standardwert ist 2 Sekunden (PT2S). Beachten Sie, dass diese Einstellung ignoriert wird, wenn VideoSyncMode.Passthrough festgelegt ist, wobei der KeyFrameInterval-Wert der Eingabequelleneinstellung folgt. |
label |
string |
Eine optionale Bezeichnung für den Codec. Die Bezeichnung kann verwendet werden, um das Muxingverhalten zu steuern. |
layers |
Jpg |
Eine Sammlung von JPEG-Ausgabebildebenen, die vom Encoder erzeugt werden sollen. |
range |
string |
Die Position relativ zur transformationsvoreingestellten Startzeit im Eingabevideo, an der die Generierung von Miniaturansichten beendet werden soll. Der Wert kann im ISO 8601-Format (z. B. PT5M30S, um bei 5 Minuten und 30 Sekunden ab der Startzeit anzuhalten) oder eine Frameanzahl (z. B. 300, um beim 300. Frame des Frames zum Start anzuhalten) sein. Wenn dieser Wert 1 ist, bedeutet dies, dass zur Startzeit nur eine Miniaturansicht oder ein relativer Wert zur Streamdauer erzeugt wird (z. B. 50 %, um bei der Hälfte der Streamdauer ab der Startzeit anzuhalten). Der Standardwert ist 100 %. Dies bedeutet, dass am Ende des Streams angehalten werden soll. |
spriteColumn |
integer |
Legt die Anzahl der Spalten fest, die im Miniaturansichts-Sprite-Bild verwendet werden. Die Anzahl der Zeilen wird automatisch berechnet, und eine VTT-Datei mit den Koordinatenzuordnungen für jede Miniaturansicht im Sprite wird generiert. Hinweis: Dieser Wert sollte eine positive ganze Zahl sein, und ein korrekter Wert wird empfohlen, damit die Auflösung des Ausgabebilds nicht über das maximale JPEG-Pixelauflösungslimit von 65535 x 655535 hinausgeht. |
start |
string |
Die Position im Eingabevideo, von der aus mit der Erstellung von Miniaturansichten begonnen werden soll. Der Wert kann das ISO 8601-Format aufweisen, z. B. PT05S, damit ab fünf Sekunden gestartet wird, oder die Nummer eines Frames, z. B. 10, damit beim zehnten Frame gestartet wird, oder einen relativen Wert zur Dauer des Streams, z. B. 10 %, damit bei zehn Prozent der Gesamtdauer des Streams gestartet wird. Außerdem wird ein Makro namens {Best} unterstützt, das den Encoder anweist, die beste Vorschauminiatur aus den ersten Sekunden des Videos auszuwählen. Dabei wird unabhängig von anderen Einstellungen für „step“ und „range“ nur eine Vorschauminiatur erstellt. Der Standardwert des Makros lautet {Best}. |
step |
string |
Die Intervalle, in denen Miniaturansichten generiert werden. Der Wert kann im ISO 8601-Format (z. B. PT05S für ein Bild alle 5 Sekunden) oder eine Frameanzahl (z. B. 30 für ein Bild alle 30 Frames) oder ein relativer Wert für die Streamdauer (z. B. 10 % für ein Bild alle 10 % der Datenstromdauer) sein. Hinweis: Der Schrittwert wirkt sich auf die erste generierte Miniaturansicht aus, die möglicherweise nicht genau die Miniaturansicht ist, die bei der Startzeit der transformationsvoreingestellten Transformation angegeben wurde. Dies ist auf den Encoder zurückzuführen, der versucht, die beste Miniaturansicht zwischen Startzeit und Schrittposition von der Startzeit als erste Ausgabe auszuwählen. Da der Standardwert 10 % beträgt, bedeutet dies, dass die erste generierte Miniaturansicht, wenn der Stream eine lange Dauer hat, möglicherweise weit von der zur Startzeit angegebenen Miniaturansicht entfernt ist. Versuchen Sie, einen angemessenen Wert für Schritt auszuwählen, wenn die erste Miniaturansicht nahe der Startzeit erwartet wird, oder legen Sie den Wert bereich auf 1 fest, wenn zur Startzeit nur eine Miniaturansicht erforderlich ist. |
stretchMode |
Der Größenänderungsmodus: Die Größe des Eingabevideos wird an die gewünschte Ausgabeauflösung(en) angepasst. Die Standardeinstellung ist AutoSize. |
|
syncMode |
Videosynchronisierungsmodus |
JpgLayer
Beschreibt die Einstellungen zum Erstellen eines JPEG-Bilds aus dem Eingabevideo.
Name | Typ | Beschreibung |
---|---|---|
height |
string |
Die Höhe des Ausgabevideos für diese Ebene. Der Wert kann absolut (in Pixel) oder relativ (in Prozent) sein. Beispielsweise bedeutet 50 %, dass das Ausgabevideo halb so viele Pixel in der Höhe hat wie die Eingabe. |
label |
string |
Die alphanumerische Bezeichnung für diese Ebene, die zum Multiplexen verschiedener Video- und Audioebenen oder zum Benennen der Ausgabedatei verwendet werden kann. |
quality |
integer |
Die Komprimierungsqualität der JPEG-Ausgabe. Der Bereich liegt zwischen 0 und 100, der Standardwert ist 70. |
width |
string |
Die Breite des Ausgabevideos für diese Ebene. Der Wert kann absolut (in Pixel) oder relativ (in Prozent) sein. Beispielsweise bedeutet 50 %, dass das Ausgabevideo halb so viele Pixel breit ist wie die Eingabe. |
Mp4Format
Beschreibt die Eigenschaften für eine AUSGABE-ISO-MP4-Datei.
Name | Typ | Beschreibung |
---|---|---|
@odata.type |
string:
#Microsoft. |
Der Diskriminator für abgeleitete Typen. |
filenamePattern |
string |
Das Dateibenennungsmuster, das für die Erstellung von Ausgabedateien verwendet wird. Die folgenden Makros werden im Dateinamen unterstützt: {Basename} – Ein Erweiterungsmakro, das den Namen der Eingabevideodatei verwendet. Wenn der Basisname (das Dateisuffix ist nicht enthalten) der Eingabevideodatei weniger als 32 Zeichen lang ist, wird der Basisname der Eingabevideodateien verwendet. Wenn die Länge des Basisnamens der Eingabevideodatei 32 Zeichen überschreitet, wird der Basisname auf die ersten 32 Zeichen der Gesamtlänge abgeschnitten. {Extension} – Die entsprechende Erweiterung für dieses Format. {Label} – Die Bezeichnung, die dem Codec/der Ebene zugewiesen ist. {Index} – Ein eindeutiger Index für Miniaturansichten. Gilt nur für Miniaturansichten. {AudioStream} - Zeichenfolge "Audio" plus Audiostreamnummer (Start von 1). {Bitrate} – Die Audio-/Video-Bitrate in KBit/s. Gilt nicht für Miniaturansichten. {Codec} – Der Typ des Audio-/Videocodecs. {Resolution} – Die Videoauflösung. Alle nichtubstituierten Makros werden reduziert und aus dem Dateinamen entfernt. |
outputFiles |
Die Liste der zu erstellenden Ausgabedateien. Jeder Eintrag in der Liste ist ein Satz von Beschriftungen der Audio- und Videoebene, die zusammen muxiert werden sollen. |
MultiBitrateFormat
Beschreibt die Eigenschaften zum Erstellen einer Auflistung von GOP-ausgerichteten Dateien mit mehreren Bitraten. Das Standardverhalten besteht darin, eine Ausgabedatei für jede Videoebene zu erstellen, die zusammen mit allen Audios muxiert wird. Die genau erstellten Ausgabedateien können durch Angabe der outputFiles-Auflistung gesteuert werden.
Name | Typ | Beschreibung |
---|---|---|
@odata.type |
string:
#Microsoft. |
Der Diskriminator für abgeleitete Typen. |
filenamePattern |
string |
Das Dateibenennungsmuster, das für die Erstellung von Ausgabedateien verwendet wird. Die folgenden Makros werden im Dateinamen unterstützt: {Basename} – Ein Erweiterungsmakro, das den Namen der Eingabevideodatei verwendet. Wenn der Basisname (das Dateisuffix ist nicht enthalten) der Eingabevideodatei weniger als 32 Zeichen lang ist, wird der Basisname der Eingabevideodateien verwendet. Wenn die Länge des Basisnamens der Eingabevideodatei 32 Zeichen überschreitet, wird der Basisname auf die ersten 32 Zeichen der Gesamtlänge abgeschnitten. {Extension} – Die entsprechende Erweiterung für dieses Format. {Label} – Die Bezeichnung, die dem Codec/der Ebene zugewiesen ist. {Index} – Ein eindeutiger Index für Miniaturansichten. Gilt nur für Miniaturansichten. {AudioStream} - Zeichenfolge "Audio" plus Audiostreamnummer (Start von 1). {Bitrate} – Die Audio-/Video-Bitrate in KBit/s. Gilt nicht für Miniaturansichten. {Codec} – Der Typ des Audio-/Videocodecs. {Resolution} – Die Videoauflösung. Alle nichtubstituierten Makros werden reduziert und aus dem Dateinamen entfernt. |
outputFiles |
Die Liste der zu erstellenden Ausgabedateien. Jeder Eintrag in der Liste ist eine Gruppe von Beschriftungen der Audio- und Videoebene, die zusammen muxiert werden sollen. |
OutputFile
Stellt eine erstellte Ausgabedatei dar.
Name | Typ | Beschreibung |
---|---|---|
labels |
string[] |
Die Liste der Bezeichnungen, die beschreiben, wie der Encoder Video und Audio in eine Ausgabedatei multiplexen soll. Wenn der Encoder beispielsweise zwei Videoebenen mit den Bezeichnungen v1 und v2 und eine Audioebene mit der Bezeichnung a1 erzeugt, weist ein Array wie "[v1, a1]" den Encoder an, eine Ausgabedatei mit der durch v1 dargestellten Videospur und der durch a1 dargestellten Audiospur zu erstellen. |
PngFormat
Beschreibt die Einstellungen zum Erstellen von PNG-Miniaturansichten.
Name | Typ | Beschreibung |
---|---|---|
@odata.type |
string:
#Microsoft. |
Der Diskriminator für abgeleitete Typen. |
filenamePattern |
string |
Das Dateibenennungsmuster, das für die Erstellung von Ausgabedateien verwendet wird. Die folgenden Makros werden im Dateinamen unterstützt: {Basename} – Ein Erweiterungsmakro, das den Namen der Eingabevideodatei verwendet. Wenn der Basisname (das Dateisuffix ist nicht enthalten) der Eingabevideodatei weniger als 32 Zeichen lang ist, wird der Basisname der Eingabevideodateien verwendet. Wenn die Länge des Basisnamens der Eingabevideodatei 32 Zeichen überschreitet, wird der Basisname auf die ersten 32 Zeichen der Gesamtlänge abgeschnitten. {Extension} – Die entsprechende Erweiterung für dieses Format. {Label} – Die Bezeichnung, die dem Codec/der Ebene zugewiesen ist. {Index} – Ein eindeutiger Index für Miniaturansichten. Gilt nur für Miniaturansichten. {AudioStream} - Zeichenfolge "Audio" plus Audiostreamnummer (Start von 1). {Bitrate} – Die Audio-/Video-Bitrate in KBit/s. Gilt nicht für Miniaturansichten. {Codec} – Der Typ des Audio-/Videocodecs. {Resolution} – Die Videoauflösung. Alle nichtubstituierten Makros werden reduziert und aus dem Dateinamen entfernt. |
PngImage
Beschreibt die Eigenschaften zum Erstellen einer Reihe von PNG-Bildern aus dem Eingabevideo.
Name | Typ | Beschreibung |
---|---|---|
@odata.type |
string:
#Microsoft. |
Der Diskriminator für abgeleitete Typen. |
keyFrameInterval |
string |
Der Abstand zwischen zwei Keyframes. Der Wert sollte im Bereich [0,5, 20] Sekunden ungleich null sein, der im ISO 8601-Format angegeben ist. Der Standardwert ist 2 Sekunden (PT2S). Beachten Sie, dass diese Einstellung ignoriert wird, wenn VideoSyncMode.Passthrough festgelegt ist, wobei der KeyFrameInterval-Wert der Eingabequelleneinstellung folgt. |
label |
string |
Eine optionale Bezeichnung für den Codec. Die Bezeichnung kann verwendet werden, um das Muxingverhalten zu steuern. |
layers |
Png |
Eine Sammlung von PNG-Ausgabebildebenen, die vom Encoder erzeugt werden sollen. |
range |
string |
Die Position relativ zur transformationsvoreingestellten Startzeit im Eingabevideo, an der die Generierung von Miniaturansichten beendet werden soll. Der Wert kann im ISO 8601-Format (z. B. PT5M30S, um bei 5 Minuten und 30 Sekunden ab der Startzeit anzuhalten) oder eine Frameanzahl (z. B. 300, um beim 300. Frame des Frames zum Start anzuhalten) sein. Wenn dieser Wert 1 ist, bedeutet dies, dass zur Startzeit nur eine Miniaturansicht oder ein relativer Wert zur Streamdauer erzeugt wird (z. B. 50 %, um bei der Hälfte der Streamdauer ab der Startzeit anzuhalten). Der Standardwert ist 100 %. Dies bedeutet, dass am Ende des Streams angehalten werden soll. |
start |
string |
Die Position im Eingabevideo, von der aus mit der Erstellung von Miniaturansichten begonnen werden soll. Der Wert kann das ISO 8601-Format aufweisen, z. B. PT05S, damit ab fünf Sekunden gestartet wird, oder die Nummer eines Frames, z. B. 10, damit beim zehnten Frame gestartet wird, oder einen relativen Wert zur Dauer des Streams, z. B. 10 %, damit bei zehn Prozent der Gesamtdauer des Streams gestartet wird. Außerdem wird ein Makro namens {Best} unterstützt, das den Encoder anweist, die beste Vorschauminiatur aus den ersten Sekunden des Videos auszuwählen. Dabei wird unabhängig von anderen Einstellungen für „step“ und „range“ nur eine Vorschauminiatur erstellt. Der Standardwert des Makros lautet {Best}. |
step |
string |
Die Intervalle, in denen Miniaturansichten generiert werden. Der Wert kann im ISO 8601-Format (z. B. PT05S für ein Bild alle 5 Sekunden) oder eine Frameanzahl (z. B. 30 für ein Bild alle 30 Frames) oder ein relativer Wert für die Streamdauer (z. B. 10 % für ein Bild alle 10 % der Datenstromdauer) sein. Hinweis: Der Schrittwert wirkt sich auf die erste generierte Miniaturansicht aus, die möglicherweise nicht genau die Miniaturansicht ist, die bei der Startzeit der transformationsvoreingestellten Transformation angegeben wurde. Dies ist auf den Encoder zurückzuführen, der versucht, die beste Miniaturansicht zwischen Startzeit und Schrittposition von der Startzeit als erste Ausgabe auszuwählen. Da der Standardwert 10 % beträgt, bedeutet dies, dass die erste generierte Miniaturansicht, wenn der Stream eine lange Dauer hat, möglicherweise weit von der zur Startzeit angegebenen Miniaturansicht entfernt ist. Versuchen Sie, einen angemessenen Wert für Schritt auszuwählen, wenn die erste Miniaturansicht nahe der Startzeit erwartet wird, oder legen Sie den Wert bereich auf 1 fest, wenn zur Startzeit nur eine Miniaturansicht erforderlich ist. |
stretchMode |
Der Größenänderungsmodus: Die Größe des Eingabevideos wird an die gewünschte Ausgabeauflösung(en) angepasst. Die Standardeinstellung ist AutoSize. |
|
syncMode |
Videosynchronisierungsmodus |
PngLayer
Beschreibt die Einstellungen zum Erstellen eines PNG-Bilds aus dem Eingabevideo.
Name | Typ | Beschreibung |
---|---|---|
height |
string |
Die Höhe des Ausgabevideos für diese Ebene. Der Wert kann absolut (in Pixel) oder relativ (in Prozent) sein. Beispielsweise bedeutet 50 %, dass das Ausgabevideo halb so viele Pixel in der Höhe hat wie die Eingabe. |
label |
string |
Die alphanumerische Bezeichnung für diese Ebene, die zum Multiplexen verschiedener Video- und Audioebenen oder zum Benennen der Ausgabedatei verwendet werden kann. |
width |
string |
Die Breite des Ausgabevideos für diese Ebene. Der Wert kann absolut (in Pixel) oder relativ (in Prozent) sein. Beispielsweise bedeutet 50 %, dass das Ausgabevideo halb so viele Pixel breit ist wie die Eingabe. |
PresetConfigurations
Ein Objekt mit optionalen Konfigurationseinstellungen für den Encoder.
Name | Typ | Beschreibung |
---|---|---|
complexity |
Ermöglicht Ihnen das Konfigurieren der Encodereinstellungen, um das Gleichgewicht zwischen Geschwindigkeit und Qualität zu steuern. Beispiel: Legen Sie Komplexität auf Geschwindigkeit fest, um eine schnellere Codierung, aber eine geringere Komprimierungseffizienz zu erzielen. |
|
interleaveOutput |
Legt den Interleave-Modus der Ausgabe fest, um zu steuern, wie Audio und Video im Containerformat gespeichert werden. Beispiel: Legen Sie InterleavedOutput auf NonInterleavedOutput fest, um audio- und videogeschützte Ausgaben in separaten MP4-Dateien zu erzeugen. |
|
keyFrameIntervalInSeconds |
number |
Das Keyframeintervall in Sekunden. Beispiel: Legen Sie KeyFrameIntervalInSeconds auf 2 fest, um den Wiedergabepuffer für einige Spieler zu verringern. |
maxBitrateBps |
integer |
Die maximale Bitrate in Bits pro Sekunde (Schwellenwert für die oberste Videoebene). Beispiel: Legen Sie MaxBitrateBps auf 6000000 fest, um die Ausgabe sehr hoher Bitrate für Inhalte mit hoher Komplexität zu vermeiden. |
maxHeight |
integer |
Die maximale Höhe der Ausgabevideoebenen. Beispiel: Legen Sie MaxHeight auf 720 fest, um Ausgabeebenen bis zu 720P zu erzeugen, auch wenn die Eingabe 4K ist. |
maxLayers |
integer |
Die maximale Anzahl von Ausgabevideoebenen. Beispiel: Legen Sie MaxLayers auf 4 fest, um sicherzustellen, dass maximal 4 Ausgabeebenen erstellt werden, um die Gesamtkosten des Codierungsauftrags zu steuern. |
minBitrateBps |
integer |
Die minimale Bitrate in Bits pro Sekunde (Schwellenwert für die untere Videoebene). Beispiel: Legen Sie MinBitrateBps auf 200000 fest, um eine untere Ebene zu erhalten, die Benutzer mit geringer Netzwerkbandbreite abdeckt. |
minHeight |
integer |
Die Mindesthöhe der Ausgabevideoebenen. Beispiel: Legen Sie MinHeight auf 360 fest, um Ausgabeebenen kleinerer Auflösungen wie 180P zu vermeiden. |
Priority
Legt die relative Priorität der TransformationOutputs innerhalb einer Transformation fest. Dadurch wird die Priorität festgelegt, die der Dienst für die Verarbeitung von TransformOutputs verwendet. Die Standardpriorität ist Normal.
Name | Typ | Beschreibung |
---|---|---|
High |
string |
Wird für TransformOutputs verwendet, die Vorrang vor anderen haben sollten. |
Low |
string |
Wird für TransformOutputs verwendet, die nach "Normal" und "TransformOutputs mit hoher Priorität" generiert werden können. |
Normal |
string |
Wird für TransformOutputs verwendet, die mit normaler Priorität generiert werden können. |
Rectangle
Beschreibt die Eigenschaften eines rechteckigen Fensters, das vor der Verarbeitung auf das Eingabemedium angewendet wird.
Name | Typ | Beschreibung |
---|---|---|
height |
string |
Die Höhe des rechteckigen Bereichs in Pixel. Dies kann ein absoluter Pixelwert (z. B. 100) oder relativ zur Größe des Videos (z. B. 50 %) sein. |
left |
string |
Die Anzahl der Pixel vom linken Rand. Dies kann ein absoluter Pixelwert (z. B. 100) oder relativ zur Größe des Videos (z. B. 50 %) sein. |
top |
string |
Die Anzahl der Pixel vom oberen Rand. Dies kann ein absoluter Pixelwert (z. B. 100) oder relativ zur Größe des Videos (z. B. 50 %) sein. |
width |
string |
Die Breite des rechteckigen Bereichs in Pixel. Dies kann ein absoluter Pixelwert (z. B. 100) oder relativ zur Größe des Videos (z. B. 50 %) sein. |
Rotation
Die Drehung, falls vorhanden, die auf das Eingabevideo angewendet werden soll, bevor es codiert wird. Der Standardwert ist Auto.
Name | Typ | Beschreibung |
---|---|---|
Auto |
string |
Automatische Erkennung und Drehung nach Bedarf. |
None |
string |
Drehen Sie das Video nicht. Wenn das Ausgabeformat dies unterstützt, bleiben alle Metadaten zur Rotation intakt. |
Rotate0 |
string |
Drehen Sie das Video nicht, sondern entfernen Sie alle Metadaten zur Drehung. |
Rotate180 |
string |
Drehen Sie sich um 180 Grad im Uhrzeigersinn. |
Rotate270 |
string |
Drehen Sie sich um 270 Grad im Uhrzeigersinn. |
Rotate90 |
string |
Drehen Sie sich um 90 Grad im Uhrzeigersinn. |
SelectAudioTrackByAttribute
Wählen Sie audiospuren aus der Eingabe aus, indem Sie ein Attribut und einen Attributfilter angeben.
Name | Typ | Beschreibung |
---|---|---|
@odata.type |
string:
#Microsoft. |
Der Diskriminator für abgeleitete Typen. |
attribute |
Das TrackAttribute, nach dem die Spuren gefiltert werden sollen. |
|
channelMapping |
Optionale Bezeichnung für Einkanal-Audiospuren. Kann verwendet werden, um die Tracks in Stereo- oder Mehrkanal-Audiospuren zu kombinieren. |
|
filter |
Der Typ von AttributeFilter, der auf das TrackAttribute angewendet werden soll, um die Spuren auszuwählen. |
|
filterValue |
string |
Der Wert, nach dem die Spuren gefiltert werden sollen. Wird nur verwendet, wenn AttributeFilter.ValueEquals für die Filter-Eigenschaft angegeben ist. |
SelectAudioTrackById
Wählen Sie audiospuren aus der Eingabe aus, indem Sie einen Titelbezeichner angeben.
Name | Typ | Beschreibung |
---|---|---|
@odata.type |
string:
#Microsoft. |
Der Diskriminator für abgeleitete Typen. |
channelMapping |
Optionale Bezeichnung für Einkanal-Audiospuren. Kann verwendet werden, um die Tracks in Stereo- oder Mehrkanal-Audiospuren zu kombinieren. |
|
trackId |
integer |
Zu wählende Bezeichner nachverfolgen |
SelectVideoTrackByAttribute
Wählen Sie Videospuren aus der Eingabe aus, indem Sie ein Attribut und einen Attributfilter angeben.
Name | Typ | Beschreibung |
---|---|---|
@odata.type |
string:
#Microsoft. |
Der Diskriminator für abgeleitete Typen. |
attribute |
Das TrackAttribute, nach dem die Spuren gefiltert werden sollen. |
|
filter |
Der Typ von AttributeFilter, der auf das TrackAttribute angewendet werden soll, um die Spuren auszuwählen. |
|
filterValue |
string |
Der Wert, nach dem die Spuren gefiltert werden sollen. Wird nur verwendet, wenn AttributeFilter.ValueEquals für die Filter-Eigenschaft angegeben ist. Für TrackAttribute.Bitrate sollte dies ein ganzzahliger Wert in Bits pro Sekunde sein (z. B. "1500000"). TrackAttribute.Language wird für Videospuren nicht unterstützt. |
SelectVideoTrackById
Wählen Sie Videospuren aus der Eingabe aus, indem Sie einen Trackbezeichner angeben.
Name | Typ | Beschreibung |
---|---|---|
@odata.type |
string:
#Microsoft. |
Der Diskriminator für abgeleitete Typen. |
trackId |
integer |
Zu wählende Bezeichner nachverfolgen |
StandardEncoderPreset
Beschreibt alle Einstellungen, die beim Codieren des Eingabevideos mit dem Standardencoder verwendet werden sollen.
Name | Typ | Beschreibung |
---|---|---|
@odata.type |
string:
#Microsoft. |
Der Diskriminator für abgeleitete Typen. |
codecs | Codec[]: |
Die Liste der Codecs, die beim Codieren des Eingabevideos verwendet werden sollen. |
experimentalOptions |
object |
Wörterbuch, das Schlüsselwertpaare für Parameter enthält, die in der Voreinstellung selbst nicht verfügbar gemacht werden |
filters |
Mindestens ein Filtervorgänge, die vor der Codierung auf die Eingabemedien angewendet werden. |
|
formats | Format[]: |
Die Liste der Ausgaben, die vom Encoder erzeugt werden sollen. |
StretchMode
Der Größenänderungsmodus: Die Größe des Eingabevideos wird an die gewünschte Ausgabeauflösung(en) angepasst. Die Standardeinstellung ist AutoSize.
Name | Typ | Beschreibung |
---|---|---|
AutoFit |
string |
Binden Sie die Ausgabe (entweder mit Briefkasten oder Säulenfeld) ein, um die Ausgabeauflösung zu berücksichtigen, und stellen Sie sicher, dass der aktive Videobereich in der Ausgabe das gleiche Seitenverhältnis wie die Eingabe aufweist. Wenn die Eingabe beispielsweise 1920x1080 ist und die Codierungsvoreinstellung nach 1280 x 1280 fragt, liegt die Ausgabe bei 1280 x 1280, die ein inneres Rechteck von 1280x720 im Seitenverhältnis von 16:9 und Säulenfeldbereiche mit einer Breite von 280 Pixeln links und rechts enthält. |
AutoSize |
string |
Überschreiben Sie die Ausgabeauflösung, und ändern Sie sie so, dass sie dem Anzeigeseitenverhältnis der Eingabe ohne Auffüllung entspricht. Wenn die Auflösung der Eingabe beispielsweise 1920 × 1080 ist und die Codierungsvoreinstellung 1280 × 1280 fordert, wird der Wert in der Voreinstellung außer Kraft gesetzt, und die Ausgabe erfolgt in 1280 × 720, sodass das Eingabeseitenverhältnis von 16 : 9 beibehalten wird. |
None |
string |
Achten Sie streng auf die Ausgabeauflösung, ohne das Pixelseitenverhältnis oder das Anzeigeseitenverhältnis des Eingabevideos zu berücksichtigen. |
systemData
Metadaten, die sich auf die Erstellung und letzte Änderung der Ressource beziehen.
Name | Typ | Beschreibung |
---|---|---|
createdAt |
string |
Der Zeitstempel der Ressourcenerstellung (UTC). |
createdBy |
string |
Die Identität, die die Ressource erstellt hat. |
createdByType |
Der Identitätstyp, der die Ressource erstellt hat. |
|
lastModifiedAt |
string |
Der Zeitstempel der letzten Änderung der Ressource (UTC) |
lastModifiedBy |
string |
Die Identität, die die Ressource zuletzt geändert hat. |
lastModifiedByType |
Der Identitätstyp, der die Ressource zuletzt geändert hat. |
TrackAttribute
Das TrackAttribute, nach dem die Spuren gefiltert werden sollen.
Name | Typ | Beschreibung |
---|---|---|
Bitrate |
string |
Die Bitrate des Titels. |
Language |
string |
Die Sprache des Titels. |
TransportStreamFormat
Beschreibt die Eigenschaften zum Generieren einer MPEG-2 Transport Stream(ISO/IEC 13818-1)-Ausgabevideodatei(en).
Name | Typ | Beschreibung |
---|---|---|
@odata.type |
string:
#Microsoft. |
Der Diskriminator für abgeleitete Typen. |
filenamePattern |
string |
Das Dateibenennungsmuster, das für die Erstellung von Ausgabedateien verwendet wird. Die folgenden Makros werden im Dateinamen unterstützt: {Basename} – Ein Erweiterungsmakro, das den Namen der Eingabevideodatei verwendet. Wenn der Basisname (das Dateisuffix ist nicht enthalten) der Eingabevideodatei weniger als 32 Zeichen lang ist, wird der Basisname der Eingabevideodateien verwendet. Wenn die Länge des Basisnamens der Eingabevideodatei 32 Zeichen überschreitet, wird der Basisname auf die ersten 32 Zeichen der Gesamtlänge abgeschnitten. {Extension} – Die entsprechende Erweiterung für dieses Format. {Label} – Die Bezeichnung, die dem Codec/der Ebene zugewiesen ist. {Index} – Ein eindeutiger Index für Miniaturansichten. Gilt nur für Miniaturansichten. {AudioStream} - Zeichenfolge "Audio" plus Audiostreamnummer (Start von 1). {Bitrate} – Die Audio-/Video-Bitrate in KBit/s. Gilt nicht für Miniaturansichten. {Codec} – Der Typ des Audio-/Videocodecs. {Resolution} – Die Videoauflösung. Alle nichtubstituierten Makros werden reduziert und aus dem Dateinamen entfernt. |
outputFiles |
Die Liste der zu erstellenden Ausgabedateien. Jeder Eintrag in der Liste ist ein Satz von Beschriftungen der Audio- und Videoebene, die zusammen muxiert werden sollen. |
UtcClipTime
Gibt die Clipzeit als Utc-Zeitposition in der Mediendatei an. Die Utc-Zeit kann auf eine andere Position verweisen, je nachdem, ob die Mediendatei mit einem Zeitstempel von null beginnt oder nicht.
Name | Typ | Beschreibung |
---|---|---|
@odata.type |
string:
#Microsoft. |
Der Diskriminator für abgeleitete Typen. |
time |
string |
Die Zeitposition auf der Zeitleiste des Eingabemediums basierend auf utc-Zeit. |
Video
Beschreibt die grundlegenden Eigenschaften für die Codierung des Eingabevideos.
Name | Typ | Beschreibung |
---|---|---|
@odata.type |
string:
#Microsoft. |
Der Diskriminator für abgeleitete Typen. |
keyFrameInterval |
string |
Der Abstand zwischen zwei Keyframes. Der Wert sollte ungleich Null im Bereich [0,5, 20] Sekunden sein, der im ISO 8601-Format angegeben ist. Der Standardwert ist 2 Sekunden (PT2S). Beachten Sie, dass diese Einstellung ignoriert wird, wenn VideoSyncMode.Passthrough festgelegt ist, wobei der KeyFrameInterval-Wert der Einstellung für die Eingabequelle folgt. |
label |
string |
Eine optionale Bezeichnung für den Codec. Die Bezeichnung kann verwendet werden, um das Muxingverhalten zu steuern. |
stretchMode |
Der Größenänderungsmodus: Gibt an, wie die Größe des Eingabevideos an die gewünschte Ausgabeauflösung angepasst wird. Der Standardwert ist AutoSize. |
|
syncMode |
Videosynchronisierungsmodus |
VideoAnalyzerPreset
Eine Videoanalysevoreinstellung, die Erkenntnisse (umfangreiche Metadaten) aus Audio und Video extrahiert und eine JSON-Formatdatei ausgibt.
Name | Typ | Beschreibung |
---|---|---|
@odata.type |
string:
#Microsoft. |
Der Diskriminator für abgeleitete Typen. |
audioLanguage |
string |
Die Sprache für die Audionutzlast in der Eingabe, die das BCP-47-Format "language tag-region" (z. B. "en-US") verwendet. Wenn Sie die Sprache Ihrer Inhalte kennen, empfiehlt es sich, sie anzugeben. Die Sprache muss explizit für AudioAnalysisMode::Basic angegeben werden, da die automatische Spracherkennung nicht im Standardmodus enthalten ist. Wenn die Sprache nicht angegeben oder auf NULL festgelegt ist, wählt die automatische Spracherkennung die erste erkannte Sprache aus und führt die Verarbeitung für die ausgewählte Sprache für die Länge der Datei durch. Sie unterstützt derzeit keine dynamische Umschaltung zwischen Sprachen, nachdem die erste Sprache erkannt wurde. Die automatische Erkennung funktioniert am besten bei Audioaufzeichnungen mit deutlich erkennbarer Sprache. Wenn die Sprache bei der automatischen Erkennung nicht gefunden werden kann, würde die Transkription auf "en-US" zurückfallen." Die Liste der unterstützten Sprachen finden Sie hier: https://go.microsoft.com/fwlink/?linkid=2109463 |
experimentalOptions |
object |
Wörterbuch, das Schlüsselwertpaare für Parameter enthält, die in der Voreinstellung selbst nicht verfügbar gemacht werden |
insightsToExtract |
Definiert den Typ von Erkenntnissen, die der Dienst generieren soll. Die zulässigen Werte sind "AudioInsightsOnly", "VideoInsightsOnly" und "AllInsights". Der Standardwert ist AllInsights. Wenn Sie dies auf AllInsights festlegen und die Eingabe nur Audio ist, werden nur Audioeinblicke generiert. Ähnlich, wenn es sich bei der Eingabe nur um Video handelt, werden nur Videoeinblicke generiert. Es wird empfohlen, AudioInsightsOnly nicht zu verwenden, wenn Sie erwarten, dass einige Ihrer Eingaben nur Video sind. oder verwenden Sie VideoInsightsOnly, wenn Sie erwarten, dass einige Ihrer Eingaben nur Audio sind. Ihre Aufträge unter solchen Bedingungen würden fehleraus. |
|
mode |
Bestimmt den Satz der auszuführenden Audioanalysevorgänge. Wenn nicht angegeben, wird der Standard AudioAnalysisMode ausgewählt. |
VideoOverlay
Beschreibt die Eigenschaften einer Videoüberlagerung.
Name | Typ | Beschreibung |
---|---|---|
@odata.type |
string:
#Microsoft. |
Der Diskriminator für abgeleitete Typen. |
audioGainLevel |
number |
Der Verstärkungsgrad des Audios in der Überlagerung. Der Wert sollte im Bereich [0, 1,0] liegen. Der Standardwert ist 1.0. |
cropRectangle |
Ein optionales rechteckiges Fenster, das zum Zuschneiden des Überlagerungsbilds oder Videos verwendet wird. |
|
end |
string |
Die Endposition mit Verweis auf das Eingabevideo, an dem das Overlay endet. Der Wert sollte im ISO 8601-Format vorliegen. Beispiel: PT30S, um die Überlagerung bei 30 Sekunden im Eingabevideo zu beenden. Wenn nicht angegeben oder der Wert größer als die Dauer des Eingabevideos ist, wird die Überlagerung bis zum Ende des Eingabevideos angewendet, wenn die Dauer der Überlagerungsmedien größer als die Dauer des Eingabevideos ist, andernfalls dauert die Überlagerung so lange wie die Überlagerungsmediendauer. |
fadeInDuration |
string |
Die Dauer, über die das Overlay auf dem Eingabevideo verblasst. Der Wert sollte im ISO 8601-Dauerformat vorliegen. Wenn nicht angegeben, besteht das Standardverhalten darin, kein Einblenden zu haben (identisch mit PT0S). |
fadeOutDuration |
string |
Die Dauer, in der die Überlagerung aus dem Eingabevideo verblasst. Der Wert sollte im ISO 8601-Dauerformat vorliegen. Wenn nicht angegeben, besteht das Standardverhalten darin, kein Ausblenden zu haben (identisch mit PT0S). |
inputLabel |
string |
Die Bezeichnung der Auftragseingabe, die als Überlagerung verwendet werden soll. Die Eingabe muss genau eine Datei angeben. Sie können eine Bilddatei im JPG-, PNG-, GIF- oder BMP-Format oder eine Audiodatei (z. B. eine WAV-, MP3-, WMA- oder M4A-Datei) oder eine Videodatei angeben. Eine vollständige Liste der unterstützten Audio- und Videodateiformate finden Sie https://aka.ms/mesformats unter. |
opacity |
number |
Die Deckkraft der Überlagerung. Dies ist ein Wert im Bereich [0 - 1,0]. Der Standardwert ist 1.0, was bedeutet, dass die Überlagerung undurchsichtig ist. |
position |
Die Position im Eingabevideo, an der das Overlay angewendet wird. |
|
start |
string |
Die Startposition mit Verweis auf das Eingabevideo, an dem das Overlay beginnt. Der Wert sollte im ISO 8601-Format vorliegen. Beispiel: PT05S, um das Overlay bei 5 Sekunden im Eingabevideo zu starten. Wenn nicht angegeben, beginnt die Überlagerung am Anfang des Eingabevideos. |
VideoSyncMode
Videosynchronisierungsmodus
Name | Typ | Beschreibung |
---|---|---|
Auto |
string |
Dies ist die Standardmethode. Wählt je nach Muxer-Funktionen zwischen Cfr und Vfr aus. Für das Ausgabeformat MP4 ist der Standardmodus Cfr. |
Cfr |
string |
Eingabeframes werden bei Bedarf wiederholt und/oder gelöscht, um genau die angeforderte konstante Bildrate zu erreichen. Empfohlen, wenn die Ausgabebildrate explizit auf einen angegebenen Wert festgelegt wird |
Passthrough |
string |
Die Präsentationszeitstempel für Frames werden von der Eingabedatei an den Ausgabedateischreiber übergeben. Empfohlen, wenn die Eingabequelle über eine variable Framerate verfügt und versucht, mehrere Ebenen für adaptives Streaming in der Ausgabe mit abgestimmten GOP-Grenzen zu erzeugen. Hinweis: Wenn mindestens zwei Frames in der Eingabe doppelte Zeitstempel aufweisen, weist auch die Ausgabe das gleiche Verhalten auf. |
Vfr |
string |
Ähnlich wie der Passthrough-Modus, aber wenn die Eingabe Über Frames mit doppelten Zeitstempeln verfügt, wird nur ein Frame an die Ausgabe übergeben, und andere werden gelöscht. Empfohlen, wenn die Anzahl der Ausgabeframes der Anzahl der Eingabeframes entspricht. Die Ausgabe wird beispielsweise verwendet, um eine Qualitätsmetrik wie PSNR für die Eingabe zu berechnen. |
VideoTrackDescriptor
Eine TrackSelection zum Auswählen von Videospuren.
Name | Typ | Beschreibung |
---|---|---|
@odata.type |
string:
#Microsoft. |
Der Diskriminator für abgeleitete Typen. |