Condividi tramite


Jobs - Get

Get Job
Ottiene un processo.

GET https://management.azure.com/subscriptions/{subscriptionId}/resourceGroups/{resourceGroupName}/providers/Microsoft.Media/mediaServices/{accountName}/transforms/{transformName}/jobs/{jobName}?api-version=2022-07-01

Parametri dell'URI

Nome In Necessario Tipo Descrizione
accountName
path True

string

Nome dell'account di Servizi multimediali.

jobName
path True

string

Nome processo.

resourceGroupName
path True

string

Nome del gruppo di risorse all'interno della sottoscrizione di Azure.

subscriptionId
path True

string

Identificatore univoco per una sottoscrizione di Microsoft Azure.

transformName
path True

string

Nome trasformazione.

api-version
query True

string

Versione dell'API da usare con la richiesta client.

Risposte

Nome Tipo Descrizione
200 OK

Job

OK

Other Status Codes

ErrorResponse

Informazioni dettagliate sull'errore.

Esempio

Get a Job by name

Esempio di richiesta

GET https://management.azure.com/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/contosoresources/providers/Microsoft.Media/mediaServices/contosomedia/transforms/exampleTransform/jobs/job1?api-version=2022-07-01

Risposta di esempio

{
  "name": "job1",
  "id": "/subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/contosoresources/providers/Microsoft.Media/mediaservices/contosomedia/transforms/exampleTransform/jobs/job1",
  "type": "Microsoft.Media/mediaservices/transforms/jobs",
  "properties": {
    "created": "2021-06-01T00:00:00Z",
    "state": "Queued",
    "input": {
      "@odata.type": "#Microsoft.Media.JobInputs",
      "inputs": [
        {
          "@odata.type": "#Microsoft.Media.JobInputAsset",
          "files": [],
          "inputDefinitions": [],
          "assetName": "job1-InputAsset"
        }
      ]
    },
    "lastModified": "2021-06-01T00:00:00Z",
    "outputs": [
      {
        "@odata.type": "#Microsoft.Media.JobOutputAsset",
        "state": "Queued",
        "progress": 0,
        "label": "example-custom-label",
        "assetName": "job1-OutputAsset"
      }
    ],
    "priority": "Low",
    "correlationData": {}
  },
  "systemData": {
    "createdBy": "contoso@microsoft.com",
    "createdByType": "User",
    "createdAt": "2021-06-01T00:00:00Z",
    "lastModifiedBy": "contoso@microsoft.com",
    "lastModifiedByType": "User",
    "lastModifiedAt": "2021-06-01T00:00:00Z"
  }
}

Definizioni

Nome Descrizione
AacAudio

Vengono descritte le impostazioni di codifica audio AAC (Advanced Audio Codec).

AacAudioProfile

Profilo di codifica da usare per la codifica dell'audio con AAC.

AbsoluteClipTime

Specifica l'ora di clip come posizione temporale assoluta nel file multimediale. Il tempo assoluto può puntare a una posizione diversa a seconda che il file multimediale inizi da un timestamp pari o meno a zero.

AnalysisResolution

Specifica la risoluzione massima in corrispondenza della quale viene analizzato il video. Il comportamento predefinito è "SourceResolution", che manterrà il video di input alla risoluzione originale durante l'analisi. L'uso di "StandardDefinition" ridimensiona i video di input alla definizione standard mantenendo le proporzioni appropriate. Verrà ridimensionato solo se il video è di risoluzione superiore. Ad esempio, un input 1920x1080 viene ridimensionato a 640x360 prima dell'elaborazione. Il passaggio a "StandardDefinition" ridurrà il tempo necessario per elaborare video ad alta risoluzione. Può anche ridurre il costo dell'uso di questo componente (vedere per informazioni https://azure.microsoft.com/en-us/pricing/details/media-services/#analytics dettagliate). Tuttavia, i visi che finiscono per essere troppo piccoli nel video ridimensionato potrebbero non essere rilevati.

AttributeFilter

Tipo di AttributeFilter da applicare a TrackAttribute per selezionare le tracce.

Audio

Definisce le proprietà comuni per tutti i codec audio.

AudioAnalysisMode

Determina il set di operazioni di analisi audio da eseguire. Se non specificato, verrà scelto AudioAnalysisMode standard.

AudioAnalyzerPreset

Il set di impostazioni Analizzatore audio applica un set predefinito di operazioni di analisi basate sull'intelligenza artificiale, inclusa la trascrizione vocale. Attualmente il set di impostazioni supporta l'elaborazione del contenuto con una singola traccia audio.

AudioOverlay

Descrive le proprietà di una sovrimpressione audio.

AudioTrackDescriptor

TrackSelection per selezionare tracce audio.

BlurType

Tipo di sfocatura

BuiltInStandardEncoderPreset

Descrive un set di impostazioni predefinito per la codifica del video di input con il codificatore Standard.

ChannelMapping

Designazione facoltativa per tracce audio a canale singolo. Può essere usato per combinare le tracce in tracce audio stereo o multicanale.

Complexity

Consente di configurare le impostazioni del codificatore per controllare l'equilibrio tra velocità e qualità. Esempio: impostare Complessità come velocità per la codifica più veloce, ma meno efficienza di compressione.

CopyAudio

Flag codec, che indica al codificatore di copiare il bitstream audio di input.

CopyVideo

Flag codec, che indica al codificatore di copiare il bitstream video di input senza ripetere la codifica.

createdByType

Tipo di identità che ha creato la risorsa.

DDAudio

Descrive le impostazioni di codifica audio Dolby Digital Audio Codec (AC3). L'implementazione corrente per il supporto di Dolby Digital Audio è: Numeri di canale audio a 1(mono), 2(stereo), 6(5.1side); Frequenza di campionamento audio a: 32K/44,1K/48 K Hz; I valori di velocità in bit audio come specifica AC3 supportano: 32000, 40000, 48000, 56000, 64000, 80000, 96000, 112000, 128000, 160000, 192000, 224000, 256000, 320000, 384000, 448000, 512000, 576000, 64000 bps.

Deinterlace

Descrive le impostazioni di de-interlacing.

DeinterlaceMode

Modalità di denterlacing. Il valore predefinito è AutoPixelAdaptive.

DeinterlaceParity

La parità dei campi per la de-interlacciatura, per impostazione predefinita è Auto.

EncoderNamedPreset

Set di impostazioni predefinito da usare per la codifica dei video.

EntropyMode

Modalità entropia da usare per questo livello. Se non specificato, il codificatore sceglie la modalità appropriata per il profilo e il livello.

ErrorAdditionalInfo

Informazioni aggiuntive sull'errore di gestione delle risorse.

ErrorDetail

Dettagli dell'errore.

ErrorResponse

Risposta di errore

FaceDetectorPreset

Descrive tutte le impostazioni da usare durante l'analisi di un video per rilevare (e facoltativamente redact) tutti i visi presenti.

FaceRedactorMode

Questa modalità consente di scegliere tra le impostazioni seguenti: 1) Analizza - Solo per il rilevamento. Questa modalità genera un file JSON di metadati che contrassegna gli aspetti dei visi in tutto il video. Laddove possibile, agli aspetti della stessa persona viene assegnato lo stesso ID. 2) Combinato- Inoltre, vengono rilevati visi con sfocatura.Where possible, appearances of the same person are assigned the same ID. 2) Combined - Additionally redacts(blurs) detected faces. 3) Redact : consente un processo a 2 passaggi, consentendo la ridistribuzione selettiva di un sottoinsieme di visi rilevati. Accetta il file di metadati da un passaggio di analisi precedente, insieme al video di origine e un sottoinsieme di ID selezionati dall'utente che richiedono la ridistribuzione.

Fade

Descrive le proprietà di un effetto dissolvenza applicato al supporto di input.

Filters

Descrive tutte le operazioni di filtro, ad esempio de-interlacciamento, rotazione e così via, che devono essere applicate al supporto di input prima della codifica.

FromAllInputFile

InputDefinition che esamina tutti i file forniti per selezionare le tracce specificate dalla proprietà IncludedTracks. In genere usato con AudioTrackByAttribute e VideoTrackByAttribute per consentire la selezione di una singola traccia in un set di file di input.

FromEachInputFile

InputDefinition che esamina ogni file di input fornito per selezionare le tracce specificate dalla proprietà IncludedTracks. In genere usato con AudioTrackByAttribute e VideoTrackByAttribute per selezionare le tracce da ogni file specificato.

H264Complexity

Indica al codificatore come scegliere le impostazioni di codifica. Il valore predefinito è Bilanciato.

H264Layer

Descrive le impostazioni da usare durante la codifica del video di input in un livello di velocità in bit di output desiderato con il codec video H.264.

H264RateControlMode

Modalità di controllo della frequenza video

H264Video

Descrive tutte le proprietà per la codifica di un video con il codec H.264.

H264VideoProfile

Attualmente sono supportati Baseline, Main, High, High422, High444. Il valore predefinito è Auto.

H265Complexity

Indica al codificatore come scegliere le impostazioni di codifica. La qualità fornirà un rapporto di compressione più elevato, ma a costi più elevati e tempi di calcolo più lunghi. La velocità produrrà un file relativamente più grande, ma è più veloce ed economico. Il valore predefinito è Bilanciato.

H265Layer

Descrive le impostazioni da usare durante la codifica del video di input in un livello di velocità in bit di output desiderato con il codec video H.265.

H265Video

Descrive tutte le proprietà per la codifica di un video con il codec H.265.

H265VideoProfile

Attualmente supportiamo Main. Il valore predefinito è Auto.

Image

Descrive le proprietà di base per la generazione di anteprime dal video di input

ImageFormat

Descrive le proprietà di un file di immagine di output.

InputFile

InputDefinition per un singolo file. TrackSelections ha come ambito il file specificato.

InsightsType

Definisce il tipo di informazioni dettagliate che si desidera che il servizio generi. I valori consentiti sono "AudioInsightsOnly", "VideoInsightsOnly" e "AllInsights". Il valore predefinito è AllInsights. Se si imposta questa opzione su AllInsights e l'input è solo audio, vengono generate solo informazioni audio. Analogamente, se l'input è solo video, vengono generate solo informazioni video. È consigliabile non usare AudioInsightsOnly se si prevede che alcuni degli input siano solo video; o usare VideoInsightsOnly se si prevede che alcuni degli input siano solo audio. I processi in tali condizioni potrebbero essere eseguiti errori.

InterleaveOutput

Imposta la modalità interleave dell'output per controllare la modalità di archiviazione dell'audio e del video nel formato contenitore. Esempio: impostare InterleavedOutput come NonInterleavedOutput per produrre output solo audio e video in file MP4 separati.

Job

Tipo di risorsa Processo. L'avanzamento e lo stato possono essere ottenuti eseguendo il polling di un processo o sottoscrivendo gli eventi usando EventGrid.

JobError

Dettagli degli errori JobOutput.

JobErrorCategory

Consente di categorizzare gli errori.

JobErrorCode

Codice di errore che descrive l'errore.

JobErrorDetail

Dettagli degli errori JobOutput.

JobInputAsset

Rappresenta un asset per l'input in un processo.

JobInputClip

Rappresenta i file di input per un processo.

JobInputHttp

Rappresenta l'input del processo HTTPS.

JobInputs

Descrive un elenco di input per un processo.

JobInputSequence

Una sequenza contiene un elenco ordinato di clip in cui ogni clip è un oggetto JobInput. La sequenza verrà considerata come un singolo input.

JobOutputAsset

Rappresenta un asset utilizzato come JobOutput.

JobRetry

Indica che potrebbe essere possibile ripetere il processo. Se il nuovo tentativo non riesce, contattare supporto tecnico di Azure tramite il portale di Azure.

JobState

Descrive lo stato di JobOutput.

JpgFormat

Descrive le impostazioni per la produzione di anteprime JPEG.

JpgImage

Descrive le proprietà per la produzione di una serie di immagini JPEG dal video di input.

JpgLayer

Descrive le impostazioni per produrre un'immagine JPEG dal video di input.

Mp4Format

Descrive le proprietà per un file ISO MP4 di output.

MultiBitrateFormat

Vengono descritte le proprietà per la produzione di una raccolta di file a bitrate multipli allineati a GOP. Il comportamento predefinito consiste nel produrre un file di output per ogni livello video che viene disattivato insieme a tutti gli audio. I file di output esatti prodotti possono essere controllati specificando l'insieme outputFiles.

OutputFile

Rappresenta un file di output prodotto.

PngFormat

Descrive le impostazioni per la produzione di anteprime PNG.

PngImage

Descrive le proprietà per la produzione di una serie di immagini PNG dal video di input.

PngLayer

Descrive le impostazioni per produrre un'immagine PNG dal video di input.

PresetConfigurations

Oggetto delle impostazioni di configurazione facoltative per il codificatore.

Priority

Imposta la priorità relativa di TransformOutputs all'interno di una trasformazione. In questo modo viene impostata la priorità usata dal servizio per l'elaborazione di TransformOutputs. La priorità predefinita è Normal.

Rectangle

Descrive le proprietà di una finestra rettangolare applicata al supporto di input prima di elaborarla.

Rotation

La rotazione, se presente, da applicare al video di input, prima che venga codificata. Il valore predefinito è Auto

SelectAudioTrackByAttribute

Selezionare tracce audio dall'input specificando un attributo e un filtro di attributo.

SelectAudioTrackById

Selezionare tracce audio dall'input specificando un identificatore di traccia.

SelectVideoTrackByAttribute

Selezionare tracce video dall'input specificando un attributo e un filtro di attributo.

SelectVideoTrackById

Selezionare tracce video dall'input specificando un identificatore di traccia.

StandardEncoderPreset

Descrive tutte le impostazioni da usare per la codifica del video di input con il codificatore Standard.

StretchMode

Modalità di ridimensionamento: modalità di ridimensionamento del video di input in base alle risoluzioni di output desiderate. Il valore predefinito è AutoSize

systemData

Metadati relativi alla creazione e all'ultima modifica della risorsa.

TrackAttribute

TrackAttribute per filtrare le tracce in base.

TransportStreamFormat

Descrive le proprietà per la generazione di un file video video di output MPEG-2 (ISO/IEC 13818-1).

UtcClipTime

Specifica l'ora di clip come posizione dell'ora UTC nel file multimediale. L'ora UTC può puntare a una posizione diversa a seconda che il file multimediale inizi da un timestamp pari o meno a zero.

Video

Descrive le proprietà di base per la codifica del video di input.

VideoAnalyzerPreset

Set di impostazioni dell'analizzatore video che estrae informazioni dettagliate (metadati avanzati) sia dall'audio che dal video e restituisce un file di formato JSON.

VideoOverlay

Descrive le proprietà di una sovrimpressione video.

VideoSyncMode

Modalità di sincronizzazione video

VideoTrackDescriptor

TrackSelection per selezionare tracce video.

AacAudio

Vengono descritte le impostazioni di codifica audio AAC (Advanced Audio Codec).

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.AacAudio

Il discriminatorio per i tipi derivati.

bitrate

integer

Velocità in bit, in bit al secondo, dell'audio con codifica di output.

channels

integer

Numero di canali nell'audio.

label

string

Etichetta facoltativa per il codec. L'etichetta può essere usata per controllare il comportamento di multiplexing.

profile

AacAudioProfile

Profilo di codifica da usare per la codifica dell'audio con AAC.

samplingRate

integer

Frequenza di campionamento da utilizzare per la codifica inhz.

AacAudioProfile

Profilo di codifica da usare per la codifica dell'audio con AAC.

Nome Tipo Descrizione
AacLc

string

Specifica che l'audio di output deve essere codificato nel profilo AAC Low Complexity (AAC-LC).

HeAacV1

string

Specifica che l'audio di output deve essere codificato nel profilo HE-AAC v1.

HeAacV2

string

Specifica che l'audio di output deve essere codificato nel profilo HE-AAC v2.

AbsoluteClipTime

Specifica l'ora di clip come posizione temporale assoluta nel file multimediale. Il tempo assoluto può puntare a una posizione diversa a seconda che il file multimediale inizi da un timestamp pari o meno a zero.

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.AbsoluteClipTime

Il discriminatorio per i tipi derivati.

time

string

Posizione temporale nella sequenza temporale del supporto di input. Viene in genere specificato come periodo di ISO8601. ad esempio PT30S per 30 secondi.

AnalysisResolution

Specifica la risoluzione massima in corrispondenza della quale viene analizzato il video. Il comportamento predefinito è "SourceResolution", che manterrà il video di input alla risoluzione originale durante l'analisi. L'uso di "StandardDefinition" ridimensiona i video di input alla definizione standard mantenendo le proporzioni appropriate. Verrà ridimensionato solo se il video è di risoluzione superiore. Ad esempio, un input 1920x1080 viene ridimensionato a 640x360 prima dell'elaborazione. Il passaggio a "StandardDefinition" ridurrà il tempo necessario per elaborare video ad alta risoluzione. Può anche ridurre il costo dell'uso di questo componente (vedere per informazioni https://azure.microsoft.com/en-us/pricing/details/media-services/#analytics dettagliate). Tuttavia, i visi che finiscono per essere troppo piccoli nel video ridimensionato potrebbero non essere rilevati.

Nome Tipo Descrizione
SourceResolution

string

StandardDefinition

string

AttributeFilter

Tipo di AttributeFilter da applicare a TrackAttribute per selezionare le tracce.

Nome Tipo Descrizione
All

string

Verranno incluse tutte le tracce.

Bottom

string

La prima traccia verrà inclusa quando l'attributo viene ordinato in ordine crescente. In genere usato per selezionare la velocità in bit più piccola.

Top

string

La prima traccia verrà inclusa quando l'attributo viene ordinato in ordine decrescente. In genere usato per selezionare la velocità in bit più grande.

ValueEquals

string

Verranno incluse tutte le tracce con un attributo uguale al valore specificato.

Audio

Definisce le proprietà comuni per tutti i codec audio.

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.Audio

Il discriminatorio per i tipi derivati.

bitrate

integer

Velocità in bit, in bit al secondo, dell'audio con codifica di output.

channels

integer

Numero di canali nell'audio.

label

string

Etichetta facoltativa per il codec. L'etichetta può essere usata per controllare il comportamento di multiplexing.

samplingRate

integer

Frequenza di campionamento da utilizzare per la codifica inhz.

AudioAnalysisMode

Determina il set di operazioni di analisi audio da eseguire. Se non specificato, verrà scelto AudioAnalysisMode standard.

Nome Tipo Descrizione
Basic

string

Questa modalità esegue la trascrizione vocale e la generazione di un sottotitolo/didascalia VTT. L'output di questa modalità include un file JSON insights che include solo le parole chiave, la trascrizione e le informazioni sulla tempistica. Il rilevamento automatico della lingua e la diarizzazione del parlante non sono inclusi in questa modalità.

Standard

string

Esegue tutte le operazioni incluse nella modalità Basic, eseguendo anche il rilevamento della lingua e la diarizzazione del parlante.

AudioAnalyzerPreset

Il set di impostazioni Analizzatore audio applica un set predefinito di operazioni di analisi basate sull'intelligenza artificiale, inclusa la trascrizione vocale. Attualmente il set di impostazioni supporta l'elaborazione del contenuto con una singola traccia audio.

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.AudioAnalyzerPreset

Il discriminatorio per i tipi derivati.

audioLanguage

string

Lingua per il payload audio nell'input usando il formato BCP-47 di "language tag-region", ad esempio "en-US". Se si conosce la lingua del contenuto, è consigliabile specificarla. La lingua deve essere specificata in modo esplicito per AudioAnalysisMode::Basic, perché il rilevamento automatico della lingua non è incluso in modalità di base. Se la lingua non è specificata o impostata su Null, il rilevamento automatico della lingua sceglierà la prima lingua rilevata e utilizzerà la lingua selezionata per la durata del file. Attualmente non supporta il passaggio dinamico tra lingue dopo il rilevamento della prima lingua. Il rilevamento automatico funziona meglio con le registrazioni audio con riconoscimento vocale chiaramente riconoscibile. Se il rilevamento automatico non riesce a trovare la lingua, la trascrizione fallback in "en-US". L'elenco delle lingue supportate è disponibile qui: https://go.microsoft.com/fwlink/?linkid=2109463

experimentalOptions

object

Dizionario contenente coppie chiave-valore per i parametri non esposti nel set di impostazioni stesso

mode

AudioAnalysisMode

Determina il set di operazioni di analisi audio da eseguire. Se non specificato, verrà scelto AudioAnalysisMode standard.

AudioOverlay

Descrive le proprietà di una sovrimpressione audio.

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.AudioOverlay

Il discriminatorio per i tipi derivati.

audioGainLevel

number

Livello di guadagno dell'audio nella sovrimpressione. Il valore deve essere compreso nell'intervallo [0, 1,0]. Il valore predefinito è 1.0.

end

string

Posizione finale, con riferimento al video di input, in corrispondenza del quale termina la sovrimpressione. Il valore deve essere in formato ISO 8601. Ad esempio, PT30S per terminare la sovrimpressione a 30 secondi nel video di input. Se non specificato o il valore è maggiore della durata del video di input, la sovrimpressione verrà applicata fino alla fine del video di input se la durata del supporto di sovrimpressione è maggiore della durata del video di input, altrimenti la sovrimpressione durerà fino alla durata del supporto di sovrimpressione.

fadeInDuration

string

Durata in cui la sovrimpressione si dissolve nel video di input. Il valore deve essere nel formato di durata ISO 8601. Se non è specificato il comportamento predefinito, non deve avere dissolvenza in (uguale a PT0S).

fadeOutDuration

string

La durata in cui la sovrimpressione si dissolve dal video di input. Il valore deve essere nel formato di durata ISO 8601. Se non è specificato il comportamento predefinito, il comportamento predefinito è senza dissolvenza (uguale a PT0S).

inputLabel

string

Etichetta dell'input del processo da usare come sovrimpressione. L'input deve specificare esattamente un file. È possibile specificare un file di immagine in formato JPG, PNG, GIF o BMP o un file audio (ad esempio un file WAV, MP3, WMA o M4A) o un file video. Vedi https://aka.ms/mesformats per l'elenco completo dei formati di file audio e video supportati.

start

string

Posizione iniziale, con riferimento al video di input, in corrispondenza del quale inizia la sovrimpressione. Il valore deve essere in formato ISO 8601. Ad esempio, PT05S per avviare la sovrimpressione a 5 secondi nel video di input. Se non è specificata, la sovrimpressione inizia dall'inizio del video di input.

AudioTrackDescriptor

TrackSelection per selezionare tracce audio.

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.AudioTrackDescriptor

Discriminazione per i tipi derivati.

channelMapping

ChannelMapping

Designazione facoltativa per tracce audio a canale singolo. Può essere usato per combinare le tracce in tracce audio stereo o multicanale.

BlurType

Tipo di sfocatura

Nome Tipo Descrizione
Black

string

Nero: filtro nero

Box

string

Box: filtro di debug, solo rettangolo di selezione

High

string

Alta: confondere il filtro sfocatura

Low

string

Basso: filtro sfocatura box-car

Med

string

Med: filtro sfocatura gaussiano

BuiltInStandardEncoderPreset

Descrive un set di impostazioni predefinito per la codifica del video di input con il codificatore Standard.

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.BuiltInStandardEncoderPreset

Il discriminatorio per i tipi derivati.

configurations

PresetConfigurations

Impostazioni di configurazione facoltative per il codificatore. Le configurazioni sono supportate solo per ContentAwareEncoding e H265ContentAwareEncoding BuiltInStandardEncoderPreset.

presetName

EncoderNamedPreset

Set di impostazioni predefinito da usare per la codifica dei video.

ChannelMapping

Designazione facoltativa per tracce audio a canale singolo. Può essere usato per combinare le tracce in tracce audio stereo o multicanale.

Nome Tipo Descrizione
BackLeft

string

Canale indietro sinistro. A volte definito canale surround sinistro.

BackRight

string

Canale indietro destro. A volte definito Canale Circondato destro.

Center

string

Canale centrale.

FrontLeft

string

Canale sinistro anteriore.

FrontRight

string

Canale anteriore destro.

LowFrequencyEffects

string

Canale effetti a bassa frequenza. A volte chiamato il mdf.

StereoLeft

string

Canale Stereo sinistro. A volte definito Down Mix Left.

StereoRight

string

Canale Stereo destro. A volte definito Down Mix Right.

Complexity

Consente di configurare le impostazioni del codificatore per controllare l'equilibrio tra velocità e qualità. Esempio: impostare Complessità come velocità per la codifica più veloce, ma meno efficienza di compressione.

Nome Tipo Descrizione
Balanced

string

Configura il codificatore per l'uso delle impostazioni che consentono di bilanciare la velocità e la qualità.

Quality

string

Configura il codificatore per usare le impostazioni ottimizzate per produrre un output di qualità superiore a spese del tempo di codifica complessivo più lento.

Speed

string

Configura il codificatore per usare le impostazioni ottimizzate per la codifica più veloce. La qualità viene sacrificata per ridurre il tempo di codifica.

CopyAudio

Flag codec, che indica al codificatore di copiare il bitstream audio di input.

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.CopyAudio

Il discriminatorio per i tipi derivati.

label

string

Etichetta facoltativa per il codec. L'etichetta può essere usata per controllare il comportamento di multiplexing.

CopyVideo

Flag codec, che indica al codificatore di copiare il bitstream video di input senza ripetere la codifica.

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.CopyVideo

Il discriminatorio per i tipi derivati.

label

string

Etichetta facoltativa per il codec. L'etichetta può essere usata per controllare il comportamento di multiplexing.

createdByType

Tipo di identità che ha creato la risorsa.

Nome Tipo Descrizione
Application

string

Key

string

ManagedIdentity

string

User

string

DDAudio

Descrive le impostazioni di codifica audio Dolby Digital Audio Codec (AC3). L'implementazione corrente per il supporto di Dolby Digital Audio è: Numeri di canale audio a 1(mono), 2(stereo), 6(5.1side); Frequenza di campionamento audio a: 32K/44,1K/48 K Hz; I valori di velocità in bit audio come specifica AC3 supportano: 32000, 40000, 48000, 56000, 64000, 80000, 96000, 112000, 128000, 160000, 192000, 224000, 256000, 320000, 384000, 448000, 512000, 576000, 64000 bps.

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.DDAudio

Il discriminatorio per i tipi derivati.

bitrate

integer

Velocità in bit, in bit al secondo, dell'audio con codifica di output.

channels

integer

Numero di canali nell'audio.

label

string

Etichetta facoltativa per il codec. L'etichetta può essere usata per controllare il comportamento di multiplexing.

samplingRate

integer

Frequenza di campionamento da utilizzare per la codifica inhz.

Deinterlace

Descrive le impostazioni di de-interlacing.

Nome Tipo Descrizione
mode

DeinterlaceMode

Modalità di deinterlacing. Impostazione predefinita su AutoPixelAdaptive.

parity

DeinterlaceParity

La parità di campo per la de-interlacing, impostazione predefinita su Auto.

DeinterlaceMode

Modalità di denterlacing. Il valore predefinito è AutoPixelAdaptive.

Nome Tipo Descrizione
AutoPixelAdaptive

string

Applicare l'interlacciamento adattivo automatico dei pixel su ogni fotogramma nel video di input.

Off

string

Disabilita il de-interlacciamento del video di origine.

DeinterlaceParity

La parità dei campi per la de-interlacciatura, per impostazione predefinita è Auto.

Nome Tipo Descrizione
Auto

string

Rilevare automaticamente l'ordine dei campi

BottomFieldFirst

string

Applicare la prima elaborazione del campo inferiore del video di input.

TopFieldFirst

string

Applicare il primo campo di elaborazione del video di input.

EncoderNamedPreset

Set di impostazioni predefinito da usare per la codifica dei video.

Nome Tipo Descrizione
AACGoodQualityAudio

string

Produce un singolo file MP4 contenente solo l'audio stereo AAC codificato a 192 kbps.

AdaptiveStreaming

string

Produce un set di file MP4 allineati a GOP con video H.264 e audio AAC stereo. Genera automaticamente una scala a velocità in bit in base alla risoluzione, alla velocità in bit e alla frequenza dei fotogrammi di input. Il set di impostazioni generato automaticamente non supererà mai la risoluzione di input. Ad esempio, se l'input è 720p, l'output rimarrà 720p al meglio.

ContentAwareEncoding

string

Produce un set di MP4 allineati a GOP usando la codifica con riconoscimento del contenuto. Dato qualsiasi contenuto di input, il servizio esegue un'analisi leggera iniziale del contenuto di input e usa i risultati per determinare il numero ottimale di livelli, le impostazioni di bitrate e risoluzione appropriate per il recapito tramite streaming adattivo. Questo set di impostazioni è particolarmente efficace per i video di complessità bassa e media, in cui i file di output saranno a velocità di bit inferiori, ma a una qualità che offre ancora un'esperienza ottimale agli spettatori. L'output conterrà file MP4 con interfoliazione video e audio.

ContentAwareEncodingExperimental

string

Espone un set di impostazioni sperimentali per la codifica con riconoscimento del contenuto. Dato qualsiasi contenuto di input, il servizio tenta di determinare automaticamente il numero ottimale di livelli, le impostazioni di velocità in bit e risoluzione appropriate per il recapito tramite streaming adattivo. Gli algoritmi sottostanti continueranno a evolversi nel tempo. L'output conterrà file MP4 con interfoliazione video e audio.

CopyAllBitrateNonInterleaved

string

Copiare tutti i flussi video e audio dall'asset di input come file di output video e audio non interleaved. Questo set di impostazioni può essere usato per ritagliare un asset esistente o convertire un gruppo di file MP4 allineati (GOP) allineati come asset che possono essere trasmessi.

DDGoodQualityAudio

string

Produce un singolo file MP4 contenente solo LD(Digital Dolby) audio stereo codificato a 192 kbps.

H264MultipleBitrate1080p

string

Produce un set di 8 file MP4 allineati a GOP, che vanno da 6000 kbps a 400 kbps e audio AAC stereo. La risoluzione inizia a 1080p e scende a 180p.

H264MultipleBitrate720p

string

Produce un set di 6 file MP4 allineati a GOP, che vanno da 3400 kbps a 400 kbps e audio AAC stereo. La risoluzione inizia a 720p e scende a 180p.

H264MultipleBitrateSD

string

Produce un set di 5 file MP4 allineati a GOP, che vanno da 1900 kbps a 400 kbps e audio AAC stereo. La risoluzione inizia a 480p e scende a 240p.

H264SingleBitrate1080p

string

Produce un file MP4 in cui il video è codificato con codec H.264 a 6750 kbps e un'altezza dell'immagine di 1080 pixel e l'audio stereo è codificato con codec AAC-LC a 128 kbps.

H264SingleBitrate720p

string

Produce un file MP4 in cui il video è codificato con codec H.264 a 4500 kbps e un'altezza dell'immagine di 720 pixel e l'audio stereo viene codificato con codec AAC-LC a 128 kbps.

H264SingleBitrateSD

string

Produce un file MP4 in cui il video è codificato con codec H.264 a 2200 kbps e un'altezza dell'immagine di 480 pixel e l'audio stereo è codificato con codec AAC-LC a 128 kbps.

H265AdaptiveStreaming

string

Produce un set di file MP4 allineati a GOP con video H.265 e audio AAC stereo. Genera automaticamente una scala a velocità bit in base alla risoluzione di input, alla velocità in bit e alla frequenza dei fotogrammi. Il set di impostazioni generato automaticamente non supererà mai la risoluzione di input. Ad esempio, se l'input è 720p, l'output rimarrà 720p al meglio.

H265ContentAwareEncoding

string

Produce un set di MP4 allineati a GOP usando la codifica con riconoscimento del contenuto. Dato qualsiasi contenuto di input, il servizio esegue un'analisi leggera iniziale del contenuto di input e usa i risultati per determinare il numero ottimale di livelli, le impostazioni di bitrate e risoluzione appropriate per il recapito tramite streaming adattivo. Questo set di impostazioni è particolarmente efficace per i video di complessità bassa e media, in cui i file di output saranno a velocità di bit inferiori, ma a una qualità che offre ancora un'esperienza ottimale agli spettatori. L'output conterrà file MP4 con interfoliazione video e audio.

H265SingleBitrate1080p

string

Produce un file MP4 in cui il video viene codificato con codec H.265 a 3500 kbps e un'altezza immagine di 1080 pixel e l'audio stereo viene codificato con codec AAC-LC a 128 kbps.

H265SingleBitrate4K

string

Produce un file MP4 in cui il video viene codificato con codec H.265 a 9500 kbps e un'altezza immagine di 2160 pixel e l'audio stereo viene codificato con codec AAC-LC a 128 kbps.

H265SingleBitrate720p

string

Produce un file MP4 in cui il video viene codificato con codec H.265 a 1800 kbps e un'altezza immagine di 720 pixel e l'audio stereo viene codificato con codec AAC-LC a 128 kbps.

EntropyMode

Modalità entropia da usare per questo livello. Se non specificato, il codificatore sceglie la modalità appropriata per il profilo e il livello.

Nome Tipo Descrizione
Cabac

string

Codifica entropia aritmetica aritmetica del contesto adattiva.

Cavlc

string

Codifica entropia CAVLC (Context Adaptive Variable Length Coder).

ErrorAdditionalInfo

Informazioni aggiuntive sull'errore di gestione delle risorse.

Nome Tipo Descrizione
info

object

Informazioni aggiuntive.

type

string

Tipo di informazioni aggiuntive.

ErrorDetail

Dettagli dell'errore.

Nome Tipo Descrizione
additionalInfo

ErrorAdditionalInfo[]

Informazioni aggiuntive sull'errore.

code

string

Codice di errore.

details

ErrorDetail[]

Dettagli dell'errore.

message

string

Messaggio di errore.

target

string

Destinazione dell'errore.

ErrorResponse

Risposta di errore

Nome Tipo Descrizione
error

ErrorDetail

Oggetto error.

FaceDetectorPreset

Descrive tutte le impostazioni da usare durante l'analisi di un video per rilevare (e facoltativamente redact) tutti i visi presenti.

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.FaceDetectorPreset

Il discriminatorio per i tipi derivati.

blurType

BlurType

Tipo di sfocatura

experimentalOptions

object

Dizionario contenente coppie chiave-valore per i parametri non esposti nel set di impostazioni stesso

mode

FaceRedactorMode

Questa modalità consente di scegliere tra le impostazioni seguenti: 1) Analizza - Solo per il rilevamento. Questa modalità genera un file JSON di metadati che contrassegna gli aspetti dei visi in tutto il video. Laddove possibile, agli aspetti della stessa persona viene assegnato lo stesso ID. 2) Combinato- Inoltre, vengono rilevati visi con sfocatura.Where possible, appearances of the same person are assigned the same ID. 2) Combined - Additionally redacts(blurs) detected faces. 3) Redact : consente un processo a 2 passaggi, consentendo la ridistribuzione selettiva di un sottoinsieme di visi rilevati. Accetta il file di metadati da un passaggio di analisi precedente, insieme al video di origine e un sottoinsieme di ID selezionati dall'utente che richiedono la ridistribuzione.

resolution

AnalysisResolution

Specifica la risoluzione massima in corrispondenza della quale viene analizzato il video. Il comportamento predefinito è "SourceResolution", che manterrà il video di input alla risoluzione originale durante l'analisi. L'uso di "StandardDefinition" ridimensiona i video di input alla definizione standard mantenendo le proporzioni appropriate. Verrà ridimensionato solo se il video è di risoluzione superiore. Ad esempio, un input 1920x1080 viene ridimensionato a 640x360 prima dell'elaborazione. Il passaggio a "StandardDefinition" ridurrà il tempo necessario per elaborare video ad alta risoluzione. Può anche ridurre il costo dell'uso di questo componente (vedere per informazioni https://azure.microsoft.com/en-us/pricing/details/media-services/#analytics dettagliate). Tuttavia, i visi che finiscono per essere troppo piccoli nel video ridimensionato potrebbero non essere rilevati.

FaceRedactorMode

Questa modalità consente di scegliere tra le impostazioni seguenti: 1) Analizza - Solo per il rilevamento. Questa modalità genera un file JSON di metadati che contrassegna gli aspetti dei visi in tutto il video. Laddove possibile, agli aspetti della stessa persona viene assegnato lo stesso ID. 2) Combinato- Inoltre, vengono rilevati visi con sfocatura.Where possible, appearances of the same person are assigned the same ID. 2) Combined - Additionally redacts(blurs) detected faces. 3) Redact : consente un processo a 2 passaggi, consentendo la ridistribuzione selettiva di un sottoinsieme di visi rilevati. Accetta il file di metadati da un passaggio di analisi precedente, insieme al video di origine e un sottoinsieme di ID selezionati dall'utente che richiedono la ridistribuzione.

Nome Tipo Descrizione
Analyze

string

La modalità di analisi rileva i visi e restituisce un file di metadati con i risultati. Consente la modifica del file di metadati prima che i visi vengano sfocati con la modalità Redact.

Combined

string

La modalità combinata esegue i passaggi Analizza e Redact in un unico passaggio quando si modificano i visi analizzati non è desiderato.

Redact

string

La modalità Redact utilizza il file di metadati dalla modalità Di analisi e redatta i visi trovati.

Fade

Descrive le proprietà di un effetto dissolvenza applicato al supporto di input.

Nome Tipo Descrizione
duration

string

Durata dell'effetto dissolvenza nel video. Il valore può essere in formato ISO 8601 (ad esempio, PT05S per dissolvenza di un colore durante 5 secondi) o un numero di fotogrammi (ad esempio, da 10 a dissolvenza di 10 fotogrammi dall'ora di inizio) o un valore relativo alla durata del flusso (ad esempio, 10% per dissolvere il 10% della durata del flusso)

fadeColor

string

Colore per la dissolvenza in entrata/uscita. può essere nei colori https://developer.mozilla.org/en-US/docs/Web/CSS/color_value/color_keywords CSS Level1 o in un valore RGB/esadecimale, ad esempio rgb(255,0,0), 0xFF0000 o #FF0000

start

string

Posizione nel video di input da cui iniziare la dissolvenza. Il valore può essere in formato ISO 8601 (ad esempio PT05S per iniziare a 5 secondi) o un numero di fotogrammi (ad esempio, 10 per iniziare al 10° fotogramma) o un valore relativo alla durata del flusso (ad esempio, 10% per iniziare al 10% della durata del flusso). Il valore predefinito è 0

Filters

Descrive tutte le operazioni di filtro, ad esempio de-interlacciamento, rotazione e così via, che devono essere applicate al supporto di input prima della codifica.

Nome Tipo Descrizione
crop

Rectangle

Parametri per la finestra rettangolare con cui ritagliare il video di input.

deinterlace

Deinterlace

Impostazioni di de-interlacciamento.

fadeIn

Fade

Descrive le proprietà di un effetto Fade applicato al supporto di input.

fadeOut

Fade

Descrive le proprietà di un effetto Fade applicato al supporto di input.

overlays Overlay[]:

Le proprietà delle sovrimpressione da applicare al video di input. Queste potrebbero essere sovrimpressione audio, immagine o video.

rotation

Rotation

La rotazione, se presente, da applicare al video di input, prima che venga codificata. Il valore predefinito è Auto

FromAllInputFile

InputDefinition che esamina tutti i file forniti per selezionare le tracce specificate dalla proprietà IncludedTracks. In genere usato con AudioTrackByAttribute e VideoTrackByAttribute per consentire la selezione di una singola traccia in un set di file di input.

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.FromAllInputFile

Il discriminatorio per i tipi derivati.

includedTracks TrackDescriptor[]:

Elenco di TrackDescriptor che definiscono i metadati e la selezione delle tracce nell'input.

FromEachInputFile

InputDefinition che esamina ogni file di input fornito per selezionare le tracce specificate dalla proprietà IncludedTracks. In genere usato con AudioTrackByAttribute e VideoTrackByAttribute per selezionare le tracce da ogni file specificato.

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.FromEachInputFile

Il discriminatorio per i tipi derivati.

includedTracks TrackDescriptor[]:

Elenco di TrackDescriptor che definiscono i metadati e la selezione delle tracce nell'input.

H264Complexity

Indica al codificatore come scegliere le impostazioni di codifica. Il valore predefinito è Bilanciato.

Nome Tipo Descrizione
Balanced

string

Indica al codificatore di usare le impostazioni che consentono di ottenere un equilibrio tra velocità e qualità.

Quality

string

Indica al codificatore di usare le impostazioni ottimizzate per produrre un output di qualità superiore a scapito del tempo di codifica complessivo più lento.

Speed

string

Indica al codificatore di usare le impostazioni ottimizzate per una codifica più rapida. La qualità viene sacrificata per ridurre il tempo di codifica.

H264Layer

Descrive le impostazioni da usare durante la codifica del video di input in un livello di velocità in bit di output desiderato con il codec video H.264.

Nome Tipo Descrizione
adaptiveBFrame

boolean

Indica se usare o meno fotogrammi B adattivi durante la codifica di questo livello. Se non specificato, il codificatore lo attiva ogni volta che il profilo video ne consente l'uso.

bFrames

integer

Numero di fotogrammi B da utilizzare per la codifica di questo livello. Se non specificato, il codificatore sceglie un numero appropriato in base al profilo e al livello video.

bitrate

integer

Velocità in bit media in bit al secondo in corrispondenza della quale codificare il video di input durante la generazione di questo livello. Questo campo è obbligatorio.

bufferWindow

string

Lunghezza della finestra buffer VBV. Il valore deve essere in formato ISO 8601. Il valore deve essere compreso nell'intervallo [0,1-100] secondi. Il valore predefinito è 5 secondi (ad esempio PT5S).

crf

number

Valore di CRF da utilizzare per la codifica di questo livello. Questa impostazione diventa effettiva quando RateControlMode del codec video è impostato in modalità CRF. L'intervallo di valori CRF è compreso tra 0 e 51, dove i valori più bassi generano una migliore qualità, a scapito di dimensioni file superiori. I valori più alti indicano una maggiore compressione, ma a un certo punto si noterà una riduzione della qualità. Il valore predefinito è 23.

entropyMode

EntropyMode

Modalità entropia da usare per questo livello. Se non specificato, il codificatore sceglie la modalità appropriata per il profilo e il livello.

frameRate

string

Frequenza dei fotogrammi (in fotogrammi al secondo) in corrispondenza della quale codificare questo livello. Il valore può essere sotto forma di M/N dove M e N sono numeri interi (ad esempio 30000/1001) o sotto forma di numero (ad esempio, 30 o 29,97). Il codificatore applica vincoli alle frequenze dei fotogrammi consentite in base al profilo e al livello. Se non è specificato, il codificatore userà la stessa frequenza dei fotogrammi del video di input.

height

string

Altezza del video di output per questo livello. Il valore può essere assoluto (in pixel) o relativo (in percentuale). Ad esempio, il 50% indica che il video di output ha metà del numero di pixel in altezza dell'input.

label

string

Etichetta alfanumerica per questo livello, che può essere usata in multiplexing di diversi livelli video e audio o per denominare il file di output.

level

string

Attualmente è supportato il livello fino alla 6.2. Il valore può essere Auto o un numero corrispondente al profilo H.264. Se non specificato, il valore predefinito è Auto, che consente al codificatore di scegliere il livello appropriato per questo livello.

maxBitrate

integer

Velocità in bit massima (in bit al secondo), in corrispondenza della quale si presuppone che il buffer VBV venga riempito. Se non specificato, per impostazione predefinita viene usato lo stesso valore della velocità in bit.

profile

H264VideoProfile

Attualmente sono supportati Baseline, Main, High, High422, High444. Il valore predefinito è Auto.

referenceFrames

integer

Numero di frame di riferimento da utilizzare durante la codifica di questo livello. Se non specificato, il codificatore determina un numero appropriato in base all'impostazione di complessità del codificatore.

slices

integer

Numero di sezioni da utilizzare durante la codifica di questo livello. Se non specificato, il valore predefinito è zero, il che significa che il codificatore userà una singola sezione per ogni fotogramma.

width

string

Larghezza del video di output per questo livello. Il valore può essere assoluto (in pixel) o relativo (in percentuale). Ad esempio, il 50% indica che il video di output ha metà del numero di pixel di larghezza dell'input.

H264RateControlMode

Modalità di controllo della frequenza video

Nome Tipo Descrizione
ABR

string

Modalità ABR (Average Bitrate) che raggiunge la velocità in bit di destinazione: modalità predefinita.

CBR

string

Modalità CBR (Constant Bitrate) che restringe le variazioni di velocità in bit intorno alla velocità in bit di destinazione.

CRF

string

Modalità CRF (Constant Rate Factor) che punta a una qualità soggettiva costante.

H264Video

Descrive tutte le proprietà per la codifica di un video con il codec H.264.

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.H264Video

Il discriminatorio per i tipi derivati.

complexity

H264Complexity

Indica al codificatore come scegliere le impostazioni di codifica. Il valore predefinito è Bilanciato.

keyFrameInterval

string

Distanza tra due fotogrammi chiave. Il valore deve essere diverso da zero nell'intervallo [0,5, 20] secondi, specificato nel formato ISO 8601. Il valore predefinito è 2 secondi (PT2S). Si noti che questa impostazione viene ignorata se è impostato VideoSyncMode.Passthrough, in cui il valore KeyFrameInterval seguirà l'impostazione dell'origine di input.

label

string

Etichetta facoltativa per il codec. L'etichetta può essere usata per controllare il comportamento di multiplexing.

layers

H264Layer[]

Raccolta di livelli H.264 di output da produrre dal codificatore.

rateControlMode

H264RateControlMode

Modalità di controllo della frequenza video

sceneChangeDetection

boolean

Indica se il codificatore deve inserire fotogrammi chiave in corrispondenza delle modifiche della scena. Se non specificato, il valore predefinito è false. Questo flag deve essere impostato su true solo quando il codificatore è configurato per produrre un singolo video di output.

stretchMode

StretchMode

Modalità di ridimensionamento: modalità di ridimensionamento del video di input in base alle risoluzioni di output desiderate. Il valore predefinito è AutoSize

syncMode

VideoSyncMode

Modalità di sincronizzazione video

H264VideoProfile

Attualmente sono supportati Baseline, Main, High, High422, High444. Il valore predefinito è Auto.

Nome Tipo Descrizione
Auto

string

Indica al codificatore di determinare automaticamente il profilo H.264 appropriato.

Baseline

string

Profilo di base

High

string

Profilo elevato.

High422

string

Profilo alto 4:2:2.

High444

string

Profilo predittivo 4:4:4 elevato.

Main

string

Profilo principale

H265Complexity

Indica al codificatore come scegliere le impostazioni di codifica. La qualità fornirà un rapporto di compressione più elevato, ma a costi più elevati e tempi di calcolo più lunghi. La velocità produrrà un file relativamente più grande, ma è più veloce ed economico. Il valore predefinito è Bilanciato.

Nome Tipo Descrizione
Balanced

string

Indica al codificatore di usare le impostazioni che consentono di ottenere un equilibrio tra velocità e qualità.

Quality

string

Indica al codificatore di usare le impostazioni ottimizzate per produrre un output di qualità superiore a scapito del tempo di codifica complessivo più lento.

Speed

string

Indica al codificatore di usare le impostazioni ottimizzate per una codifica più rapida. La qualità viene sacrificata per ridurre il tempo di codifica.

H265Layer

Descrive le impostazioni da usare durante la codifica del video di input in un livello di velocità in bit di output desiderato con il codec video H.265.

Nome Tipo Descrizione
adaptiveBFrame

boolean

Specifica se usare o meno fotogrammi B adattivi durante la codifica di questo livello. Se non specificato, il codificatore lo attiva ogni volta che il profilo video ne consente l'uso.

bFrames

integer

Numero di fotogrammi B da utilizzare per la codifica di questo livello. Se non specificato, il codificatore sceglie un numero appropriato in base al profilo e al livello video.

bitrate

integer

Velocità in bit media in bit al secondo in corrispondenza della quale codificare il video di input durante la generazione di questo livello. Ad esempio: una velocità in bit di destinazione di 3000 Kbps o 3 Mbps indica che questo valore deve essere 30000000 Questo è un campo obbligatorio.

bufferWindow

string

Lunghezza della finestra buffer VBV. Il valore deve essere in formato ISO 8601. Il valore deve essere compreso nell'intervallo [0,1-100] secondi. Il valore predefinito è 5 secondi (ad esempio PT5S).

crf

number

Valore di CRF da utilizzare per la codifica di questo livello. Questa impostazione diventa effettiva quando RateControlMode del codec video è impostato in modalità CRF. L'intervallo di valori CRF è compreso tra 0 e 51, dove i valori più bassi generano una migliore qualità, a scapito di dimensioni file superiori. I valori più alti indicano una maggiore compressione, ma a un certo punto si noterà una riduzione della qualità. Il valore predefinito è 28.

frameRate

string

Frequenza dei fotogrammi (in fotogrammi al secondo) in corrispondenza della quale codificare questo livello. Il valore può essere sotto forma di M/N dove M e N sono numeri interi (ad esempio 30000/1001) o sotto forma di numero (ad esempio, 30 o 29,97). Il codificatore applica vincoli alle frequenze dei fotogrammi consentite in base al profilo e al livello. Se non è specificato, il codificatore userà la stessa frequenza dei fotogrammi del video di input.

height

string

Altezza del video di output per questo livello. Il valore può essere assoluto (in pixel) o relativo (in percentuale). Ad esempio, il 50% indica che il video di output ha metà del numero di pixel in altezza dell'input.

label

string

Etichetta alfanumerica per questo livello, che può essere usata in multiplexing di diversi livelli video e audio o per denominare il file di output.

level

string

Attualmente è supportato il livello fino alla 6.2. Il valore può essere Auto o un numero corrispondente al profilo H.265. Se non specificato, il valore predefinito è Auto, che consente al codificatore di scegliere il livello appropriato per questo livello.

maxBitrate

integer

Velocità in bit massima (in bit al secondo), in corrispondenza della quale si presuppone che il buffer VBV venga riempito. Se non specificato, per impostazione predefinita viene usato lo stesso valore della velocità in bit.

profile

H265VideoProfile

Attualmente supportiamo Main. Il valore predefinito è Auto.

referenceFrames

integer

Numero di frame di riferimento da utilizzare durante la codifica di questo livello. Se non specificato, il codificatore determina un numero appropriato in base all'impostazione di complessità del codificatore.

slices

integer

Numero di sezioni da utilizzare durante la codifica di questo livello. Se non specificato, il valore predefinito è zero, il che significa che il codificatore userà una singola sezione per ogni fotogramma.

width

string

Larghezza del video di output per questo livello. Il valore può essere assoluto (in pixel) o relativo (in percentuale). Ad esempio, il 50% indica che il video di output ha metà del numero di pixel di larghezza dell'input.

H265Video

Descrive tutte le proprietà per la codifica di un video con il codec H.265.

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.H265Video

Il discriminatorio per i tipi derivati.

complexity

H265Complexity

Indica al codificatore come scegliere le impostazioni di codifica. La qualità fornirà un rapporto di compressione più elevato, ma a costi più elevati e tempi di calcolo più lunghi. La velocità produrrà un file relativamente più grande, ma è più veloce ed economico. Il valore predefinito è Bilanciato.

keyFrameInterval

string

Distanza tra due fotogrammi chiave. Il valore deve essere diverso da zero nell'intervallo [0,5, 20] secondi, specificato nel formato ISO 8601. Il valore predefinito è 2 secondi (PT2S). Si noti che questa impostazione viene ignorata se è impostato VideoSyncMode.Passthrough, in cui il valore KeyFrameInterval seguirà l'impostazione dell'origine di input.

label

string

Etichetta facoltativa per il codec. L'etichetta può essere usata per controllare il comportamento di multiplexing.

layers

H265Layer[]

Raccolta di livelli H.265 di output da produrre dal codificatore.

sceneChangeDetection

boolean

Specifica se il codificatore deve inserire fotogrammi chiave in corrispondenza delle modifiche della scena. Se non specificato, il valore predefinito è false. Questo flag deve essere impostato su true solo quando il codificatore è configurato per produrre un singolo video di output.

stretchMode

StretchMode

Modalità di ridimensionamento: modalità di ridimensionamento del video di input in base alle risoluzioni di output desiderate. Il valore predefinito è AutoSize

syncMode

VideoSyncMode

Modalità di sincronizzazione video

H265VideoProfile

Attualmente supportiamo Main. Il valore predefinito è Auto.

Nome Tipo Descrizione
Auto

string

Indica al codificatore di determinare automaticamente il profilo H.265 appropriato.

Main

string

Profilo principale (https://x265.readthedocs.io/en/default/cli.html?highlight=profile#profile-level-tier)

Main10

string

Profilo principale 10 (https://en.wikipedia.org/wiki/High_Efficiency_Video_Coding#Main_10)

Image

Descrive le proprietà di base per la generazione di anteprime dal video di input

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.Image

Il discriminatorio per i tipi derivati.

keyFrameInterval

string

Distanza tra due fotogrammi chiave. Il valore deve essere diverso da zero nell'intervallo [0,5, 20] secondi, specificato nel formato ISO 8601. Il valore predefinito è 2 secondi (PT2S). Si noti che questa impostazione viene ignorata se è impostato VideoSyncMode.Passthrough, in cui il valore KeyFrameInterval seguirà l'impostazione dell'origine di input.

label

string

Etichetta facoltativa per il codec. L'etichetta può essere usata per controllare il comportamento di multiplexing.

range

string

Posizione relativa alla trasformazione dell'ora di inizio predefinita nel video di input in cui interrompere la generazione di anteprime. Il valore può essere in formato ISO 8601 (ad esempio, PT5M30S per arrestarsi a 5 minuti e 30 secondi dall'ora di inizio) o un numero di fotogrammi (ad esempio, 300 per arrestarsi al 300° fotogramma dal frame all'ora di inizio). Se questo valore è 1, significa produrre una sola anteprima all'ora di inizio) o un valore relativo alla durata del flusso (ad esempio, il 50% per arrestarsi a metà della durata del flusso dall'ora di inizio). Il valore predefinito è 100%, che significa arrestarsi alla fine del flusso.

start

string

Posizione nel video di input da cui iniziare a generare anteprime. Il valore può essere in formato ISO 8601 (ad esempio PT05S per iniziare a 5 secondi) o un numero di fotogrammi (ad esempio, 10 per iniziare al 10° fotogramma) o un valore relativo alla durata del flusso (ad esempio, 10% per iniziare al 10% della durata del flusso). Supporta anche una macro {Best}, che indica al codificatore di selezionare l'anteprima migliore dai primi secondi del video e produrrà solo un'anteprima, indipendentemente dalle altre impostazioni per Step e Range. Il valore predefinito è la macro {Best}.

step

string

Intervalli in cui vengono generate le anteprime. Il valore può essere in formato ISO 8601 (ad esempio PT05S per un'immagine ogni 5 secondi) o un numero di fotogrammi (ad esempio, 30 per un'immagine ogni 30 fotogrammi) o un valore relativo alla durata del flusso (ad esempio, 10% per un'immagine ogni 10% della durata del flusso). Nota: il valore del passaggio influirà sulla prima anteprima generata, che potrebbe non essere esattamente quella specificata all'ora di inizio predefinita della trasformazione. Ciò è dovuto al codificatore, che tenta di selezionare l'anteprima migliore tra l'ora di inizio e la posizione passaggio dall'ora di inizio come primo output. Poiché il valore predefinito è 10%, significa che se il flusso ha una durata prolungata, la prima anteprima generata potrebbe essere lontana da quella specificata all'ora di inizio. Provare a selezionare un valore ragionevole per Step se la prima anteprima è prevista vicino all'ora di inizio o impostare Valore intervallo su 1 se è necessaria una sola anteprima all'ora di inizio.

stretchMode

StretchMode

Modalità di ridimensionamento: modalità di ridimensionamento del video di input in base alle risoluzioni di output desiderate. Il valore predefinito è AutoSize

syncMode

VideoSyncMode

Modalità di sincronizzazione video

ImageFormat

Descrive le proprietà di un file di immagine di output.

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.ImageFormat

Il discriminatorio per i tipi derivati.

filenamePattern

string

Modello di denominazione dei file utilizzato per la creazione di file di output. Nel nome file sono supportate le macro seguenti: {Basename} - Macro di espansione che userà il nome del file video di input. Se il nome di base (il suffisso del file non è incluso) del file video di input è composto da meno di 32 caratteri, verrà usato il nome di base dei file video di input. Se la lunghezza del nome di base del file video di input supera i 32 caratteri, il nome di base viene troncato ai primi 32 caratteri in lunghezza totale. {Extension} - Estensione appropriata per questo formato. {Label} - Etichetta assegnata al codec/livello. {Index} - Indice univoco per le anteprime. Applicabile solo alle anteprime. {AudioStream} - stringa "Audio" più numero di flusso audio(a partire da 1). {Bitrate} - Velocità in bit audio/video in kbps. Non applicabile alle anteprime. {Codec} - Tipo di codec audio/video. {Resolution} - Risoluzione video. Tutte le macro non inviate verranno compresse e rimosse dal nome file.

InputFile

InputDefinition per un singolo file. TrackSelections ha come ambito il file specificato.

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.InputFile

Il discriminatorio per i tipi derivati.

filename

string

Nome del file a cui si applica questa definizione di input.

includedTracks TrackDescriptor[]:

Elenco di TrackDescriptor che definiscono i metadati e la selezione delle tracce nell'input.

InsightsType

Definisce il tipo di informazioni dettagliate che si desidera che il servizio generi. I valori consentiti sono "AudioInsightsOnly", "VideoInsightsOnly" e "AllInsights". Il valore predefinito è AllInsights. Se si imposta questa opzione su AllInsights e l'input è solo audio, vengono generate solo informazioni audio. Analogamente, se l'input è solo video, vengono generate solo informazioni video. È consigliabile non usare AudioInsightsOnly se si prevede che alcuni degli input siano solo video; o usare VideoInsightsOnly se si prevede che alcuni degli input siano solo audio. I processi in tali condizioni potrebbero essere eseguiti errori.

Nome Tipo Descrizione
AllInsights

string

Generare informazioni dettagliate sia audio che video. Ha esito negativo se audio o video Insights non riesce.

AudioInsightsOnly

string

Generare solo informazioni dettagliate sull'audio. Ignorare il video anche se presente. Non riesce se non è presente alcun audio.

VideoInsightsOnly

string

Generare solo informazioni dettagliate sul video. Ignorare l'audio se presente. Non riesce se non è presente alcun video.

InterleaveOutput

Imposta la modalità interleave dell'output per controllare la modalità di archiviazione dell'audio e del video nel formato contenitore. Esempio: impostare InterleavedOutput come NonInterleavedOutput per produrre output solo audio e video in file MP4 separati.

Nome Tipo Descrizione
InterleavedOutput

string

L'output include sia audio che video.

NonInterleavedOutput

string

L'output è solo video o audio.

Job

Tipo di risorsa Processo. L'avanzamento e lo stato possono essere ottenuti eseguendo il polling di un processo o sottoscrivendo gli eventi usando EventGrid.

Nome Tipo Descrizione
id

string

ID di risorsa completo per la risorsa. Ad esempio - /subscriptions/{subscriptionId}/resourceGroups/{resourceGroupName}/providers/{resourceProviderNamespace}/{resourceType}/{resourceName}

name

string

nome della risorsa.

properties.correlationData

object

Chiave fornita dal cliente, coppie valore che verranno restituite negli eventi di stato Job e JobOutput.

properties.created

string

Data e ora UTC in cui il cliente ha creato il processo, in formato "AAAA-MM-GGThh:mm:ssZ".

properties.description

string

Descrizione facoltativa del processo aggiunta dal cliente.

properties.endTime

string

Data e ora UTC in cui è stata completata l'elaborazione del processo.

properties.input JobInput:

Gli input per il processo.

properties.lastModified

string

Data e ora UTC dell'ultimo aggiornamento del processo da parte del cliente, nel formato 'AAAA-MM-GGThh:mm:ssZ'.

properties.outputs JobOutput[]:

JobOutputAsset[]

Output di Job.

properties.priority

Priority

Priorità con cui deve essere elaborato l'oggetto Job. Gli oggetti Job con priorità più alta vengono elaborati prima di quelli con priorità inferiore. Se questa proprietà non è impostata, il valore predefinito è quello normale.

properties.startTime

string

Data e ora UTC in cui il processo ha iniziato l'elaborazione.

properties.state

JobState

Stato corrente dell'oggetto Job.

systemData

systemData

Metadati di sistema relativi a questa risorsa.

type

string

Tipo di risorsa. Ad esempio, "Microsoft.Compute/virtualMachines" o "Microsoft.Storage/storageAccounts"

JobError

Dettagli degli errori JobOutput.

Nome Tipo Descrizione
category

JobErrorCategory

Consente di categorizzare gli errori.

code

JobErrorCode

Codice di errore che descrive l'errore.

details

JobErrorDetail[]

Matrice di dettagli sugli errori specifici che hanno causato questo errore segnalato.

message

string

Rappresentazione dipendente dal linguaggio leggibile dell'errore.

retry

JobRetry

Indica che potrebbe essere possibile ripetere il processo. Se il nuovo tentativo non riesce, contattare supporto tecnico di Azure tramite il portale di Azure.

JobErrorCategory

Consente di categorizzare gli errori.

Nome Tipo Descrizione
Account

string

L'errore è correlato alle informazioni sull'account.

Configuration

string

L'errore è correlato alla configurazione.

Content

string

L'errore è correlato ai dati nei file di input.

Download

string

L'errore è correlato al download.

Service

string

L'errore è correlato al servizio.

Upload

string

L'errore è correlato al caricamento.

JobErrorCode

Codice di errore che descrive l'errore.

Nome Tipo Descrizione
ConfigurationUnsupported

string

Si è verificato un problema con la combinazione di file di input e le impostazioni di configurazione applicate, correggere le impostazioni di configurazione e riprovare con lo stesso input o modificare l'input in modo che corrisponda alla configurazione.

ContentMalformed

string

Si è verificato un problema con il contenuto di input (ad esempio: zero file di byte o file danneggiati/non decodificabili), controllare i file di input.

ContentUnsupported

string

Si è verificato un problema con il formato dell'input (file multimediale non valido o un file/codec non supportato), verificare la validità dei file di input.

DownloadNotAccessible

string

Durante il tentativo di scaricare i file di input, i file non erano accessibili, verificare la disponibilità dell'origine.

DownloadTransientError

string

Durante il tentativo di scaricare i file di input, si è verificato un problema durante il trasferimento (servizio di archiviazione, errori di rete), vedere i dettagli e controllare l'origine.

IdentityUnsupported

string

Errore durante la verifica dell'identità dell'account. Controllare e correggere le configurazioni di identità e riprovare. In caso di esito negativo, contattare il supporto tecnico.

ServiceError

string

Errore irreversibile del servizio. Contattare il supporto tecnico.

ServiceTransientError

string

Errore temporaneo. Riprovare, se il nuovo tentativo non riesce, contattare il supporto tecnico.

UploadNotAccessible

string

Durante il tentativo di caricare i file di output, la destinazione non è raggiungibile, verificare la disponibilità della destinazione.

UploadTransientError

string

Durante il tentativo di caricare i file di output, si è verificato un problema durante il trasferimento (servizio di archiviazione, errori di rete), vedere i dettagli e controllare la destinazione.

JobErrorDetail

Dettagli degli errori JobOutput.

Nome Tipo Descrizione
code

string

Codice che descrive i dettagli dell'errore.

message

string

Rappresentazione leggibile dell'errore.

JobInputAsset

Rappresenta un asset per l'input in un processo.

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.JobInputAsset

Il discriminatorio per i tipi derivati.

assetName

string

Nome dell'asset di input.

end ClipTime:

Definisce un punto nella sequenza temporale del supporto di input in corrispondenza del quale l'elaborazione terminerà. L'impostazione predefinita è la fine del supporto di input.

files

string[]

Elenco di file. Obbligatorio per JobInputHttp. Massimo 4000 caratteri ciascuno. Le stringhe di query non verranno restituite nelle risposte del servizio per evitare l'esposizione dei dati sensibili.

inputDefinitions InputDefinition[]:

Definisce un elenco di InputDefinitions. Per ogni InputDefinition, definisce un elenco di selezioni di tracce e metadati correlati.

label

string

Etichetta assegnata a un oggetto JobInputClip, che viene usata per soddisfare un riferimento utilizzato nella trasformazione. Ad esempio, è possibile creare una trasformazione in modo da acquisire un file di immagine con l'etichetta "xyz" e applicarlo come sovrimpressione al video di input prima che venga codificato. Quando si invia un processo, esattamente uno dei JobInputs deve essere il file di immagine e deve avere l'etichetta "xyz".

start ClipTime:

Definisce un punto nella sequenza temporale del supporto di input in corrispondenza del quale verrà avviata l'elaborazione. L'impostazione predefinita è l'inizio del supporto di input.

JobInputClip

Rappresenta i file di input per un processo.

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.JobInputClip

Il discriminatorio per i tipi derivati.

end ClipTime:

Definisce un punto nella sequenza temporale del supporto di input in corrispondenza del quale l'elaborazione terminerà. L'impostazione predefinita è la fine del supporto di input.

files

string[]

Elenco di file. Obbligatorio per JobInputHttp. Massimo 4000 caratteri ciascuno. Le stringhe di query non verranno restituite nelle risposte del servizio per evitare l'esposizione dei dati sensibili.

inputDefinitions InputDefinition[]:

Definisce un elenco di InputDefinitions. Per ogni InputDefinition, definisce un elenco di selezioni di tracce e metadati correlati.

label

string

Etichetta assegnata a un oggetto JobInputClip, che viene usata per soddisfare un riferimento utilizzato nella trasformazione. Ad esempio, è possibile creare una trasformazione in modo da acquisire un file di immagine con l'etichetta "xyz" e applicarlo come sovrimpressione al video di input prima che venga codificato. Quando si invia un processo, esattamente uno dei JobInputs deve essere il file di immagine e deve avere l'etichetta "xyz".

start ClipTime:

Definisce un punto nella sequenza temporale del supporto di input in corrispondenza del quale verrà avviata l'elaborazione. L'impostazione predefinita è l'inizio del supporto di input.

JobInputHttp

Rappresenta l'input del processo HTTPS.

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.JobInputHttp

Il discriminatorio per i tipi derivati.

baseUri

string

URI di base per l'input del processo HTTPS. Verrà concatenata con i nomi di file specificati. Se non viene specificato alcun URI di base, si presuppone che l'elenco di file specificato sia URI completi. Lunghezza massima di 4000 caratteri. Le stringhe di query non verranno restituite nelle risposte del servizio per evitare l'esposizione dei dati sensibili.

end ClipTime:

Definisce un punto nella sequenza temporale del supporto di input in corrispondenza del quale l'elaborazione terminerà. L'impostazione predefinita è la fine del supporto di input.

files

string[]

Elenco di file. Obbligatorio per JobInputHttp. Massimo 4000 caratteri ciascuno. Le stringhe di query non verranno restituite nelle risposte del servizio per evitare l'esposizione dei dati sensibili.

inputDefinitions InputDefinition[]:

Definisce un elenco di InputDefinitions. Per ogni InputDefinition, definisce un elenco di selezioni di tracce e metadati correlati.

label

string

Etichetta assegnata a un oggetto JobInputClip, che viene usata per soddisfare un riferimento utilizzato nella trasformazione. Ad esempio, è possibile creare una trasformazione in modo da acquisire un file di immagine con l'etichetta "xyz" e applicarlo come sovrimpressione al video di input prima che venga codificato. Quando si invia un processo, esattamente uno dei JobInputs deve essere il file di immagine e deve avere l'etichetta "xyz".

start ClipTime:

Definisce un punto nella sequenza temporale del supporto di input in corrispondenza del quale verrà avviata l'elaborazione. L'impostazione predefinita è l'inizio del supporto di input.

JobInputs

Descrive un elenco di input per un processo.

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.JobInputs

Il discriminatorio per i tipi derivati.

inputs JobInput[]:

Elenco di input per un processo.

JobInputSequence

Una sequenza contiene un elenco ordinato di clip in cui ogni clip è un oggetto JobInput. La sequenza verrà considerata come un singolo input.

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.JobInputSequence

Il discriminatorio per i tipi derivati.

inputs JobInputClip[]:

JobInputs che costituiscono la sequenza temporale.

JobOutputAsset

Rappresenta un asset utilizzato come JobOutput.

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.JobOutputAsset

Il discriminatorio per i tipi derivati.

assetName

string

Nome dell'asset di output.

endTime

string

Data e ora UTC in cui l'output del processo ha terminato l'elaborazione.

error

JobError

Se JobOutput è nello stato Errore, contiene i dettagli dell'errore.

label

string

Etichetta assegnata a jobOutput per identificarla in modo univoco. Ciò è utile quando la trasformazione ha più di un oggetto TransformOutput, in cui il processo ha più di un JobOutput. In questi casi, quando si invia il processo, si aggiungeranno due o più JobOutputs, nello stesso ordine di TransformOutputs nella trasformazione. Successivamente, quando si recupera il processo, tramite eventi o su una richiesta GET, è possibile usare l'etichetta per identificare facilmente JobOutput. Se non viene specificata un'etichetta, verrà usato il valore predefinito '{presetName}_{outputIndex}', dove il nome del set di impostazioni corrisponde al nome del set di impostazioni nel valore TransformOutput corrispondente e l'indice di output è l'indice relativo del jobOutput all'interno del processo. Si noti che questo indice corrisponde all'indice relativo dell'oggetto TransformOutput corrispondente all'interno della relativa trasformazione.

presetOverride Preset:

Set di impostazioni utilizzato per eseguire l'override del set di impostazioni nell'output di trasformazione corrispondente.

progress

integer

Se JobOutput è in stato Elaborazione, contiene la percentuale di completamento del processo. Il valore è una stima e non deve essere usato per stimare i tempi di completamento del processo. Per determinare se JobOutput è completo, utilizzare la proprietà State.

startTime

string

Data e ora UTC in cui l'output del processo ha iniziato l'elaborazione.

state

JobState

Descrive lo stato di JobOutput.

JobRetry

Indica che potrebbe essere possibile ripetere il processo. Se il nuovo tentativo non riesce, contattare supporto tecnico di Azure tramite il portale di Azure.

Nome Tipo Descrizione
DoNotRetry

string

È necessario analizzare il problema e quindi ripetere il processo con correzioni o ritentare una volta corretto il problema sottostante.

MayRetry

string

Il problema può essere risolto dopo l'attesa di un periodo di tempo e l'invio dello stesso processo.

JobState

Descrive lo stato di JobOutput.

Nome Tipo Descrizione
Canceled

string

Il processo è stato annullato. Si tratta di uno stato finale per il processo.

Canceling

string

Il processo è in corso di annullamento. Si tratta di uno stato temporaneo per il processo.

Error

string

Errore del processo. Si tratta di uno stato finale per il processo.

Finished

string

Il processo è stato completato. Si tratta di uno stato finale per il processo.

Processing

string

Il processo è in corso di elaborazione. Si tratta di uno stato temporaneo per il processo.

Queued

string

Il processo è in uno stato in coda, in attesa che le risorse diventino disponibili. Si tratta di uno stato transitorio.

Scheduled

string

Il processo viene pianificato per l'esecuzione in una risorsa disponibile. Si tratta di uno stato temporaneo, tra stati di elaborazione e accodati.

JpgFormat

Descrive le impostazioni per la produzione di anteprime JPEG.

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.JpgFormat

Discriminazione per i tipi derivati.

filenamePattern

string

Modello di denominazione dei file usato per la creazione di file di output. Le macro seguenti sono supportate nel nome del file: {Basename} - Macro di espansione che userà il nome del file video di input. Se il nome di base(il suffisso del file non è incluso) del file video di input è inferiore a 32 caratteri, verrà usato il nome di base dei file video di input. Se la lunghezza del nome di base del file video di input supera i 32 caratteri, il nome di base viene troncato ai primi 32 caratteri in lunghezza totale. {Extension} - Estensione appropriata per questo formato. {Label} : etichetta assegnata al codec/livello. {Index} - Indice univoco per le anteprime. Applicabile solo alle anteprime. {AudioStream} - stringa "Audio" più numero di flusso audio(a partire da 1). {Bitrate} - Velocità in bit audio/video in kbps. Non applicabile alle anteprime. {Codec} - Tipo di codec audio/video. {Resolution} - Risoluzione video. Tutte le macro non autorizzate verranno compresse e rimosse dal nome file.

JpgImage

Descrive le proprietà per la produzione di una serie di immagini JPEG dal video di input.

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.JpgImage

Il discriminatorio per i tipi derivati.

keyFrameInterval

string

Distanza tra due fotogrammi chiave. Il valore deve essere diverso da zero nell'intervallo [0,5, 20] secondi, specificato nel formato ISO 8601. Il valore predefinito è 2 secondi (PT2S). Si noti che questa impostazione viene ignorata se è impostato VideoSyncMode.Passthrough, in cui il valore KeyFrameInterval seguirà l'impostazione dell'origine di input.

label

string

Etichetta facoltativa per il codec. L'etichetta può essere usata per controllare il comportamento di multiplexing.

layers

JpgLayer[]

Raccolta di livelli di immagine JPEG di output da produrre dal codificatore.

range

string

Posizione relativa alla trasformazione dell'ora di inizio predefinita nel video di input in cui interrompere la generazione di anteprime. Il valore può essere in formato ISO 8601 (ad esempio, PT5M30S per arrestarsi a 5 minuti e 30 secondi dall'ora di inizio) o un numero di fotogrammi (ad esempio, 300 per arrestarsi al 300° fotogramma dal frame all'ora di inizio). Se questo valore è 1, significa produrre una sola anteprima all'ora di inizio) o un valore relativo alla durata del flusso (ad esempio, il 50% per arrestarsi a metà della durata del flusso dall'ora di inizio). Il valore predefinito è 100%, che significa arrestarsi alla fine del flusso.

spriteColumn

integer

Imposta il numero di colonne utilizzate nell'immagine sprite dell'anteprima. Il numero di righe viene calcolato automaticamente e viene generato un file VTT con i mapping delle coordinate per ogni anteprima nello sprite. Nota: questo valore deve essere un numero intero positivo ed è consigliabile un valore appropriato in modo che la risoluzione dell'immagine di output non superi il limite massimo di risoluzione pixel JPEG 65535x65535.

start

string

Posizione nel video di input da cui iniziare a generare anteprime. Il valore può essere in formato ISO 8601 (ad esempio PT05S per iniziare a 5 secondi) o un numero di fotogrammi (ad esempio, 10 per iniziare al 10° fotogramma) o un valore relativo alla durata del flusso (ad esempio, 10% per iniziare al 10% della durata del flusso). Supporta anche una macro {Best}, che indica al codificatore di selezionare l'anteprima migliore dai primi secondi del video e produrrà solo un'anteprima, indipendentemente dalle altre impostazioni per Step e Range. Il valore predefinito è la macro {Best}.

step

string

Intervalli in cui vengono generate le anteprime. Il valore può essere in formato ISO 8601 (ad esempio PT05S per un'immagine ogni 5 secondi) o un numero di fotogrammi (ad esempio, 30 per un'immagine ogni 30 fotogrammi) o un valore relativo alla durata del flusso (ad esempio, 10% per un'immagine ogni 10% della durata del flusso). Nota: il valore del passaggio influirà sulla prima anteprima generata, che potrebbe non essere esattamente quella specificata all'ora di inizio predefinita della trasformazione. Ciò è dovuto al codificatore, che tenta di selezionare l'anteprima migliore tra l'ora di inizio e la posizione passaggio dall'ora di inizio come primo output. Poiché il valore predefinito è 10%, significa che se il flusso ha una durata prolungata, la prima anteprima generata potrebbe essere lontana da quella specificata all'ora di inizio. Provare a selezionare un valore ragionevole per Step se la prima anteprima è prevista vicino all'ora di inizio o impostare Valore intervallo su 1 se è necessaria una sola anteprima all'ora di inizio.

stretchMode

StretchMode

Modalità di ridimensionamento: modalità di ridimensionamento del video di input in base alle risoluzioni di output desiderate. Il valore predefinito è AutoSize

syncMode

VideoSyncMode

Modalità di sincronizzazione video

JpgLayer

Descrive le impostazioni per produrre un'immagine JPEG dal video di input.

Nome Tipo Descrizione
height

string

Altezza del video di output per questo livello. Il valore può essere assoluto (in pixel) o relativo (in percentuale). Ad esempio, il 50% indica che il video di output ha metà del numero di pixel in altezza dell'input.

label

string

Etichetta alfanumerica per questo livello, che può essere usata in multiplexing di diversi livelli video e audio o per denominare il file di output.

quality

integer

Qualità della compressione dell'output JPEG. L'intervallo è compreso tra 0 e 100 e il valore predefinito è 70.

width

string

Larghezza del video di output per questo livello. Il valore può essere assoluto (in pixel) o relativo (in percentuale). Ad esempio, il 50% indica che il video di output ha metà del numero di pixel di larghezza dell'input.

Mp4Format

Descrive le proprietà per un file ISO MP4 di output.

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.Mp4Format

Discriminazione per i tipi derivati.

filenamePattern

string

Modello di denominazione dei file usato per la creazione di file di output. Le macro seguenti sono supportate nel nome del file: {Basename} - Macro di espansione che userà il nome del file video di input. Se il nome di base(il suffisso del file non è incluso) del file video di input è inferiore a 32 caratteri, verrà usato il nome di base dei file video di input. Se la lunghezza del nome di base del file video di input supera i 32 caratteri, il nome di base viene troncato ai primi 32 caratteri in lunghezza totale. {Extension} - Estensione appropriata per questo formato. {Label} : etichetta assegnata al codec/livello. {Index} - Indice univoco per le anteprime. Applicabile solo alle anteprime. {AudioStream} - stringa "Audio" più numero di flusso audio(a partire da 1). {Bitrate} - Velocità in bit audio/video in kbps. Non applicabile alle anteprime. {Codec} - Tipo di codec audio/video. {Resolution} - Risoluzione video. Tutte le macro non autorizzate verranno compresse e rimosse dal nome file.

outputFiles

OutputFile[]

Elenco dei file di output da produrre. Ogni voce nell'elenco è un set di etichette di livello audio e video da spostare insieme.

MultiBitrateFormat

Vengono descritte le proprietà per la produzione di una raccolta di file a bitrate multipli allineati a GOP. Il comportamento predefinito consiste nel produrre un file di output per ogni livello video che viene disattivato insieme a tutti gli audio. I file di output esatti prodotti possono essere controllati specificando l'insieme outputFiles.

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.MultiBitrateFormat

Discriminazione per i tipi derivati.

filenamePattern

string

Modello di denominazione dei file usato per la creazione di file di output. Le macro seguenti sono supportate nel nome del file: {Basename} - Macro di espansione che userà il nome del file video di input. Se il nome di base(il suffisso del file non è incluso) del file video di input è inferiore a 32 caratteri, verrà usato il nome di base dei file video di input. Se la lunghezza del nome di base del file video di input supera i 32 caratteri, il nome di base viene troncato ai primi 32 caratteri in lunghezza totale. {Extension} - Estensione appropriata per questo formato. {Label} : etichetta assegnata al codec/livello. {Index} - Indice univoco per le anteprime. Applicabile solo alle anteprime. {AudioStream} - stringa "Audio" più numero di flusso audio(a partire da 1). {Bitrate} - Velocità in bit audio/video in kbps. Non applicabile alle anteprime. {Codec} - Tipo di codec audio/video. {Resolution} - Risoluzione video. Tutte le macro non autorizzate verranno compresse e rimosse dal nome file.

outputFiles

OutputFile[]

Elenco di file di output da produrre. Ogni voce nell'elenco è un set di etichette di livello audio e video da spostare insieme.

OutputFile

Rappresenta un file di output prodotto.

Nome Tipo Descrizione
labels

string[]

Elenco di etichette che descrivono come il codificatore deve eseguire il multiplex video e l'audio in un file di output. Ad esempio, se il codificatore produce due livelli video con etichette v1 e v2 e un livello audio con etichetta a1, una matrice come "[v1, a1]" indica al codificatore di produrre un file di output con la traccia video rappresentata da v1 e la traccia audio rappresentata da a1.

PngFormat

Descrive le impostazioni per la produzione di anteprime PNG.

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.PngFormat

Discriminazione per i tipi derivati.

filenamePattern

string

Modello di denominazione dei file usato per la creazione di file di output. Le macro seguenti sono supportate nel nome del file: {Basename} - Macro di espansione che userà il nome del file video di input. Se il nome di base(il suffisso del file non è incluso) del file video di input è inferiore a 32 caratteri, verrà usato il nome di base dei file video di input. Se la lunghezza del nome di base del file video di input supera i 32 caratteri, il nome di base viene troncato ai primi 32 caratteri in lunghezza totale. {Extension} - Estensione appropriata per questo formato. {Label} : etichetta assegnata al codec/livello. {Index} - Indice univoco per le anteprime. Applicabile solo alle anteprime. {AudioStream} - stringa "Audio" più numero di flusso audio(a partire da 1). {Bitrate} - Velocità in bit audio/video in kbps. Non applicabile alle anteprime. {Codec} - Tipo di codec audio/video. {Resolution} - Risoluzione video. Tutte le macro non autorizzate verranno compresse e rimosse dal nome file.

PngImage

Descrive le proprietà per la produzione di una serie di immagini PNG dal video di input.

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.PngImage

Il discriminatorio per i tipi derivati.

keyFrameInterval

string

Distanza tra due fotogrammi chiave. Il valore deve essere diverso da zero nell'intervallo [0,5, 20] secondi, specificato nel formato ISO 8601. Il valore predefinito è 2 secondi (PT2S). Si noti che questa impostazione viene ignorata se è impostato VideoSyncMode.Passthrough, in cui il valore KeyFrameInterval seguirà l'impostazione dell'origine di input.

label

string

Etichetta facoltativa per il codec. L'etichetta può essere usata per controllare il comportamento di multiplexing.

layers

PngLayer[]

Raccolta di livelli immagine PNG di output da produrre dal codificatore.

range

string

Posizione relativa alla trasformazione dell'ora di inizio predefinita nel video di input in cui interrompere la generazione di anteprime. Il valore può essere in formato ISO 8601 (ad esempio, PT5M30S per arrestarsi a 5 minuti e 30 secondi dall'ora di inizio) o un numero di fotogrammi (ad esempio, 300 per arrestarsi al 300° fotogramma dal frame all'ora di inizio). Se questo valore è 1, significa produrre una sola anteprima all'ora di inizio) o un valore relativo alla durata del flusso (ad esempio, il 50% per arrestarsi a metà della durata del flusso dall'ora di inizio). Il valore predefinito è 100%, che significa arrestarsi alla fine del flusso.

start

string

Posizione nel video di input da cui iniziare a generare anteprime. Il valore può essere in formato ISO 8601 (ad esempio PT05S per iniziare a 5 secondi) o un numero di fotogrammi (ad esempio, 10 per iniziare al 10° fotogramma) o un valore relativo alla durata del flusso (ad esempio, 10% per iniziare al 10% della durata del flusso). Supporta anche una macro {Best}, che indica al codificatore di selezionare l'anteprima migliore dai primi secondi del video e produrrà solo un'anteprima, indipendentemente dalle altre impostazioni per Step e Range. Il valore predefinito è la macro {Best}.

step

string

Intervalli in cui vengono generate le anteprime. Il valore può essere in formato ISO 8601 (ad esempio PT05S per un'immagine ogni 5 secondi) o un numero di fotogrammi (ad esempio, 30 per un'immagine ogni 30 fotogrammi) o un valore relativo alla durata del flusso (ad esempio, 10% per un'immagine ogni 10% della durata del flusso). Nota: il valore del passaggio influirà sulla prima anteprima generata, che potrebbe non essere esattamente quella specificata all'ora di inizio predefinita della trasformazione. Ciò è dovuto al codificatore, che tenta di selezionare l'anteprima migliore tra l'ora di inizio e la posizione passaggio dall'ora di inizio come primo output. Poiché il valore predefinito è 10%, significa che se il flusso ha una durata prolungata, la prima anteprima generata potrebbe essere lontana da quella specificata all'ora di inizio. Provare a selezionare un valore ragionevole per Step se la prima anteprima è prevista vicino all'ora di inizio o impostare Valore intervallo su 1 se è necessaria una sola anteprima all'ora di inizio.

stretchMode

StretchMode

Modalità di ridimensionamento: modalità di ridimensionamento del video di input in base alle risoluzioni di output desiderate. Il valore predefinito è AutoSize

syncMode

VideoSyncMode

Modalità di sincronizzazione video

PngLayer

Descrive le impostazioni per produrre un'immagine PNG dal video di input.

Nome Tipo Descrizione
height

string

Altezza del video di output per questo livello. Il valore può essere assoluto (in pixel) o relativo (in percentuale). Ad esempio, il 50% indica che il video di output ha metà del numero di pixel in altezza dell'input.

label

string

Etichetta alfanumerica per questo livello, che può essere usata in multiplexing di diversi livelli video e audio o per denominare il file di output.

width

string

Larghezza del video di output per questo livello. Il valore può essere assoluto (in pixel) o relativo (in percentuale). Ad esempio, il 50% indica che il video di output ha metà del numero di pixel di larghezza dell'input.

PresetConfigurations

Oggetto delle impostazioni di configurazione facoltative per il codificatore.

Nome Tipo Descrizione
complexity

Complexity

Consente di configurare le impostazioni del codificatore per controllare l'equilibrio tra velocità e qualità. Esempio: impostare Complessità come Velocità per una codifica più veloce, ma meno efficienza di compressione.

interleaveOutput

InterleaveOutput

Imposta la modalità interleave dell'output per controllare la modalità di archiviazione dell'audio e del video nel formato contenitore. Esempio: impostare InterleavedOutput come NonInterleavedOutput per produrre output solo audio e solo video in file MP4 separati.

keyFrameIntervalInSeconds

number

Intervallo fotogrammi chiave in secondi. Esempio: impostare KeyFrameIntervalInSeconds su 2 per ridurre il buffer di riproduzione per alcuni lettori.

maxBitrateBps

integer

Velocità massima in bit al secondo (soglia per il livello video superiore). Esempio: impostare MaxBitrateBps su 6000000 per evitare di produrre output a velocità in bit molto elevata per il contenuto con complessità elevata.

maxHeight

integer

Altezza massima dei livelli video di output. Esempio: impostare MaxHeight su 720 per produrre livelli di output fino a 720P anche se l'input è 4K.

maxLayers

integer

Numero massimo di livelli video di output. Esempio: impostare MaxLayers su 4 per assicurarsi che vengano prodotti al massimo 4 livelli di output per controllare il costo complessivo del processo di codifica.

minBitrateBps

integer

Velocità minima in bit al secondo (soglia per il livello video inferiore). Esempio: impostare MinBitrateBps su 200000 per avere un livello inferiore che copre gli utenti con larghezza di banda di rete ridotta.

minHeight

integer

Altezza minima dei livelli video di output. Esempio: impostare MinHeight su 360 per evitare livelli di output di risoluzioni più piccole come 180P.

Priority

Imposta la priorità relativa di TransformOutputs all'interno di una trasformazione. In questo modo viene impostata la priorità usata dal servizio per l'elaborazione di TransformOutputs. La priorità predefinita è Normal.

Nome Tipo Descrizione
High

string

Usato per TransformOutputs che deve avere la precedenza sugli altri.

Low

string

Usato per TransformOutputs che può essere generato dopo TransformOutputs con priorità normale e alta.

Normal

string

Usato per TransformOutputs che può essere generato con priorità Normale.

Rectangle

Descrive le proprietà di una finestra rettangolare applicata al supporto di input prima di elaborarla.

Nome Tipo Descrizione
height

string

Altezza dell'area rettangolare in pixel. Può trattarsi di un valore di pixel assoluto (ad esempio 100) o relativo alle dimensioni del video (ad esempio, 50%).

left

string

Numero di pixel dal margine sinistro. Può trattarsi di un valore di pixel assoluto (ad esempio 100) o relativo alle dimensioni del video (ad esempio, 50%).

top

string

Numero di pixel dal margine superiore. Può trattarsi di un valore di pixel assoluto (ad esempio 100) o relativo alle dimensioni del video (ad esempio, 50%).

width

string

Larghezza dell'area rettangolare in pixel. Può trattarsi di un valore di pixel assoluto (ad esempio 100) o relativo alle dimensioni del video (ad esempio, 50%).

Rotation

La rotazione, se presente, da applicare al video di input, prima che venga codificata. Il valore predefinito è Auto

Nome Tipo Descrizione
Auto

string

Rilevare e ruotare automaticamente in base alle esigenze.

None

string

Non ruotare il video. Se il formato di output lo supporta, tutti i metadati relativi alla rotazione vengono mantenuti intatti.

Rotate0

string

Non ruotare il video ma rimuovere i metadati relativi alla rotazione.

Rotate180

string

Ruotare 180 gradi in senso orario.

Rotate270

string

Ruotare 270 gradi in senso orario.

Rotate90

string

Ruotare 90 gradi in senso orario.

SelectAudioTrackByAttribute

Selezionare tracce audio dall'input specificando un attributo e un filtro di attributo.

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.SelectAudioTrackByAttribute

Discriminazione per i tipi derivati.

attribute

TrackAttribute

TrackAttribute per filtrare le tracce in base.

channelMapping

ChannelMapping

Designazione facoltativa per tracce audio a canale singolo. Può essere usato per combinare le tracce in tracce audio stereo o multicanale.

filter

AttributeFilter

Tipo di AttributeFilter da applicare a TrackAttribute per selezionare le tracce.

filterValue

string

Valore per filtrare le tracce in base. Usato solo quando AttributeFilter.ValueEquals viene specificato per la proprietà Filter.

SelectAudioTrackById

Selezionare tracce audio dall'input specificando un identificatore di traccia.

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.SelectAudioTrackById

Discriminazione per i tipi derivati.

channelMapping

ChannelMapping

Designazione facoltativa per tracce audio a canale singolo. Può essere usato per combinare le tracce in tracce audio stereo o multicanale.

trackId

integer

Tenere traccia dell'identificatore da selezionare

SelectVideoTrackByAttribute

Selezionare tracce video dall'input specificando un attributo e un filtro di attributo.

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.SelectVideoTrackByAttribute

Discriminazione per i tipi derivati.

attribute

TrackAttribute

TrackAttribute per filtrare le tracce in base.

filter

AttributeFilter

Tipo di AttributeFilter da applicare a TrackAttribute per selezionare le tracce.

filterValue

string

Valore per filtrare le tracce in base. Usato solo quando AttributeFilter.ValueEquals viene specificato per la proprietà Filter. Per TrackAttribute.Bitrate, questo valore deve essere un valore intero in bit al secondo (ad esempio: '1500000'). TrackAttribute.Language non è supportato per le tracce video.

SelectVideoTrackById

Selezionare tracce video dall'input specificando un identificatore di traccia.

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.SelectVideoTrackById

Discriminazione per i tipi derivati.

trackId

integer

Tenere traccia dell'identificatore da selezionare

StandardEncoderPreset

Descrive tutte le impostazioni da usare per la codifica del video di input con il codificatore Standard.

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.StandardEncoderPreset

Il discriminatorio per i tipi derivati.

codecs Codec[]:

Elenco di codec da usare per la codifica del video di input.

experimentalOptions

object

Dizionario contenente coppie chiave-valore per i parametri non esposti nel set di impostazioni stesso

filters

Filters

Una o più operazioni di filtro applicate al supporto di input prima della codifica.

formats Format[]:

Elenco di output da produrre dal codificatore.

StretchMode

Modalità di ridimensionamento: modalità di ridimensionamento del video di input in base alle risoluzioni di output desiderate. Il valore predefinito è AutoSize

Nome Tipo Descrizione
AutoFit

string

Aggiungere l'output (con la casella lettera o il pilastro) per rispettare la risoluzione dell'output, garantendo al tempo stesso che l'area video attiva nell'output abbia le stesse proporzioni dell'input. Ad esempio, se l'input è 1920x1080 e il set di impostazioni di codifica richiede 1280x1280, l'output sarà a 1280x1280, che contiene un rettangolo interno di 1280x720 a proporzioni di 16:9 e le aree della casella dei pilastri di 280 pixel a sinistra e destra.

AutoSize

string

Eseguire l'override della risoluzione di output e modificarla in modo che corrisponda alle proporzioni di visualizzazione dell'input, senza spaziatura interna. Ad esempio, se l'input è 1920x1080 e il set di impostazioni di codifica richiede 1280x1280, il valore nel set di impostazioni viene sottoposto a override e l'output sarà a 1280x720, che mantiene le proporzioni di input di 16:9.

None

string

Rispettare rigorosamente la risoluzione di output senza considerare le proporzioni dei pixel o le proporzioni dello schermo del video di input.

systemData

Metadati relativi alla creazione e all'ultima modifica della risorsa.

Nome Tipo Descrizione
createdAt

string

Timestamp della creazione di risorse (UTC).

createdBy

string

Identità che ha creato la risorsa.

createdByType

createdByType

Tipo di identità che ha creato la risorsa.

lastModifiedAt

string

Timestamp dell'ultima modifica della risorsa (UTC)

lastModifiedBy

string

Identità che ha modificato l'ultima volta la risorsa.

lastModifiedByType

createdByType

Tipo di identità che ha modificato l'ultima volta la risorsa.

TrackAttribute

TrackAttribute per filtrare le tracce in base.

Nome Tipo Descrizione
Bitrate

string

Velocità in bit della traccia.

Language

string

Lingua della traccia.

TransportStreamFormat

Descrive le proprietà per la generazione di un file video video di output MPEG-2 (ISO/IEC 13818-1).

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.TransportStreamFormat

Discriminazione per i tipi derivati.

filenamePattern

string

Modello di denominazione dei file usato per la creazione di file di output. Le macro seguenti sono supportate nel nome del file: {Basename} - Macro di espansione che userà il nome del file video di input. Se il nome di base(il suffisso del file non è incluso) del file video di input è inferiore a 32 caratteri, verrà usato il nome di base dei file video di input. Se la lunghezza del nome di base del file video di input supera i 32 caratteri, il nome di base viene troncato ai primi 32 caratteri in lunghezza totale. {Extension} - Estensione appropriata per questo formato. {Label} : etichetta assegnata al codec/livello. {Index} - Indice univoco per le anteprime. Applicabile solo alle anteprime. {AudioStream} - stringa "Audio" più numero di flusso audio(a partire da 1). {Bitrate} - Velocità in bit audio/video in kbps. Non applicabile alle anteprime. {Codec} - Tipo di codec audio/video. {Resolution} - Risoluzione video. Tutte le macro non autorizzate verranno compresse e rimosse dal nome file.

outputFiles

OutputFile[]

Elenco dei file di output da produrre. Ogni voce nell'elenco è un set di etichette di livello audio e video da spostare insieme.

UtcClipTime

Specifica l'ora di clip come posizione dell'ora UTC nel file multimediale. L'ora UTC può puntare a una posizione diversa a seconda che il file multimediale inizi da un timestamp pari o meno a zero.

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.UtcClipTime

Il discriminatorio per i tipi derivati.

time

string

Posizione dell'ora nella sequenza temporale del supporto di input in base all'ora UTC.

Video

Descrive le proprietà di base per la codifica del video di input.

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.Video

Il discriminatorio per i tipi derivati.

keyFrameInterval

string

Distanza tra due fotogrammi chiave. Il valore deve essere diverso da zero nell'intervallo [0,5, 20] secondi, specificato nel formato ISO 8601. Il valore predefinito è 2 secondi (PT2S). Si noti che questa impostazione viene ignorata se è impostato VideoSyncMode.Passthrough, in cui il valore KeyFrameInterval seguirà l'impostazione dell'origine di input.

label

string

Etichetta facoltativa per il codec. L'etichetta può essere usata per controllare il comportamento di multiplexing.

stretchMode

StretchMode

Modalità di ridimensionamento: modalità di ridimensionamento del video di input in base alle risoluzioni di output desiderate. Il valore predefinito è AutoSize

syncMode

VideoSyncMode

Modalità di sincronizzazione video

VideoAnalyzerPreset

Set di impostazioni dell'analizzatore video che estrae informazioni dettagliate (metadati avanzati) sia dall'audio che dal video e restituisce un file di formato JSON.

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.VideoAnalyzerPreset

Il discriminatorio per i tipi derivati.

audioLanguage

string

Lingua per il payload audio nell'input usando il formato BCP-47 di "language tag-region", ad esempio "en-US". Se si conosce la lingua del contenuto, è consigliabile specificarla. La lingua deve essere specificata in modo esplicito per AudioAnalysisMode::Basic, perché il rilevamento automatico della lingua non è incluso in modalità di base. Se la lingua non è specificata o impostata su Null, il rilevamento automatico della lingua sceglierà la prima lingua rilevata e utilizzerà la lingua selezionata per la durata del file. Attualmente non supporta il passaggio dinamico tra lingue dopo il rilevamento della prima lingua. Il rilevamento automatico funziona meglio con le registrazioni audio con riconoscimento vocale chiaramente riconoscibile. Se il rilevamento automatico non riesce a trovare la lingua, la trascrizione fallback in "en-US". L'elenco delle lingue supportate è disponibile qui: https://go.microsoft.com/fwlink/?linkid=2109463

experimentalOptions

object

Dizionario contenente coppie chiave-valore per i parametri non esposti nel set di impostazioni stesso

insightsToExtract

InsightsType

Definisce il tipo di informazioni dettagliate che si desidera generare il servizio. I valori consentiti sono "AudioInsightsOnly", "VideoInsightsOnly" e "AllInsights". Il valore predefinito è AllInsights. Se questa opzione viene impostata su AllInsights e l'input è solo audio, vengono generate solo informazioni dettagliate audio. Analogamente, se l'input è solo video, vengono generate solo informazioni dettagliate video. È consigliabile non usare AudioInsightsOnly se si prevede che alcuni input siano solo video; oppure usare VideoInsightsOnly se si prevede che alcuni input siano solo audio. I processi in tali condizioni generano errori.

mode

AudioAnalysisMode

Determina il set di operazioni di analisi audio da eseguire. Se non specificato, verrà scelto AudioAnalysisMode standard.

VideoOverlay

Descrive le proprietà di una sovrimpressione video.

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.VideoOverlay

Il discriminatorio per i tipi derivati.

audioGainLevel

number

Livello di guadagno dell'audio nella sovrimpressione. Il valore deve essere compreso nell'intervallo [0, 1,0]. Il valore predefinito è 1.0.

cropRectangle

Rectangle

Finestra rettangolare facoltativa usata per ritagliare l'immagine o il video di sovrapposizione.

end

string

Posizione finale, con riferimento al video di input, in corrispondenza del quale termina la sovrimpressione. Il valore deve essere in formato ISO 8601. Ad esempio, PT30S per terminare la sovrimpressione a 30 secondi nel video di input. Se non specificato o il valore è maggiore della durata del video di input, la sovrimpressione verrà applicata fino alla fine del video di input se la durata del supporto di sovrimpressione è maggiore della durata del video di input, altrimenti la sovrimpressione durerà fino alla durata del supporto di sovrimpressione.

fadeInDuration

string

Durata in cui la sovrimpressione si dissolve nel video di input. Il valore deve essere nel formato di durata ISO 8601. Se non è specificato il comportamento predefinito, non deve avere dissolvenza in (uguale a PT0S).

fadeOutDuration

string

La durata in cui la sovrimpressione si dissolve dal video di input. Il valore deve essere nel formato di durata ISO 8601. Se non è specificato il comportamento predefinito, il comportamento predefinito è senza dissolvenza (uguale a PT0S).

inputLabel

string

Etichetta dell'input del processo da usare come sovrimpressione. L'input deve specificare esattamente un file. È possibile specificare un file di immagine in formato JPG, PNG, GIF o BMP o un file audio (ad esempio un file WAV, MP3, WMA o M4A) o un file video. Vedi https://aka.ms/mesformats per l'elenco completo dei formati di file audio e video supportati.

opacity

number

Opacità della sovrimpressione. Si tratta di un valore nell'intervallo [0 - 1,0]. Il valore predefinito è 1.0, ovvero la sovrimpressione è opaca.

position

Rectangle

Posizione nel video di input in cui viene applicata la sovrimpressione.

start

string

Posizione iniziale, con riferimento al video di input, in corrispondenza del quale inizia la sovrimpressione. Il valore deve essere in formato ISO 8601. Ad esempio, PT05S per avviare la sovrimpressione a 5 secondi nel video di input. Se non è specificata, la sovrimpressione inizia dall'inizio del video di input.

VideoSyncMode

Modalità di sincronizzazione video

Nome Tipo Descrizione
Auto

string

Si tratta del metodo predefinito. Sceglie tra Cfr e Vfr a seconda delle funzionalità del muxer. Per il formato di output MP4, la modalità predefinita è Cfr.

Cfr

string

I fotogrammi di input verranno ripetuti e/o eliminati in base alle esigenze per ottenere esattamente la frequenza dei fotogrammi costante richiesta. Consigliato quando la frequenza dei fotogrammi di output viene impostata in modo esplicito in corrispondenza di un valore specificato

Passthrough

string

I timestamp della presentazione nei frame vengono passati dal file di input al writer di file di output. Consigliato quando l'origine di input ha una frequenza dei fotogrammi variabile e tenta di produrre più livelli per lo streaming adattivo nell'output con limiti GOP allineati. Nota: se due o più fotogrammi nell'input hanno timestamp duplicati, anche l'output avrà lo stesso comportamento

Vfr

string

Analogamente alla modalità Passthrough, ma se l'input ha fotogrammi con timestamp duplicati, viene passato un solo fotogramma all'output e altri vengono eliminati. Consigliato quando si prevede che il numero di fotogrammi di output sia uguale al numero di fotogrammi di input. Ad esempio, l'output viene usato per calcolare una metrica di qualità come PSNR rispetto all'input

VideoTrackDescriptor

TrackSelection per selezionare tracce video.

Nome Tipo Descrizione
@odata.type string:

#Microsoft.Media.VideoTrackDescriptor

Discriminazione per i tipi derivati.