DXVA2_VideoProcessorCaps struttura (dxva2api.h)
Descrive le funzionalità di una modalità di processore video DirectX Video Acceleration (DVXA).
Sintassi
typedef struct _DXVA2_VideoProcessorCaps {
UINT DeviceCaps;
D3DPOOL InputPool;
UINT NumForwardRefSamples;
UINT NumBackwardRefSamples;
UINT Reserved;
UINT DeinterlaceTechnology;
UINT ProcAmpControlCaps;
UINT VideoProcessorOperations;
UINT NoiseFilterTechnology;
UINT DetailFilterTechnology;
} DXVA2_VideoProcessorCaps;
Members
DeviceCaps
Identifica il tipo di dispositivo. I valori seguenti sono definiti.
InputPool
Pool di memoria Direct3D usato dal dispositivo.
NumForwardRefSamples
Numero di esempi di riferimento in avanti che il dispositivo deve eseguire la denterlacing. Per i dispositivi bob, analisi progressiva e software, il valore è zero.
NumBackwardRefSamples
Numero di esempi di riferimento indietro che il dispositivo deve eseguire la denterlacing. Per i dispositivi bob, analisi progressiva e software, il valore è zero.
Reserved
Riservato. Deve essere zero.
DeinterlaceTechnology
Identifica la tecnica di deinterlacing utilizzata dal dispositivo. Questo valore è un OR bit per bit di uno o più flag seguenti.
ProcAmpControlCaps
Specifica le operazioni del processore video (ProcAmp) disponibili. Il valore è un OR bit per bit delle costanti ProcAmp Settings .
VideoProcessorOperations
Specifica le operazioni che il dispositivo può eseguire simultaneamente con l'operazione IDirectXVideoProcessor::VideoProcessBlt . Il valore è un OR bit per bit dei flag seguenti.
Valore | Significato |
---|---|
|
Il dispositivo può convertire il video dallo spazio dei colori YUV allo spazio dei colori RGB, con almeno 8 bit di precisione per ogni componente RGB. |
|
Il dispositivo può estendersi o compattare il video orizzontalmente. Se questa funzionalità è presente, la correzione delle proporzioni può essere eseguita contemporaneamente alla denterlacing. |
|
Il dispositivo può estendersi o compattare il video verticalmente. Se questa funzionalità è presente, la correzione delle proporzioni e ridimensionamento delle immagini può essere eseguita contemporaneamente. |
|
Il dispositivo può unire il video. |
|
Il dispositivo può funzionare su un subrectangle del fotogramma video. Se questa funzionalità è presente, le immagini di origine possono essere ritagliate prima che si verifichi un'ulteriore elaborazione. |
|
Il dispositivo può accettare sottostream oltre al flusso video primario e li può comporre. |
|
Il dispositivo può eseguire regolazioni dei colori nel flusso video primario e nei sottostream, allo stesso tempo che denterla il video e composito i sottostream. Lo spazio dei colori di destinazione è definito nel membro DestFormat della struttura DXVA2_VideoProcessBltParams . Lo spazio dei colori di origine per ogni flusso viene definito nel membro SampleFormat della struttura DXVA2_VideoSample . |
|
Il dispositivo può convertire il video da YUV a spazio di colore RGB quando scrive i pixel deinterlaced e compositi nell'area di destinazione.
Una superficie di destinazione RGB può essere una superficie fuori schermo, una trama, una destinazione di rendering Direct3D o una superficie di destinazione combinata di trama/rendering. Una superficie di destinazione RGB deve usare almeno 8 bit per ogni canale di colore. |
|
Il dispositivo può eseguire un'operazione di fusione alfa con la superficie di destinazione quando scrive i pixel deinterlaced e compositi nella superficie di destinazione. |
|
Il dispositivo può ridurre il frame di output, come specificato dal membro ConstrictionSize della struttura DXVA2_VideoProcessBltParams . |
|
Il dispositivo può eseguire il filtro del rumore. |
|
Il dispositivo può eseguire il filtro dei dettagli. |
|
Il dispositivo può eseguire una fusione alfa costante per l'intero flusso video quando composito il flusso video e i sottostream. |
|
Il dispositivo può eseguire una scalabilità RGB accurata, anziché eseguirle nello spazio gamma non lineare. |
|
Il dispositivo può correggere l'immagine per compensare gli artefatti introdotti durante l'esecuzione della scalabilità nello spazio gamma non lineare. |
|
L'algoritmo di deinterlacing mantiene le linee di campo originali dall'immagine del campo interlacciato, a meno che non venga applicato anche il ridimensionamento.
Ad esempio, negli algoritmi di deinterlacing, ad esempio bob e filtro mediano, il dispositivo copia il campo originale in ogni altra riga di analisi e quindi applica un filtro per ricostruire le righe di analisi mancanti. Di conseguenza, il campo originale può essere recuperato rimuovendo le righe di analisi interpolate. Se l'immagine viene ridimensionata verticalmente, tuttavia, non è possibile recuperare le linee di campo originali. Se l'immagine viene ridimensionata orizzontalmente (ma non verticalmente), le linee di campo risultanti saranno equivalenti al ridimensionamento dell'immagine del campo originale. In altre parole, l'eliminazione delle linee di analisi interpolate restituirà lo stesso risultato dell'estensione dell'immagine originale senza dinterlacing. |
NoiseFilterTechnology
Specifica i filtri di disturbo supportati. Il valore è un OR bit per bit dei flag seguenti.
DetailFilterTechnology
Specifica i filtri di dettaglio supportati. Il valore è un OR bit per bit dei flag seguenti.
Requisiti
Client minimo supportato | Windows Vista [solo app desktop] |
Server minimo supportato | Windows Server 2008 [solo app desktop] |
Intestazione | dxva2api.h |
Vedi anche
IDirectXVideoProcessor::GetVideoProcessorCaps
IDirectXVideoProcessorService::GetVideoProcessorCaps