Share via


Metodo IDXGIDevice1::SetMaximumFrameLatency (dxgi.h)

Imposta il numero di fotogrammi che il sistema può accodare per il rendering.

Sintassi

HRESULT SetMaximumFrameLatency(
  UINT MaxLatency
);

Parametri

MaxLatency

Tipo: UINT

Numero massimo di frame del buffer nascosto che un driver può accodare. Il valore predefinito è 3, ma può essere compreso tra 1 e 16. Il valore 0 reimposta la latenza sul valore predefinito. Per i dispositivi a più teste, questo valore viene specificato per ogni intestazione.

Valore restituito

Tipo: HRESULT

Restituisce S_OK in caso di esito positivo; in caso contrario, DXGI_ERROR_DEVICE_REMOVED se il dispositivo è stato rimosso.

Commenti

Questo metodo non è supportato da DXGI 1.0, fornito in Windows Vista e Windows Server 2008. È necessario il supporto DXGI 1.1, disponibile in Windows 7, Windows Server 2008 R2 e come aggiornamento a Windows Vista con Service Pack 2 (SP2) (KB 971644) e Windows Server 2008 (KB 971512).

La latenza dei fotogrammi è il numero di fotogrammi che possono essere archiviati in una coda prima dell'invio per il rendering. La latenza viene spesso usata per controllare il modo in cui la CPU sceglie tra rispondere all'input dell'utente e ai fotogrammi presenti nella coda di rendering. Spesso è utile per le applicazioni che non hanno input utente (ad esempio, la riproduzione video) per accodare più di 3 fotogrammi di dati.

Requisiti

Requisito Valore
Client minimo supportato Windows 7 [app desktop | App UWP]
Server minimo supportato Windows Server 2008 R2 [app desktop | App UWP]
Piattaforma di destinazione Windows
Intestazione dxgi.h
Libreria DXGI.lib

Vedi anche

Interfacce DXGI

IDXGIDevice1

IDXGIDevice1::GetMaximumFrameLatency