Partilhar via


Método ILearningModelDeviceFactoryNative.CreateFromD3D12CommandQueue

Cria um LearningModelDevice que executará inferência no ID3D12CommandQueue especificado pelo usuário.

HRESULT CreateFromD3D12CommandQueue(
    ID3D12CommandQueue * value,
    [out] IUnknown ** result);

Parâmetros

Nome Tipo Descrição
value ID3D12CommandQueue* O ID3D12CommandQueue no qual o LearningModelDevice será executado.
result IUnknown** O LearningModelDevice a ser criado.

Retornos

HRESULT O resultado da operação.

Exemplos

 // 1. create the d3d device.
com_ptr<ID3D12Device> pD3D12Device = nullptr;
CHECK_HRESULT(D3D12CreateDevice(
    nullptr,
    D3D_FEATURE_LEVEL::D3D_FEATURE_LEVEL_11_0,
    __uuidof(ID3D12Device),
    reinterpret_cast<void**>(&pD3D12Device)));

// 2. create the command queue.
com_ptr<ID3D12CommandQueue> dxQueue = nullptr;
D3D12_COMMAND_QUEUE_DESC commandQueueDesc = {};
commandQueueDesc.Type = D3D12_COMMAND_LIST_TYPE_DIRECT;
CHECK_HRESULT(pD3D12Device->CreateCommandQueue(
    &commandQueueDesc,
    __uuidof(ID3D12CommandQueue),
    reinterpret_cast<void**>(&dxQueue)));
com_ptr<ILearningModelDeviceFactoryNative> devicefactory =
    get_activation_factory<LearningModelDevice, ILearningModelDeviceFactoryNative>();
com_ptr<::IUnknown> spUnk;
CHECK_HRESULT(devicefactory->CreateFromD3D12CommandQueue(dxQueue.get(), spUnk.put()));

Confira também

Requisitos

Requisito
Cliente mínimo com suporte Windows 10, build 17763
Servidor mínimo com suporte Windows Server 2019 com Desktop Experience
Cabeçalho windows.ai.machinelearning.native.h

Observação

Use os recursos a seguir para obter ajuda com o Windows ML:

  • Para fazer perguntas ou responder a perguntas técnicas sobre o Windows ML, use a marca windows-machine-learning no Stack Overflow.
  • Para relatar um bug, registre um problema no nosso GitHub.