Partilhar via


Carregar um modelo

Importante

O Windows Machine Learning requer modelos ONNX, versão 1.2 ou superior.

Depois de obter um modelo ONNX treinado, você distribuirá os arquivos do modelo .onnx com seu aplicativo. Você pode incluir os arquivos .onnx em seu pacote APPX ou, para aplicativos da área de trabalho, eles podem estar em qualquer lugar que seu aplicativo consiga acessar no disco rígido.

Há várias maneiras de carregar um modelo usando métodos estáticos na classe LearningModel:

Os métodos LoadFromStream* permitem que os aplicativos tenham mais controle sobre a origem do modelo. Por exemplo, um aplicativo pode optar por ter o modelo criptografado em disco e descriptografá-lo somente na memória antes de chamar um dos métodos LoadFromStream*. Outras opções incluem carregar o fluxo de modelo de um compartilhamento de rede ou outra mídia.

Dica

Carregar um modelo pode levar algum tempo. Portanto, tome cuidado para não chamar um método Load* do seu thread da interface do usuário.

O exemplo a seguir mostra como você pode carregar um modelo em seu aplicativo:

private async LearningModel LoadModelAsync(string modelPath)
{
    // Load and create the model
    var modelFile = await StorageFile.GetFileFromApplicationUriAsync(
        new Uri(modelPath));

    LearningModel model =
        await LearningModel.LoadFromStorageFileAsync(modelFile);

    return model;
}

Confira também

Observação

Use os recursos a seguir para obter ajuda com o Windows ML:

  • Para fazer perguntas ou responder a perguntas técnicas sobre o Windows ML, use a marca windows-machine-learning no Stack Overflow.
  • Para relatar um bug, registre um problema no nosso GitHub.