Condividi tramite


Caricare un modello

Importante

Windows Machine Learning richiede modelli ONNX versione 1.2 o successiva.

Dopo aver eseguito il training di un modello ONNX, si distribuiranno i file del modello ONNX con l'app. Puoi includere i file .onnx nel pacchetto APPX oppure, per le app desktop, possono essere ovunque l'app possa accedere sul disco rigido.

Esistono diversi modi per caricare un modello usando metodi statici nella classe LearningModel :

I metodi LoadFromStream* consentono alle applicazioni di avere un maggiore controllo sulla provenienza del modello. Ad esempio, un'app potrebbe scegliere di crittografare il modello su disco e decrittografarlo solo in memoria prima di chiamare uno dei metodi LoadFromStream*. Altre opzioni includono il caricamento del flusso del modello da una condivisione di rete o da altri supporti.

Suggerimento

Il caricamento di un modello può richiedere del tempo, quindi prestare attenzione a non chiamare un metodo Load* dal thread dell'interfaccia utente.

L'esempio seguente illustra come caricare un modello nell'applicazione:

private async LearningModel LoadModelAsync(string modelPath)
{
    // Load and create the model
    var modelFile = await StorageFile.GetFileFromApplicationUriAsync(
        new Uri(modelPath));

    LearningModel model =
        await LearningModel.LoadFromStorageFileAsync(modelFile);

    return model;
}

Vedere anche

Annotazioni

Usare le risorse seguenti per assistenza con Windows ML:

  • Per porre o rispondere a domande tecniche su Windows ML, usare il tag windows-machine learning in Stack Overflow.
  • Per segnalare un bug, apri un ticket nel GitHub.