Ladda en modell

Viktigt!

Windows Machine Learning kräver ONNX-modeller, version 1.2 eller senare.

När du har fått en tränad ONNX-modell distribuerar du .onnx-modellfilerna med din app. Du kan inkludera .onnx-filen eller -filerna i ditt APPX-paket, eller för skrivbordsappar kan de finnas var som helst där din app kan komma åt på hårddisken.

Det finns flera sätt att läsa in en modell med statiska metoder i klassen LearningModel :

Med Metoderna LoadFromStream* kan program ha mer kontroll över var modellen kommer ifrån. En app kan till exempel välja att ha modellen krypterad på disken och dekryptera den endast i minnet innan den anropar någon av LoadFromStream*-metoderna. Andra alternativ är att läsa in modellströmmen från en nätverksresurs eller andra medier.

Tips/Råd

Det kan ta lite tid att läsa in en modell, så var noga med att inte anropa en Load*-metod från användargränssnittstråden.

I följande exempel visas hur du kan läsa in en modell i ditt program:

private async LearningModel LoadModelAsync(string modelPath)
{
    // Load and create the model
    var modelFile = await StorageFile.GetFileFromApplicationUriAsync(
        new Uri(modelPath));

    LearningModel model =
        await LearningModel.LoadFromStorageFileAsync(modelFile);

    return model;
}

Se även

Anmärkning

Använd följande resurser för hjälp med Windows ML:

  • Om du vill ställa eller besvara tekniska frågor om Windows ML använder du taggen windows-machine-learningStack Overflow.
  • Om du vill rapportera en bugg, skicka in en felrapport på vår GitHub-sida .