加载模型

重要

Windows 机器学习需要 1.2 或更高版本的 ONNX 模型。

获取经训练的 ONNX 模型后,即可将 .onnx 模型文件与应用一起分发。 可以让 .onnx 文件包含在 APPX 包中;对于桌面应用,也可以将此类文件置于硬盘驱动器上的任何位置,只要应用能够访问它们即可。

可以通过多种方式使用 LearningModel 类上的静态方法来加载模型:

使用 LoadFromStream* 方法,应用程序可以更好地控制模型的来源。 例如,应用可以选择在磁盘上对模型进行加密,并在调用 LoadFromStream* 方法之一之前仅在内存中对其进行解密。 其他选项包括从网络共享或其他介质加载模型流。

提示

加载模型可能需要一些时间,因此请注意不要从 UI 线程调用 Load* 方法。

下面的示例演示如何将模型加载到应用程序中:

private async LearningModel LoadModelAsync(string modelPath)
{
    // Load and create the model
    var modelFile = await StorageFile.GetFileFromApplicationUriAsync(
        new Uri(modelPath));

    LearningModel model =
        await LearningModel.LoadFromStorageFileAsync(modelFile);

    return model;
}

另请参阅

注意

使用以下资源可获取有关 Windows ML 的帮助:

  • 若要提出或回答有关 Windows ML 的技术问题,请在 Stack Overflow 上使用 windows-machine-learning 标记。
  • 若要报告 bug,请在 GitHub 上提交问题。