加载模型
重要
Windows 机器学习需要 1.2 或更高版本的 ONNX 模型。
获取经训练的 ONNX 模型后,即可将 .onnx 模型文件与应用一起分发。 可以让 .onnx 文件包含在 APPX 包中;对于桌面应用,也可以将此类文件置于硬盘驱动器上的任何位置,只要应用能够访问它们即可。
可以通过多种方式使用 LearningModel 类上的静态方法来加载模型:
- LearningModel.LoadFromStreamAsync
- LearningModel.LoadFromStream
- LearningModel.LoadFromStorageFileAsync
- LearningModel.LoadFromFilePath
使用 LoadFromStream* 方法,应用程序可以更好地控制模型的来源。 例如,应用可以选择在磁盘上对模型进行加密,并在调用 LoadFromStream* 方法之一之前仅在内存中对其进行解密。 其他选项包括从网络共享或其他介质加载模型流。
提示
加载模型可能需要一些时间,因此请注意不要从 UI 线程调用 Load* 方法。
下面的示例演示如何将模型加载到应用程序中:
private async LearningModel LoadModelAsync(string modelPath)
{
// Load and create the model
var modelFile = await StorageFile.GetFileFromApplicationUriAsync(
new Uri(modelPath));
LearningModel model =
await LearningModel.LoadFromStorageFileAsync(modelFile);
return model;
}
另请参阅
- 下一篇:创建会话
注意
使用以下资源可获取有关 Windows ML 的帮助:
- 若要提出或回答有关 Windows ML 的技术问题,请在 Stack Overflow 上使用 windows-machine-learning 标记。
- 若要报告 bug,请在 GitHub 上提交问题。