共用方式為


開始使用 DirectML

將 DirectML 與 ONNX 運行時間配對通常是許多開發人員大規模為使用者帶來硬體加速 AI 的最直接方式。 這三個步驟是使用此強大組合的一般指南。

1. 轉換

ONNX 格式可讓您利用 ONNX 執行時間與 DirectML,以提供跨硬體功能。

若要將模型轉換成 ONNX 格式,您可以使用 ONNXMLToolsOlive

2. 優化

擁有 .onnx 模型之後,請利用 DirectML 提供的 Olive 來優化您的模型。 您會看到可跨 Windows 硬體生態系統部署的大幅效能改善。

3. 整合

當您的模型準備就緒時,是時候使用 ONNX Runtime 和 DirectML 將硬體加速推斷帶入您的應用程式。 針對產生 AI 模型,建議您使用 ONNX Runtime Generate() API

我們建置了一些範例來示範如何使用 DirectML 和 ONNX 運行時間:

DirectML 和 PyTorch

Pytorch 的 DirectML 後端可讓您對 GPU 硬體進行高效能、低階的存取,同時為開發人員公開熟悉的 Pytorch API。 如需如何搭配 DirectML 使用 PyTorch 的詳細資訊,請參閱這裡

適用於 Web 應用程式的 DirectML (預覽)

Web 類神經網路 API (WebNN) 是一項新興的 Web 標準,可讓 Web 應用程式和架構使用 GPU、CPU 等裝置硬體,或專用的 AI 加速器,例如 NPU 來加速深度類神經網路。 WebNN API 會利用 Windows 上的 DirectML API 來存取原生硬體功能,並將神經網路模型的執行優化。 如需 WebNN 的詳細資訊,請參閱這裡