訓練
學習路徑
使用 NVIDIA 和 Azure Machine Learning 開發自訂物件偵測模型 - Training
了解如何使用 NVIDIA 和 Azure Machine Learning 開發自訂物件偵測模型。
認證
Microsoft Certified: Azure AI Fundamentals - Certifications
示範與 Microsoft Azure 軟體和服務開發相關的基本 AI 概念,以建立 AI 解決方案。
將 DirectML 與 ONNX 運行時間配對通常是許多開發人員大規模為使用者帶來硬體加速 AI 的最直接方式。 這三個步驟是使用此強大組合的一般指南。
ONNX 格式可讓您利用 ONNX 執行時間與 DirectML,以提供跨硬體功能。
若要將模型轉換成 ONNX 格式,您可以使用 ONNXMLTools 或 Olive。
擁有 .onnx 模型之後,請利用 DirectML 提供的 Olive 來優化您的模型。 您會看到可跨 Windows 硬體生態系統部署的大幅效能改善。
當您的模型準備就緒時,是時候使用 ONNX Runtime 和 DirectML 將硬體加速推斷帶入您的應用程式。 針對產生 AI 模型,建議您使用 ONNX Runtime Generate() API
我們建置了一些範例來示範如何使用 DirectML 和 ONNX 運行時間:
Pytorch 的 DirectML 後端可讓您對 GPU 硬體進行高效能、低階的存取,同時為開發人員公開熟悉的 Pytorch API。 如需如何搭配 DirectML 使用 PyTorch 的詳細資訊,請參閱這裡
Web 類神經網路 API (WebNN) 是一項新興的 Web 標準,可讓 Web 應用程式和架構使用 GPU、CPU 等裝置硬體,或專用的 AI 加速器,例如 NPU 來加速深度類神經網路。 WebNN API 會利用 Windows 上的 DirectML API 來存取原生硬體功能,並將神經網路模型的執行優化。 如需 WebNN 的詳細資訊,請參閱這裡
訓練
學習路徑
使用 NVIDIA 和 Azure Machine Learning 開發自訂物件偵測模型 - Training
了解如何使用 NVIDIA 和 Azure Machine Learning 開發自訂物件偵測模型。
認證
Microsoft Certified: Azure AI Fundamentals - Certifications
示範與 Microsoft Azure 軟體和服務開發相關的基本 AI 概念,以建立 AI 解決方案。
文件
本文中的工具可用來增強 DirectML,並將其併入您的 AI 應用程式。
直接 機器學習 (DirectML) 是機器學習 (ML) 的低階 API。
在 Windows 上使用 DirectML 啟用 PyTorch
使用 Windows 在現有硬體上執行 PyTorch 推斷的指示:使用 **PyTorch with DirectML**。