劇集
使用 Azure ML 定型,並使用 ONNX Runtime 隨處部署
取代為 Olivier Bloch
您現在可以使用 Azure ML 定型機器學習模型一次,並透過 ONNX 運行時間推斷引擎順暢地將其部署在 Cloud (AKS/ACI) 和邊緣 上。
在此新一集的IoT Show中,我們引進 了ONNX運行時間,Microsoft針對ONNX模型建置了推斷引擎 -- 其跨平臺、跨訓練架構和作業剖析或比現有推斷引擎更好的效能。
我們將示範如何使用 Azure 來定型和容器化機器學習模型 機器學習 然後將定型的模型部署到雲端中的容器服務,以及跨不同 HW 平臺使用 IoT Edge 的 Azure IoT Edge 裝置 – Intel、NVIDIA 和 Qualcomm。
您現在可以使用 Azure ML 定型機器學習模型一次,並透過 ONNX 運行時間推斷引擎順暢地將其部署在 Cloud (AKS/ACI) 和邊緣 上。
在此新一集的IoT Show中,我們引進 了ONNX運行時間,Microsoft針對ONNX模型建置了推斷引擎 -- 其跨平臺、跨訓練架構和作業剖析或比現有推斷引擎更好的效能。
我們將示範如何使用 Azure 來定型和容器化機器學習模型 機器學習 然後將定型的模型部署到雲端中的容器服務,以及跨不同 HW 平臺使用 IoT Edge 的 Azure IoT Edge 裝置 – Intel、NVIDIA 和 Qualcomm。
影片 URL
HTML iframe
有任何意見嗎? 請在此提交問題。