エピソード

Azure ML を使用してトレーニングし、ONNX Runtime を使用してあらゆる場所にデプロイする

代入 Olivier Bloch

ONNX ランタイム推論エンジンを使用して、Azure ML を使用して機械学習モデルを 1 回トレーニングし、それらをクラウド  (AKS/ACI)  とエッジ  (Azure IoT Edge)  にシームレスにデプロイできるようになりました。 

IoT Show のこの新しいエピソードでは、ONNX ランタイムを紹介 します。Microsoft は ONNX モデル用の推論エンジンを構築しました。そのクロス プラットフォーム、クロス トレーニング フレームワーク、op-par、または既存の推論エンジンよりも優れたパフォーマンスです。
Azure Machine ラーニング を使用して機械学習モデルをトレーニングしてコンテナー化する方法について説明します。その後、トレーニング済みのモデルをクラウド内のコンテナー サービスにデプロイし、さまざまな HW プラットフォーム (Intel、NVIDIA、Qualcomm) にわたって IoT Edge を使用する Azure IoT Edge デバイスにデプロイします。

aka.ms/IoTShow/ONNXruntime