エピソード
Azure ML を使用してトレーニングし、ONNX Runtime を使用してあらゆる場所にデプロイする
代入 Olivier Bloch
ONNX ランタイム推論エンジンを使用して、Azure ML を使用して機械学習モデルを 1 回トレーニングし、それらをクラウド (AKS/ACI) とエッジ (Azure IoT Edge) にシームレスにデプロイできるようになりました。
IoT Show のこの新しいエピソードでは、ONNX ランタイムを紹介 します。Microsoft は ONNX モデル用の推論エンジンを構築しました。そのクロス プラットフォーム、クロス トレーニング フレームワーク、op-par、または既存の推論エンジンよりも優れたパフォーマンスです。
Azure Machine ラーニング を使用して機械学習モデルをトレーニングしてコンテナー化する方法について説明します。その後、トレーニング済みのモデルをクラウド内のコンテナー サービスにデプロイし、さまざまな HW プラットフォーム (Intel、NVIDIA、Qualcomm) にわたって IoT Edge を使用する Azure IoT Edge デバイスにデプロイします。
ONNX ランタイム推論エンジンを使用して、Azure ML を使用して機械学習モデルを 1 回トレーニングし、それらをクラウド (AKS/ACI) とエッジ (Azure IoT Edge) にシームレスにデプロイできるようになりました。
IoT Show のこの新しいエピソードでは、ONNX ランタイムを紹介 します。Microsoft は ONNX モデル用の推論エンジンを構築しました。そのクロス プラットフォーム、クロス トレーニング フレームワーク、op-par、または既存の推論エンジンよりも優れたパフォーマンスです。
Azure Machine ラーニング を使用して機械学習モデルをトレーニングしてコンテナー化する方法について説明します。その後、トレーニング済みのモデルをクラウド内のコンテナー サービスにデプロイし、さまざまな HW プラットフォーム (Intel、NVIDIA、Qualcomm) にわたって IoT Edge を使用する Azure IoT Edge デバイスにデプロイします。
ビデオの URL
HTML iframe
ご意見およびご提案がある場合は、 こちらから問題を送信してください。