使用英语阅读

剧集

ONNX 运行时

ONNX 运行时推理引擎能够在不同的 HW 环境中执行 ML 模型,并利用神经网络加速功能。 Microsoft 和 Xilinx 协同工作,将 ONNX 运行时与 VitisAI SW 库集成,以便在 Xilinx U250 FPGA 中执行 ONNX 模型。 我们很高兴今天推出此功能的预览版。

跳转到: 

[06:15] 用于卫星成像正科的 PeakSpeed 演示 

了解详细信息:

AI Show 的收藏夹链接: