Episodio

Runtime ONNX

Il motore di inferenza del runtime ONNX è in grado di eseguire modelli di Machine Learning in ambienti HW diversi, sfruttando le funzionalità di accelerazione della rete neurale. Microsoft e Xilinx hanno lavorato insieme per integrare ONNX Runtime con le librerie SW VitisAI per l'esecuzione di modelli ONNX nei FPGA Xilinx U250. Siamo lieti di presentare la versione di anteprima di questa funzionalità oggi.

Passare a: 

[06:15] Demo di PeakSpeed per l'ortorectification dell'imaging satellite 

Altre informazioni:

Collegamenti preferiti di AI Show: