Episodio
Runtime ONNX
Il motore di inferenza del runtime ONNX è in grado di eseguire modelli di Machine Learning in ambienti HW diversi, sfruttando le funzionalità di accelerazione della rete neurale. Microsoft e Xilinx hanno lavorato insieme per integrare ONNX Runtime con le librerie SW VitisAI per l'esecuzione di modelli ONNX nei FPGA Xilinx U250. Siamo lieti di presentare la versione di anteprima di questa funzionalità oggi.
Passare a:
[06:15] Demo di PeakSpeed per l'ortorectification dell'imaging satellite
Altre informazioni:
Collegamenti preferiti di AI Show:
- Non perdere nuovi episodi, iscriversi allo show di intelligenza artificiale
- Creare un account gratuito (Azure)
- Deep Learning e Machine Learning
- Introduzione a Machine Learning
Il motore di inferenza del runtime ONNX è in grado di eseguire modelli di Machine Learning in ambienti HW diversi, sfruttando le funzionalità di accelerazione della rete neurale. Microsoft e Xilinx hanno lavorato insieme per integrare ONNX Runtime con le librerie SW VitisAI per l'esecuzione di modelli ONNX nei FPGA Xilinx U250. Siamo lieti di presentare la versione di anteprima di questa funzionalità oggi.
Passare a:
[06:15] Demo di PeakSpeed per l'ortorectification dell'imaging satellite
Altre informazioni:
Collegamenti preferiti di AI Show:
- Non perdere nuovi episodi, iscriversi allo show di intelligenza artificiale
- Creare un account gratuito (Azure)
- Deep Learning e Machine Learning
- Introduzione a Machine Learning
Per inviare suggerimenti, Invia un problema qui.