Episódio

ONNX Runtime

O mecanismo de inferência ONNX Runtime é capaz de executar modelos de ML em diferentes ambientes de HW, aproveitando os recursos de aceleração de rede neural. A Microsoft e a Xilinx trabalharam juntas para integrar o ONNX Runtime com as bibliotecas VitisAI SW para executar modelos ONNX nos FPGAs Xilinx U250. Estamos felizes em apresentar a versão prévia desse recurso hoje.

Pular para: 

[06:15] Demonstração por PeakSpeed para ortoretificação de imagens de satélite 

Saiba Mais:

Links favoritos do AI Show: