Episódio
ONNX Runtime
O mecanismo de inferência ONNX Runtime é capaz de executar modelos de ML em diferentes ambientes de HW, aproveitando os recursos de aceleração de rede neural. A Microsoft e a Xilinx trabalharam juntas para integrar o ONNX Runtime com as bibliotecas VitisAI SW para executar modelos ONNX nos FPGAs Xilinx U250. Estamos felizes em apresentar a versão prévia desse recurso hoje.
Pular para:
[06:15] Demonstração por PeakSpeed para ortoretificação de imagens de satélite
Saiba Mais:
Links favoritos do AI Show:
- Não perca novos episódios, assine o AI Show
- Criar uma conta gratuita (Azure)
- Aprendizado profundo x aprendizado de máquina
- Introdução ao Machine Learning
O mecanismo de inferência ONNX Runtime é capaz de executar modelos de ML em diferentes ambientes de HW, aproveitando os recursos de aceleração de rede neural. A Microsoft e a Xilinx trabalharam juntas para integrar o ONNX Runtime com as bibliotecas VitisAI SW para executar modelos ONNX nos FPGAs Xilinx U250. Estamos felizes em apresentar a versão prévia desse recurso hoje.
Pular para:
[06:15] Demonstração por PeakSpeed para ortoretificação de imagens de satélite
Saiba Mais:
Links favoritos do AI Show:
- Não perca novos episódios, assine o AI Show
- Criar uma conta gratuita (Azure)
- Aprendizado profundo x aprendizado de máquina
- Introdução ao Machine Learning
Tem comentários? Envie um problema aqui.