Nota
O acesso a esta página requer autorização. Podes tentar iniciar sessão ou mudar de diretório.
O acesso a esta página requer autorização. Podes tentar mudar de diretório.
O Windows ML funciona com modelos em formato ONNX, uma vez que o Windows ML é simplesmente um mecanismo de distribuição que fornece o Runtime ONNX e os fornecedores de execução específicos de hardware. Isto significa que pode usar milhões de modelos pré-treinados existentes de várias fontes, ou treinar os seus próprios modelos. Este guia explica onde encontrar, converter ou treinar modelos ONNX.
| Opções | Detalhes |
|---|---|
| 1. Utilizar modelos do AI Toolkit | Escolha entre mais de 20+ modelos OSS (incluindo LLMs e outros tipos de modelos) prontos a otimizar para uso com o Windows ML usando a ferramenta Conversion do AI Toolkit |
| 2. Utilizar outros modelos ONNX existentes | Navegue por mais de 30.000 modelos ONNX pré-treinados de Hugging Face ou outras fontes |
| 3. Converter modelos existentes para o formato ONNX | Navegue por mais de 2.400.000+ modelos pré-treinados de PyTorch / TensorFlow / etc do Hugging Face ou outras fontes e converta-os para ONNX |
| 4. Afinar os modelos existentes | Afina mais de 2.400.000+ modelos pré-treinados de PyTorch / TensorFlow / etc a partir do Hugging Face ou outras fontes para funcionar melhor para o teu cenário (e converte-os para o formato ONNX) |
| 5. Modelos de comboios | Treina os teus próprios modelos em PyTorch, TensorFlow ou outros frameworks, e converte-os para ONNX |
Também pode escolher entre dezenas de modelos e APIs de IA prontos a usar no Microsoft Foundry no Windows, que funcionam via Windows ML. Veja Usar IA local com Microsoft Foundry no Windows para saber mais.
Opção 1: Usar modelos do AI Toolkit
Com a ferramenta Conversion do AI Toolkit, existem dezenas de LLMs e outros tipos de modelos prontos para otimização para uso com Windows ML. Ao obter um modelo através do AI Toolkit, obterá um modelo ONNX convertido otimizado para a variedade de hardware em que o Windows ML corre.
Para consultar os modelos disponíveis, consulte a Lista de Modelos do AI Toolkit.
Opção 2: Usar outros modelos ONNX existentes
O Hugging Face aloja milhares de modelos ONNX que pode usar com o Windows ML. Pode encontrar modelos ONNX por:
- Navegar pelo Hugging Face Model Hub
- Filtragem por "ONNX" no filtro da biblioteca
Terá de encontrar um modelo compatível com a versão ONNX Runtime incluída na versão do Windows ML que está a usar. Consulte as versões ONNX Runtime incluídas em Windows ML para saber que versão do ONNX Runtime está a usar com Windows ML.
Opção 3: Converter modelos existentes para o formato ONNX
Modelos do PyTorch, TensorFlow ou outros frameworks podem ser convertidos para o formato ONNX e usados com o Windows ML.
O Hugging Face aloja milhões de modelos que podes converter e usar com o Windows ML.
Terá de converter o modelo para correr com a versão ONNX Runtime incluída na versão de Windows ML que está a usar. Consulte as versões ONNX Runtime incluídas em Windows ML para saber que versão do ONNX Runtime está a usar com Windows ML.
Para converter um modelo para o formato ONNX, consulte a documentação específica do framework, por exemplo:
Opção 4: Afinar os modelos existentes
Muitos modelos no Hugging Face ou noutras fontes podem ser afinados (seguindo as instruções dos cartões de modelo no Hugging Face). Depois, pode converter o modelo afinado para ONNX seguindo as instruções da Opção 3 acima.
Uma forma popular de afinar os modelos é usar o comando olive finetune. Consulte a documentação do Olive para saber mais sobre o uso do Olive.
Opção 5: Modelos de comboios
Se precisares de um modelo para uma tarefa específica e não conseguires encontrar um modelo existente, podes treinar o teu próprio em PyTorch, TensorFlow ou outros frameworks.
Depois de treinar o seu modelo, siga as instruções na Opção 3 acima para converter o seu modelo para o formato ONNX.
Próximos passos
Depois de tiveres um modelo ONNX, podes executá-lo com Windows ML nos teus dispositivos-alvo.
- Inicializar fornecedores de execução - Descarregar e registar fornecedores de execução no Windows ML
- Execute modelos ONNX - Aprenda a executar inferência com Windows ML
Outras soluções
Como parte do Microsoft Foundry no Windows, pode também escolher entre dezenas de modelos e APIs de IA prontos a usar, que funcionam via Windows ML. Veja Usar IA local com Microsoft Foundry no Windows para saber mais.