Nota
O acesso a esta página requer autorização. Pode tentar iniciar sessão ou alterar os diretórios.
O acesso a esta página requer autorização. Pode tentar alterar os diretórios.
O Windows ML funciona com modelos em formato ONNX, uma vez que o Windows ML é a distribuição suportada pelo Windows do ONNX Runtime e dos fornecedores de execução específicos de hardware. Isto significa que pode usar milhões de modelos pré-treinados existentes de várias fontes, ou treinar os seus próprios modelos. Este guia explica onde encontrar, converter ou treinar modelos ONNX.
Para saber mais sobre o Windows ML, veja O que é o Windows ML.
| Opções | Detalhes |
|---|---|
| 1. Utilizar modelos do Foundry Toolkit | Escolha entre mais de 20+ modelos OSS (incluindo LLMs e outros tipos de modelos) prontos a otimizar para uso com Windows ML usando a ferramenta de conversão do Foundry Toolkit |
| 2. Utilizar outros modelos ONNX existentes | Navegue por mais de 30.000 modelos ONNX pré-treinados de Hugging Face ou outras fontes |
| 3. Converter modelos existentes para o formato ONNX | Navegue por mais de 2.400.000+ modelos pré-treinados de PyTorch / TensorFlow / etc do Hugging Face ou outras fontes e converta-os para ONNX |
| 4. Afinar os modelos existentes | Afina mais de 2.400.000+ modelos pré-treinados de PyTorch / TensorFlow / etc a partir do Hugging Face ou outras fontes para funcionar melhor para o teu cenário (e converte-os para o formato ONNX) |
| 5. Modelos de comboios | Treina os teus próprios modelos em PyTorch, TensorFlow ou outros frameworks, e converte-os para ONNX |
Também pode escolher entre dezenas de modelos e APIs de IA prontos a usar no Microsoft Foundry no Windows, que funcionam via Windows ML. Consulte Utilizar IA local no Microsoft Foundry no Windows para saber mais.
Opção 1: Usar modelos da Foundry Toolkit
Com a ferramenta de Conversão do Foundry Toolkit, existem dezenas de LLMs e outros tipos de modelos prontos a otimizar para uso com Windows ML. Ao obter um modelo através do Foundry Toolkit, obterá um modelo ONNX convertido otimizado para a variedade de hardware em que o Windows ML corre.
Para consultar os modelos disponíveis, consulte a Lista de Modelos do Foundry Toolkit.
Opção 2: Usar outros modelos ONNX existentes
Hugging Face aloja milhares de modelos ONNX que podes usar com Windows ML. Pode encontrar modelos ONNX por:
- Navegar pelo Hugging Face Model Hub
- Filtragem por "ONNX" no filtro da biblioteca
Terá de encontrar um modelo compatível com a versão ONNX Runtime incluída na versão de Windows ML que está a usar. Veja as versões do ONNX Runtime integradas no Windows ML para saber que versão do ONNX Runtime está a utilizar com o Windows ML.
Opção 3: Converter modelos existentes para o formato ONNX
Modelos do PyTorch, TensorFlow ou outros frameworks podem ser convertidos para o formato ONNX e usados com Windows ML.
Hugging Face aloja milhões de modelos que podes converter e usar com Windows ML.
Terás de converter o modelo para correr com a versão ONNX Runtime incluída na versão do Windows ML que estás a usar. Veja as versões do ONNX Runtime integradas no Windows ML para saber que versão do ONNX Runtime está a utilizar com o Windows ML.
Para converter um modelo para o formato ONNX, consulte a documentação específica do framework, por exemplo:
Opção 4: Afinar os modelos existentes
Muitos modelos no Hugging Face ou noutras fontes podem ser afinados (seguindo as instruções dos cartões de modelo no Hugging Face). Depois, pode converter o modelo afinado para ONNX seguindo as instruções da Opção 3 acima.
Uma forma popular de afinar os modelos é usar o comando olive finetune. Consulte a documentação do Olive para saber mais sobre o uso do Olive.
Opção 5: Modelos de comboios
Se precisares de um modelo para uma tarefa específica e não conseguires encontrar um modelo existente, podes treinar o teu próprio em PyTorch, TensorFlow ou outros frameworks.
Depois de treinar o seu modelo, siga as instruções na Opção 3 acima para converter o seu modelo para o formato ONNX.
Próximos passos
Depois de tiveres um modelo ONNX, podes executá-lo com Windows ML nos teus dispositivos-alvo.
- Instalar EPs do Windows ML - Descarregar e instalar fornecedores de execução no Windows ML
- Executar modelos ONNX - Aprenda a executar inferência com Windows ML
Outras soluções
Como parte do Microsoft Foundry no Windows, pode também escolher entre dezenas de modelos e APIs de IA prontos a usar, que funcionam via Windows ML. Consulte Utilizar IA local no Microsoft Foundry no Windows para saber mais.