Encontrar ou treinar modelos para Windows ML

O Windows ML funciona com modelos em formato ONNX, uma vez que o Windows ML é a distribuição suportada pelo Windows do ONNX Runtime e dos fornecedores de execução específicos de hardware. Isto significa que pode usar milhões de modelos pré-treinados existentes de várias fontes, ou treinar os seus próprios modelos. Este guia explica onde encontrar, converter ou treinar modelos ONNX.

Para saber mais sobre o Windows ML, veja O que é o Windows ML.

Opções Detalhes
1. Utilizar modelos do Foundry Toolkit Escolha entre mais de 20+ modelos OSS (incluindo LLMs e outros tipos de modelos) prontos a otimizar para uso com Windows ML usando a ferramenta de conversão do Foundry Toolkit
2. Utilizar outros modelos ONNX existentes Navegue por mais de 30.000 modelos ONNX pré-treinados de Hugging Face ou outras fontes
3. Converter modelos existentes para o formato ONNX Navegue por mais de 2.400.000+ modelos pré-treinados de PyTorch / TensorFlow / etc do Hugging Face ou outras fontes e converta-os para ONNX
4. Afinar os modelos existentes Afina mais de 2.400.000+ modelos pré-treinados de PyTorch / TensorFlow / etc a partir do Hugging Face ou outras fontes para funcionar melhor para o teu cenário (e converte-os para o formato ONNX)
5. Modelos de comboios Treina os teus próprios modelos em PyTorch, TensorFlow ou outros frameworks, e converte-os para ONNX

Também pode escolher entre dezenas de modelos e APIs de IA prontos a usar no Microsoft Foundry no Windows, que funcionam via Windows ML. Consulte Utilizar IA local no Microsoft Foundry no Windows para saber mais.

Opção 1: Usar modelos da Foundry Toolkit

Com a ferramenta de Conversão do Foundry Toolkit, existem dezenas de LLMs e outros tipos de modelos prontos a otimizar para uso com Windows ML. Ao obter um modelo através do Foundry Toolkit, obterá um modelo ONNX convertido otimizado para a variedade de hardware em que o Windows ML corre.

Para consultar os modelos disponíveis, consulte a Lista de Modelos do Foundry Toolkit.

Opção 2: Usar outros modelos ONNX existentes

Hugging Face aloja milhares de modelos ONNX que podes usar com Windows ML. Pode encontrar modelos ONNX por:

  1. Navegar pelo Hugging Face Model Hub
  2. Filtragem por "ONNX" no filtro da biblioteca

Terá de encontrar um modelo compatível com a versão ONNX Runtime incluída na versão de Windows ML que está a usar. Veja as versões do ONNX Runtime integradas no Windows ML para saber que versão do ONNX Runtime está a utilizar com o Windows ML.

Opção 3: Converter modelos existentes para o formato ONNX

Modelos do PyTorch, TensorFlow ou outros frameworks podem ser convertidos para o formato ONNX e usados com Windows ML.

Hugging Face aloja milhões de modelos que podes converter e usar com Windows ML.

Terás de converter o modelo para correr com a versão ONNX Runtime incluída na versão do Windows ML que estás a usar. Veja as versões do ONNX Runtime integradas no Windows ML para saber que versão do ONNX Runtime está a utilizar com o Windows ML.

Para converter um modelo para o formato ONNX, consulte a documentação específica do framework, por exemplo:

Opção 4: Afinar os modelos existentes

Muitos modelos no Hugging Face ou noutras fontes podem ser afinados (seguindo as instruções dos cartões de modelo no Hugging Face). Depois, pode converter o modelo afinado para ONNX seguindo as instruções da Opção 3 acima.

Uma forma popular de afinar os modelos é usar o comando olive finetune. Consulte a documentação do Olive para saber mais sobre o uso do Olive.

Opção 5: Modelos de comboios

Se precisares de um modelo para uma tarefa específica e não conseguires encontrar um modelo existente, podes treinar o teu próprio em PyTorch, TensorFlow ou outros frameworks.

Depois de treinar o seu modelo, siga as instruções na Opção 3 acima para converter o seu modelo para o formato ONNX.

Próximos passos

Depois de tiveres um modelo ONNX, podes executá-lo com Windows ML nos teus dispositivos-alvo.

Outras soluções

Como parte do Microsoft Foundry no Windows, pode também escolher entre dezenas de modelos e APIs de IA prontos a usar, que funcionam via Windows ML. Consulte Utilizar IA local no Microsoft Foundry no Windows para saber mais.