Partilhar via


Encontrar ou treinar os modelos para o Windows ML

O Windows ML funciona com modelos em formato ONNX, uma vez que o Windows ML é simplesmente um mecanismo de distribuição que fornece o Runtime ONNX e os fornecedores de execução específicos de hardware. Isto significa que pode usar milhões de modelos pré-treinados existentes de várias fontes, ou treinar os seus próprios modelos. Este guia explica onde encontrar, converter ou treinar modelos ONNX.

Opções Detalhes
1. Utilizar modelos do AI Toolkit Escolha entre mais de 20+ modelos OSS (incluindo LLMs e outros tipos de modelos) prontos a otimizar para uso com o Windows ML usando a ferramenta Conversion do AI Toolkit
2. Utilizar outros modelos ONNX existentes Navegue por mais de 30.000 modelos ONNX pré-treinados de Hugging Face ou outras fontes
3. Converter modelos existentes para o formato ONNX Navegue por mais de 2.400.000+ modelos pré-treinados de PyTorch / TensorFlow / etc do Hugging Face ou outras fontes e converta-os para ONNX
4. Afinar os modelos existentes Afina mais de 2.400.000+ modelos pré-treinados de PyTorch / TensorFlow / etc a partir do Hugging Face ou outras fontes para funcionar melhor para o teu cenário (e converte-os para o formato ONNX)
5. Modelos de comboios Treina os teus próprios modelos em PyTorch, TensorFlow ou outros frameworks, e converte-os para ONNX

Também pode escolher entre dezenas de modelos e APIs de IA prontos a usar no Microsoft Foundry no Windows, que funcionam via Windows ML. Veja Usar IA local com Microsoft Foundry no Windows para saber mais.

Opção 1: Usar modelos do AI Toolkit

Com a ferramenta Conversion do AI Toolkit, existem dezenas de LLMs e outros tipos de modelos prontos para otimização para uso com Windows ML. Ao obter um modelo através do AI Toolkit, obterá um modelo ONNX convertido otimizado para a variedade de hardware em que o Windows ML corre.

Para consultar os modelos disponíveis, consulte a Lista de Modelos do AI Toolkit.

Opção 2: Usar outros modelos ONNX existentes

O Hugging Face aloja milhares de modelos ONNX que pode usar com o Windows ML. Pode encontrar modelos ONNX por:

  1. Navegar pelo Hugging Face Model Hub
  2. Filtragem por "ONNX" no filtro da biblioteca

Terá de encontrar um modelo compatível com a versão ONNX Runtime incluída na versão do Windows ML que está a usar. Consulte as versões ONNX Runtime incluídas em Windows ML para saber que versão do ONNX Runtime está a usar com Windows ML.

Opção 3: Converter modelos existentes para o formato ONNX

Modelos do PyTorch, TensorFlow ou outros frameworks podem ser convertidos para o formato ONNX e usados com o Windows ML.

O Hugging Face aloja milhões de modelos que podes converter e usar com o Windows ML.

Terá de converter o modelo para correr com a versão ONNX Runtime incluída na versão de Windows ML que está a usar. Consulte as versões ONNX Runtime incluídas em Windows ML para saber que versão do ONNX Runtime está a usar com Windows ML.

Para converter um modelo para o formato ONNX, consulte a documentação específica do framework, por exemplo:

Opção 4: Afinar os modelos existentes

Muitos modelos no Hugging Face ou noutras fontes podem ser afinados (seguindo as instruções dos cartões de modelo no Hugging Face). Depois, pode converter o modelo afinado para ONNX seguindo as instruções da Opção 3 acima.

Uma forma popular de afinar os modelos é usar o comando olive finetune. Consulte a documentação do Olive para saber mais sobre o uso do Olive.

Opção 5: Modelos de comboios

Se precisares de um modelo para uma tarefa específica e não conseguires encontrar um modelo existente, podes treinar o teu próprio em PyTorch, TensorFlow ou outros frameworks.

Depois de treinar o seu modelo, siga as instruções na Opção 3 acima para converter o seu modelo para o formato ONNX.

Próximos passos

Depois de tiveres um modelo ONNX, podes executá-lo com Windows ML nos teus dispositivos-alvo.

Outras soluções

Como parte do Microsoft Foundry no Windows, pode também escolher entre dezenas de modelos e APIs de IA prontos a usar, que funcionam via Windows ML. Veja Usar IA local com Microsoft Foundry no Windows para saber mais.