Condividi tramite


Trovare o addestrare modelli per Windows ML

Windows ML funziona con i modelli di formato ONNX, poiché Windows ML è semplicemente un meccanismo di distribuzione che fornisce i provider di esecuzione specifici di ONNX Runtime e hardware. Ciò significa che è possibile usare milioni di modelli pre-allenati esistenti da diverse origini o addestrare modelli personalizzati. Questa guida illustra dove trovare, convertire o eseguire il training di modelli ONNX.

Options Dettagli
1. Usare i modelli di AI Toolkit Scegliere tra più di 20 modelli OSS (inclusi LLMs e altri tipi di modelli) pronti per essere ottimizzati per l'uso con Windows ML utilizzando lo strumento di conversione di AI Toolkit
2. Utilizzare altri modelli ONNX esistenti Esplora più di 30.000 modelli ONNX pre-addestrati di Hugging Face o altre fonti
3. Convertire i modelli esistenti in formato ONNX Esplora oltre 2.400.000 modelli pre-addestrati PyTorch / TensorFlow / ecc. da Hugging Face o altre fonti e convertili in ONNX
4. Ottimizzare i modelli esistenti Affinare oltre 2.400.000 modelli pre-addestrati PyTorch / TensorFlow / etc da Hugging Face o altre origini per adattarli meglio al tuo scenario (e convertirli in formato ONNX)
5. Eseguire il training dei modelli Addestrare modelli personalizzati in PyTorch, TensorFlow o in altri framework e convertirli in ONNX

È anche possibile scegliere tra decine di modelli di intelligenza artificiale e API pronti per l'uso in Microsoft Foundry in Windows, che vengono eseguiti tramite Windows ML. Per altre informazioni , vedere Usare l'intelligenza artificiale locale con Microsoft Foundry in Windows .

Opzione 1: Usare i modelli di AI Toolkit

Con lo strumento di conversione di AI Toolkit, ci sono decine di LLM e altri tipi di modelli pronti per l'uso con Windows ML. Ottenendo un modello tramite AI Toolkit, si otterrà un modello ONNX convertito ottimizzato per l'ampia gamma di hardware in cui viene eseguito Windows ML.

Per esplorare i modelli disponibili, vedere Elenco dei modelli di AI Toolkit.

Opzione 2: Usare altri modelli ONNX esistenti

Hugging Face ospita migliaia di modelli ONNX che è possibile usare con Windows ML. È possibile trovare modelli ONNX in base a:

  1. Esplorazione dell'Hugging Face Model Hub
  2. Filtrare per "ONNX" nel filtro della libreria

Sarà necessario trovare un modello compatibile con la versione di ONNX Runtime inclusa nella versione di Windows ML in uso. Per scoprire quale versione di ONNX Runtime viene utilizzata con Windows ML, vedere le versioni di ONNX Runtime fornite in Windows ML.

Opzione 3: Convertire i modelli esistenti in formato ONNX

I modelli di PyTorch, TensorFlow o altri framework possono essere convertiti in formato ONNX e usati con Windows ML.

Hugging Face ospita milioni di modelli che è possibile convertire e usare con Windows ML.

Sarà necessario convertire il modello per l'esecuzione con la versione di ONNX Runtime inclusa nella versione di Windows ML in uso. Per sapere quale versione di ONNX Runtime è inclusa in Windows ML, consulta le versioni di ONNX Runtime fornite con Windows ML.

Per convertire un modello in formato ONNX, vedere la documentazione specifica del framework, ad esempio:

Opzione 4: Ottimizzare i modelli esistenti

Molti modelli su Hugging Face o altre fonti possono essere migliorati (seguendo le istruzioni sulle schede dei modelli su Hugging Face). Successivamente, è possibile convertire il modello ottimizzato in ONNX seguendo le istruzioni riportate nell'opzione 3 precedente.

Un modo popolare per ottimizzare i modelli consiste nell'usare il comando olive finetune. Per altre informazioni sull'uso di Olive, vedere la documentazione di Olive .

Opzione 5: Eseguire il training dei modelli

Se è necessario un modello per un'attività specifica e non è possibile trovare un modello esistente, è possibile eseguire il training in PyTorch, TensorFlow o in altri framework.

Dopo aver eseguito il training del modello, seguire le istruzioni riportate nell'opzione 3 precedente per convertire il modello in formato ONNX.

Passaggi successivi

Dopo aver creato un modello ONNX, è possibile eseguirlo con Windows ML nei dispositivi di destinazione.

Altre soluzioni

Come parte di Microsoft Foundry in Windows, è anche possibile scegliere tra decine di modelli e API di intelligenza artificiale pronti per l'uso, che vengono eseguiti tramite Windows ML. Per altre informazioni , vedere Usare l'intelligenza artificiale locale con Microsoft Foundry in Windows .