Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Windows ML funziona con i modelli di formato ONNX, poiché Windows ML è semplicemente un meccanismo di distribuzione che fornisce i provider di esecuzione specifici di ONNX Runtime e hardware. Ciò significa che è possibile usare milioni di modelli pre-allenati esistenti da diverse origini o addestrare modelli personalizzati. Questa guida illustra dove trovare, convertire o eseguire il training di modelli ONNX.
| Options | Dettagli |
|---|---|
| 1. Usare i modelli di AI Toolkit | Scegliere tra più di 20 modelli OSS (inclusi LLMs e altri tipi di modelli) pronti per essere ottimizzati per l'uso con Windows ML utilizzando lo strumento di conversione di AI Toolkit |
| 2. Utilizzare altri modelli ONNX esistenti | Esplora più di 30.000 modelli ONNX pre-addestrati di Hugging Face o altre fonti |
| 3. Convertire i modelli esistenti in formato ONNX | Esplora oltre 2.400.000 modelli pre-addestrati PyTorch / TensorFlow / ecc. da Hugging Face o altre fonti e convertili in ONNX |
| 4. Ottimizzare i modelli esistenti | Affinare oltre 2.400.000 modelli pre-addestrati PyTorch / TensorFlow / etc da Hugging Face o altre origini per adattarli meglio al tuo scenario (e convertirli in formato ONNX) |
| 5. Eseguire il training dei modelli | Addestrare modelli personalizzati in PyTorch, TensorFlow o in altri framework e convertirli in ONNX |
È anche possibile scegliere tra decine di modelli di intelligenza artificiale e API pronti per l'uso in Microsoft Foundry in Windows, che vengono eseguiti tramite Windows ML. Per altre informazioni , vedere Usare l'intelligenza artificiale locale con Microsoft Foundry in Windows .
Opzione 1: Usare i modelli di AI Toolkit
Con lo strumento di conversione di AI Toolkit, ci sono decine di LLM e altri tipi di modelli pronti per l'uso con Windows ML. Ottenendo un modello tramite AI Toolkit, si otterrà un modello ONNX convertito ottimizzato per l'ampia gamma di hardware in cui viene eseguito Windows ML.
Per esplorare i modelli disponibili, vedere Elenco dei modelli di AI Toolkit.
Opzione 2: Usare altri modelli ONNX esistenti
Hugging Face ospita migliaia di modelli ONNX che è possibile usare con Windows ML. È possibile trovare modelli ONNX in base a:
- Esplorazione dell'Hugging Face Model Hub
- Filtrare per "ONNX" nel filtro della libreria
Sarà necessario trovare un modello compatibile con la versione di ONNX Runtime inclusa nella versione di Windows ML in uso. Per scoprire quale versione di ONNX Runtime viene utilizzata con Windows ML, vedere le versioni di ONNX Runtime fornite in Windows ML.
Opzione 3: Convertire i modelli esistenti in formato ONNX
I modelli di PyTorch, TensorFlow o altri framework possono essere convertiti in formato ONNX e usati con Windows ML.
Hugging Face ospita milioni di modelli che è possibile convertire e usare con Windows ML.
Sarà necessario convertire il modello per l'esecuzione con la versione di ONNX Runtime inclusa nella versione di Windows ML in uso. Per sapere quale versione di ONNX Runtime è inclusa in Windows ML, consulta le versioni di ONNX Runtime fornite con Windows ML.
Per convertire un modello in formato ONNX, vedere la documentazione specifica del framework, ad esempio:
- Esercitazione sulla conversione di modelli PyTorch
- Esercitazione sulla conversione di modelli TensorFlow
Opzione 4: Ottimizzare i modelli esistenti
Molti modelli su Hugging Face o altre fonti possono essere migliorati (seguendo le istruzioni sulle schede dei modelli su Hugging Face). Successivamente, è possibile convertire il modello ottimizzato in ONNX seguendo le istruzioni riportate nell'opzione 3 precedente.
Un modo popolare per ottimizzare i modelli consiste nell'usare il comando olive finetune. Per altre informazioni sull'uso di Olive, vedere la documentazione di Olive .
Opzione 5: Eseguire il training dei modelli
Se è necessario un modello per un'attività specifica e non è possibile trovare un modello esistente, è possibile eseguire il training in PyTorch, TensorFlow o in altri framework.
Dopo aver eseguito il training del modello, seguire le istruzioni riportate nell'opzione 3 precedente per convertire il modello in formato ONNX.
Passaggi successivi
Dopo aver creato un modello ONNX, è possibile eseguirlo con Windows ML nei dispositivi di destinazione.
- Inizializzare i provider di esecuzione - Scaricare e registrare i provider di esecuzione in Windows ML
- Eseguire modelli ONNX - Informazioni su come eseguire l'inferenza con Windows ML
Altre soluzioni
Come parte di Microsoft Foundry in Windows, è anche possibile scegliere tra decine di modelli e API di intelligenza artificiale pronti per l'uso, che vengono eseguiti tramite Windows ML. Per altre informazioni , vedere Usare l'intelligenza artificiale locale con Microsoft Foundry in Windows .