Dela via


Hitta eller träna modeller för Windows ML

Windows ML fungerar med ONNX-formatmodeller, eftersom Windows ML helt enkelt är en distributionsmekanism som tillhandahåller ONNX Runtime och maskinvaruspecifika utförandeleverantörer. Det innebär att du kan använda miljontals befintliga förtränade modeller från olika källor eller träna dina egna modeller. Den här guiden beskriver var du hittar, konverterar eller tränar ONNX-modeller.

Options Detaljer
1. Använda modeller från AI Toolkit Välj mellan över 20+ OSS-modeller (inklusive LLM:er och andra typer av modeller) som är redo att optimeras för användning med Windows ML med hjälp av AI Toolkits konverteringsverktyg
2. Använd andra befintliga ONNX-modeller Bläddra bland över 30 000+ förtränade ONNX-modeller från Hugging Face eller andra källor
3. Konvertera befintliga modeller till ONNX-format Bläddra bland över 2 400 000+ förtränade PyTorch/TensorFlow/etc-modeller från Hugging Face eller andra källor och konvertera dem till ONNX
4. Finjustera befintliga modeller Finjustera över 2 400 000+ förtränade PyTorch/TensorFlow/etc-modeller från Hugging Face eller andra källor för att fungera bättre för ditt scenario (och konvertera dem till ONNX-format)
5. Träna modeller Träna dina egna modeller i PyTorch, TensorFlow eller andra ramverk och konvertera dem till ONNX

Du kan också välja bland dussintals färdiga AI-modeller och API:er i Microsoft Foundry i Windows, som körs via Windows ML. Mer information finns i Använda lokal AI med Microsoft Foundry i Windows .

Alternativ 1: Använda modeller från AI Toolkit

Med AI Toolkits konverteringsverktyg finns det dussintals LLM:er och andra typer av modeller som är redo att optimeras för användning med Windows ML. Genom att hämta en modell via AI Toolkit får du en konverterad ONNX-modell som är optimerad för den mängd maskinvara som Windows ML körs på.

Information om hur du bläddrar bland tillgängliga modeller finns i AI Toolkits modelllista.

Alternativ 2: Använd andra befintliga ONNX-modeller

Hugging Face är värd för tusentals ONNX-modeller som du kan använda med Windows ML. Du hittar ONNX-modeller genom att:

  1. Bläddra i Hugging Face Model Hub
  2. Filtrera efter "ONNX" i biblioteksfiltret

Du måste hitta en modell som är kompatibel med ONNX Runtime-versionen som ingår i den version av Windows ML som du använder. Se ONNX Runtime-versioner som levereras i Windows ML för att ta reda på vilken version av ONNX Runtime du använder med Windows ML.

Alternativ 3: Konvertera befintliga modeller till ONNX-format

Modeller från PyTorch, TensorFlow eller andra ramverk kan konverteras till ONNX-format och användas med Windows ML.

Hugging Face är värd för miljontals modeller som du kan konvertera och använda med Windows ML.

Du måste konvertera modellen så att den körs med den ONNX Runtime-version som ingår i den version av Windows ML som du använder. Se ONNX Runtime-versioner som levereras i Windows ML för att ta reda på vilken version av ONNX Runtime du använder med Windows ML.

Information om hur du konverterar en modell till ONNX-format finns i ramverksspecifik dokumentation, till exempel:

Alternativ 4: Finjustera befintliga modeller

Många modeller på Hugging Face eller andra källor kan finjusteras (följ instruktionerna på modellkorten på Hugging Face). Därefter kan du konvertera den finjusterade modellen till ONNX enligt anvisningarna i alternativ 3 ovan.

Ett populärt sätt att finjustera modeller är att använda kommandot olive finetune. Mer information om hur du använder Olive finns i Olive-dokumentationen .

Alternativ 5: Träna modeller

Om du behöver en modell för en specifik uppgift och inte kan hitta en befintlig modell kan du träna din egen i PyTorch, TensorFlow eller andra ramverk.

När du har tränat din modell följer du anvisningarna i alternativ 3 ovan för att konvertera din modell till ONNX-format.

Nästa steg

När du har en ONNX-modell kan du köra den med Windows ML på dina målenheter.

Andra lösningar

Som en del av Microsoft Foundry i Windows kan du också välja bland dussintals färdiga AI-modeller och API:er som körs via Windows ML. Mer information finns i Använda lokal AI med Microsoft Foundry i Windows .