Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Windows ML funktioniert mit ONNX-Formatmodellen, da Windows ML einfach ein Verteilungsmechanismus ist, der die ONNX-Runtime und hardwarespezifischen Ausführungsanbieter bereitstellt. Dies bedeutet, dass Sie Millionen von bereits trainierten Modellen aus verschiedenen Quellen verwenden oder Eigene Modelle trainieren können. In diesem Leitfaden wird erläutert, wo Sie ONNX-Modelle finden, konvertieren oder trainieren können.
| Options | Einzelheiten |
|---|---|
| 1. Verwenden von Modellen aus dem AI Toolkit | Wählen Sie aus mehr als 20 OSS-Modellen (einschließlich LLMs und anderen Modelltypen), die für die Optimierung zur Verwendung mit Windows ML mit dem Konvertierungstool des AI Toolkits bereit sind. |
| 2. Verwenden anderer vorhandener ONNX-Modelle | Durchsuchen Sie über 30.000+ vortrainierte ONNX-Modelle von Hugging Face oder anderen Quellen |
| 3. Konvertieren vorhandener Modelle in das ONNX-Format | Durchsuchen Sie mehr als 2.400.000 + vortrainierte PyTorch / TensorFlow / etc Modelle von Hugging Face oder anderen Quellen und konvertieren Sie sie in ONNX |
| 4. Optimieren vorhandener Modelle | Feinabstimmung über 2.400.000+ vortrainierte PyTorch / TensorFlow / etc Modelle von Hugging Face oder anderen Quellen, um für Ihr Szenario besser zu arbeiten (und sie in das ONNX-Format zu konvertieren) |
| 5. Zugmodelle | Schulen Sie Ihre eigenen Modelle in PyTorch, TensorFlow oder anderen Frameworks, und konvertieren Sie sie in ONNX |
Sie können auch aus Dutzenden einsatzbereiter KI-Modelle und APIs in Microsoft Foundry unter Windows wählen, die über Windows ML ausgeführt werden. Weitere Informationen finden Sie unter Verwenden lokaler KI mit Microsoft Foundry unter Windows .
Option 1: Verwenden von Modellen aus dem AI Toolkit
Mit dem Konvertierungstool des AI Toolkits gibt es Dutzende von LLMs und anderen Typen von Modellen, die für die Optimierung zur Verwendung mit Windows ML bereitstehen. Durch das Abrufen eines Modells über das AI Toolkit erhalten Sie ein konvertiertes ONNX-Modell, das für die Vielzahl von Hardware optimiert ist, auf der Windows ML ausgeführt wird.
Informationen zum Durchsuchen der verfügbaren Modelle finden Sie in der Modellliste des AI Toolkits.
Option 2: Verwenden anderer vorhandener ONNX-Modelle
Hugging Face hostet Tausende von ONNX-Modellen, die Sie mit Windows ML verwenden können. OnNX-Modelle finden Sie unter:
- Das Hugging Face Model Hub durchsuchen
- Filtern nach "ONNX" im Bibliotheksfilter
Sie müssen ein Modell finden, das mit der ONNX-Runtime-Version kompatibel ist, die in der verwendeten Windows ML-Version enthalten ist. Siehe ONNX-Runtime-Versionen, die in Windows ML ausgeliefert wurden, um herauszufinden, welche Version von ONNX-Runtime Sie mit Windows ML verwenden.
Option 3: Konvertieren vorhandener Modelle in das ONNX-Format
Modelle von PyTorch, TensorFlow oder anderen Frameworks können in das ONNX-Format konvertiert und mit Windows ML verwendet werden.
Hugging Face hostet Millionen von Modellen, die Sie mit Windows ML verwenden und konvertieren können.
Sie müssen das Modell konvertieren, um es mit der ONNX-Runtime-Version auszuführen, die in der von Ihnen verwendeten Version von Windows ML enthalten ist. Siehe ONNX-Runtime-Versionen, die in Windows ML ausgeliefert wurden, um herauszufinden, welche Version von ONNX-Runtime Sie mit Windows ML verwenden.
Informationen zum Konvertieren eines Modells in das ONNX-Format finden Sie in der frameworkspezifischen Dokumentation, z. B.:
- Lernprogramm zum Konvertieren von PyTorch-Modellen
- Lernprogramm zum Konvertieren von TensorFlow-Modellen
Option 4: Optimieren vorhandener Modelle
Viele Modelle auf Hugging Face oder aus anderen Quellen können anhand der Anweisungen auf den Modellkarten bei Hugging Face feinabgestimmt werden. Anschließend können Sie das fein abgestimmte Modell nach den Anweisungen in Option 3 oben in ONNX konvertieren.
Eine beliebte Möglichkeit zum Optimieren von Modellen ist die Verwendung des Oliv-Finetune-Befehls. Weitere Informationen zur Verwendung von Olive finden Sie in der Olive-Dokumentation .
Option 5: Zugmodelle
Wenn Sie ein Modell für eine bestimmte Aufgabe benötigen und kein vorhandenes Modell finden können, können Sie Eigenes in PyTorch, TensorFlow oder anderen Frameworks trainieren.
Nachdem Sie Ihr Modell trainiert haben, folgen Sie den Anweisungen in Option 3 oben, um Ihr Modell in das ONNX-Format zu konvertieren.
Nächste Schritte
Sobald Sie über ein ONNX-Modell verfügen, können Sie es mit Windows ML auf Ihren Zielgeräten ausführen.
- Initialisieren von Ausführungsanbietern – Herunterladen und Registrieren von Ausführungsanbietern in Windows ML
- Ausführen von ONNX-Modellen – Erfahren Sie, wie Sie die Ableitung mit Windows ML ausführen.
Andere Lösungen
Als Teil von Microsoft Foundry unter Windows können Sie auch aus Dutzenden von einsatzbereiten AI-Modellen und APIs wählen, die über Windows ML ausgeführt werden. Weitere Informationen finden Sie unter Verwenden lokaler KI mit Microsoft Foundry unter Windows .