Freigeben über


Suchen oder Trainieren von Modellen für Windows ML

Windows ML funktioniert mit ONNX-Formatmodellen, da Windows ML einfach ein Verteilungsmechanismus ist, der die ONNX-Runtime und hardwarespezifischen Ausführungsanbieter bereitstellt. Dies bedeutet, dass Sie Millionen von bereits trainierten Modellen aus verschiedenen Quellen verwenden oder Eigene Modelle trainieren können. In diesem Leitfaden wird erläutert, wo Sie ONNX-Modelle finden, konvertieren oder trainieren können.

Options Einzelheiten
1. Verwenden von Modellen aus dem AI Toolkit Wählen Sie aus mehr als 20 OSS-Modellen (einschließlich LLMs und anderen Modelltypen), die für die Optimierung zur Verwendung mit Windows ML mit dem Konvertierungstool des AI Toolkits bereit sind.
2. Verwenden anderer vorhandener ONNX-Modelle Durchsuchen Sie über 30.000+ vortrainierte ONNX-Modelle von Hugging Face oder anderen Quellen
3. Konvertieren vorhandener Modelle in das ONNX-Format Durchsuchen Sie mehr als 2.400.000 + vortrainierte PyTorch / TensorFlow / etc Modelle von Hugging Face oder anderen Quellen und konvertieren Sie sie in ONNX
4. Optimieren vorhandener Modelle Feinabstimmung über 2.400.000+ vortrainierte PyTorch / TensorFlow / etc Modelle von Hugging Face oder anderen Quellen, um für Ihr Szenario besser zu arbeiten (und sie in das ONNX-Format zu konvertieren)
5. Zugmodelle Schulen Sie Ihre eigenen Modelle in PyTorch, TensorFlow oder anderen Frameworks, und konvertieren Sie sie in ONNX

Sie können auch aus Dutzenden einsatzbereiter KI-Modelle und APIs in Microsoft Foundry unter Windows wählen, die über Windows ML ausgeführt werden. Weitere Informationen finden Sie unter Verwenden lokaler KI mit Microsoft Foundry unter Windows .

Option 1: Verwenden von Modellen aus dem AI Toolkit

Mit dem Konvertierungstool des AI Toolkits gibt es Dutzende von LLMs und anderen Typen von Modellen, die für die Optimierung zur Verwendung mit Windows ML bereitstehen. Durch das Abrufen eines Modells über das AI Toolkit erhalten Sie ein konvertiertes ONNX-Modell, das für die Vielzahl von Hardware optimiert ist, auf der Windows ML ausgeführt wird.

Informationen zum Durchsuchen der verfügbaren Modelle finden Sie in der Modellliste des AI Toolkits.

Option 2: Verwenden anderer vorhandener ONNX-Modelle

Hugging Face hostet Tausende von ONNX-Modellen, die Sie mit Windows ML verwenden können. OnNX-Modelle finden Sie unter:

  1. Das Hugging Face Model Hub durchsuchen
  2. Filtern nach "ONNX" im Bibliotheksfilter

Sie müssen ein Modell finden, das mit der ONNX-Runtime-Version kompatibel ist, die in der verwendeten Windows ML-Version enthalten ist. Siehe ONNX-Runtime-Versionen, die in Windows ML ausgeliefert wurden, um herauszufinden, welche Version von ONNX-Runtime Sie mit Windows ML verwenden.

Option 3: Konvertieren vorhandener Modelle in das ONNX-Format

Modelle von PyTorch, TensorFlow oder anderen Frameworks können in das ONNX-Format konvertiert und mit Windows ML verwendet werden.

Hugging Face hostet Millionen von Modellen, die Sie mit Windows ML verwenden und konvertieren können.

Sie müssen das Modell konvertieren, um es mit der ONNX-Runtime-Version auszuführen, die in der von Ihnen verwendeten Version von Windows ML enthalten ist. Siehe ONNX-Runtime-Versionen, die in Windows ML ausgeliefert wurden, um herauszufinden, welche Version von ONNX-Runtime Sie mit Windows ML verwenden.

Informationen zum Konvertieren eines Modells in das ONNX-Format finden Sie in der frameworkspezifischen Dokumentation, z. B.:

Option 4: Optimieren vorhandener Modelle

Viele Modelle auf Hugging Face oder aus anderen Quellen können anhand der Anweisungen auf den Modellkarten bei Hugging Face feinabgestimmt werden. Anschließend können Sie das fein abgestimmte Modell nach den Anweisungen in Option 3 oben in ONNX konvertieren.

Eine beliebte Möglichkeit zum Optimieren von Modellen ist die Verwendung des Oliv-Finetune-Befehls. Weitere Informationen zur Verwendung von Olive finden Sie in der Olive-Dokumentation .

Option 5: Zugmodelle

Wenn Sie ein Modell für eine bestimmte Aufgabe benötigen und kein vorhandenes Modell finden können, können Sie Eigenes in PyTorch, TensorFlow oder anderen Frameworks trainieren.

Nachdem Sie Ihr Modell trainiert haben, folgen Sie den Anweisungen in Option 3 oben, um Ihr Modell in das ONNX-Format zu konvertieren.

Nächste Schritte

Sobald Sie über ein ONNX-Modell verfügen, können Sie es mit Windows ML auf Ihren Zielgeräten ausführen.

Andere Lösungen

Als Teil von Microsoft Foundry unter Windows können Sie auch aus Dutzenden von einsatzbereiten AI-Modellen und APIs wählen, die über Windows ML ausgeführt werden. Weitere Informationen finden Sie unter Verwenden lokaler KI mit Microsoft Foundry unter Windows .