Freigeben über


MLeap: ML-Modellexport

Wichtig

Diese Dokumentation wurde eingestellt und wird unter Umständen nicht aktualisiert. Die in diesem Inhalt erwähnten Produkte, Dienste oder Technologien werden nicht mehr unterstützt.

Wenn Sie Modelle zur Bereitstellung einzelner Vorhersagen exportieren möchten, können Sie MLeap verwenden. Hierbei handelt es sich um ein gängiges Serialisierungsformat und Ausführungsmodul für Machine Learning-Pipelines. MLeap unterstützt die Serialisierung von Apache Spark-, scikit-learn- und TensorFlow-Pipelines in einem Bündel, sodass Sie trainierte Modelle laden und bereitstellen können, um Vorhersagen mit neuen Daten zu generieren. Die exportierten Modelle können sowohl in Spark als auch in andere Bewertungs- und Vorhersageplattformen importiert werden.

Hinweis

Databricks Runtime unterstützt Open Source MLeap nicht. Um MLeap verwenden zu können, müssen Sie einen Cluster erstellen, auf dem Databricks Runtime 13.3 LTS ML oder niedriger ausgeführt wird. Für diese Versionen von Databricks Runtime ML ist eine benutzerdefinierte Version von MLeap vorinstalliert.

Das folgende Notebook zeigt ein Beispiel für den Workflow eines Modellexports.

Beispiel: Exportieren und Importieren von Modellen in Python

In diesem Notebookbeispiel wird veranschaulicht, wie Sie MLeap verwenden, um Modelle mit MLlib zu exportieren.

Python-Notebook für den MLeap-Export

Notebook abrufen