Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Die Lernprogramme in diesem Abschnitt führen Sie durch die Grundlagen der Arbeit mit der Azure Databricks-Plattform.
Informationen zu Ressourcen für Online-Schulungen finden Sie unter Kostenlose Databricks-Schulungen.
Wenn Sie nicht über ein Azure Databricks-Konto verfügen, registrieren Sie sich für eine kostenlose Testversion.
Anleitung | BESCHREIBUNG |
---|---|
Abfragen und Visualisieren von Daten | Verwenden Sie ein Databricks-Notizbuch, um Beispieldaten abzufragen, die im Unity-Katalog mit SQL, Python, Scala und R gespeichert sind, und visualisieren Sie dann die Abfrageergebnisse im Notizbuch. |
Importieren und Visualisieren von CSV-Daten aus einem Notizbuch | Verwenden Sie ein Databricks-Notizbuch, um Daten aus einer CSV-Datei mit Babynamendaten aus https://health.data.ny.gov Ihrem Unity-Katalogvolume mithilfe von Python, Scala und R in Ihr Unity-Katalogvolume zu importieren. Außerdem lernen Sie, einen Spaltennamen zu ändern, die Daten zu visualisieren und in einer Tabelle zu speichern. |
Tabelle erstellen | Erstellen Sie eine Tabelle, und gewähren Sie Berechtigungen in Databricks mithilfe des Unity Catalog-Datengovernancemodells. |
Erstellen einer ETL-Pipeline mit Lakeflow Declarative Pipelines | Erstellen und Bereitstellen einer ETL-Pipeline (Extrahieren, Transformieren und Laden) für die Daten-Orchestrierung mithilfe von Lakeflow Declarative Pipelines und Auto Loader. |
Erstellen einer ETL-Pipeline mit Apache Spark | Entwickeln und bereitstellen Sie Ihre erste ETL-Pipeline (Extrahieren, Transformieren und Laden) für die Daten-Orchestrierung mit Apache Spark™. |
Trainieren und Bereitstellen eines ML-Modells | Erstellen Sie ein Machine Learning-Klassifizierungsmodell mit der Scikit-Learn-Bibliothek auf Databricks, um vorherzusagen, ob ein Wein als "qualitativ hochwertige" gilt. In diesem Lernprogramm wird auch die Verwendung von MLflow veranschaulicht, um den Modellentwicklungsprozess nachzuverfolgen, und Hyperopt zum Automatisieren der Hyperparameteroptimierung. |
LLMs abfragen und KI-Agenten ohne Programmieren prototypisieren | Verwenden Sie den KI-Playground, um große Sprachmodelle (LLMs) abzufragen und Ergebnisse nebeneinander zu vergleichen, einen Prototyp eines KI-Agenten zu erstellen und Ihren Agenten in Code umzuwandeln. |
Anleitung | Einzelheiten |
---|---|
Abfragen und Visualisieren von Daten | Verwenden Sie ein Databricks-Notizbuch, um Beispieldaten abzufragen, die im Unity-Katalog mit SQL, Python, Scala und R gespeichert sind, und visualisieren Sie dann die Abfrageergebnisse im Notizbuch. |
Importieren und Visualisieren von CSV-Daten aus einem Notizbuch | Verwenden Sie ein Databricks-Notizbuch, um Daten aus einer CSV-Datei mit Babynamendaten aus https://health.data.ny.gov Ihrem Unity-Katalogvolume mithilfe von Python, Scala und R in Ihr Unity-Katalogvolume zu importieren. Außerdem lernen Sie, einen Spaltennamen zu ändern, die Daten zu visualisieren und in einer Tabelle zu speichern. |
Tabelle erstellen | Erstellen Sie eine Tabelle, und gewähren Sie Berechtigungen in Databricks mithilfe des Unity Catalog-Datengovernancemodells. |
Erstellen einer ETL-Pipeline mit Lakeflow Declarative Pipelines | Erstellen und Bereitstellen einer ETL-Pipeline (Extrahieren, Transformieren und Laden) für die Daten-Orchestrierung mithilfe von Lakeflow Declarative Pipelines und Auto Loader. |
Erstellen einer ETL-Pipeline mit Apache Spark | Entwickeln und bereitstellen Sie Ihre erste ETL-Pipeline (Extrahieren, Transformieren und Laden) für die Daten-Orchestrierung mit Apache Spark™. |
Trainieren und Bereitstellen eines ML-Modells | Erstellen Sie ein Machine Learning-Klassifizierungsmodell mit der Scikit-Learn-Bibliothek auf Databricks, um vorherzusagen, ob ein Wein als "qualitativ hochwertige" gilt. In diesem Lernprogramm wird auch die Verwendung von MLflow veranschaulicht, um den Modellentwicklungsprozess nachzuverfolgen, und Hyperopt zum Automatisieren der Hyperparameteroptimierung. |
LLMs abfragen und KI-Agenten ohne Programmieren prototypisieren | Verwenden Sie den KI-Playground, um große Sprachmodelle (LLMs) abzufragen und Ergebnisse nebeneinander zu vergleichen, einen Prototyp eines KI-Agenten zu erstellen und Ihren Agenten in Code umzuwandeln. |
Herstellen einer Verbindung mit Azure Data Lake Storage | Verbinden Sie Azure Databricks mit Azure Data Lake Storage mithilfe von OAuth 2.0 und einem Microsoft Entra ID-Dienstprinzipal. |
Hilfe erhalten
- Wenn Sie Fragen zum Einrichten von Azure Databricks haben und Live-Hilfe benötigen, senden Sie eine E-Mail an onboarding-help@databricks.com.
- Wenn Ihre Organisation über kein Azure Databricks-Supportabonnement verfügt oder Sie kein autorisierter Kontakt für das Supportabonnement Ihres Unternehmens sind, erhalten Sie Antworten aus der Databricks-Community.