Freigeben über


Erste Schritte-Tutorials für Azure Databricks

Die Lernprogramme in diesem Abschnitt führen Sie durch die Grundlagen der Arbeit mit der Azure Databricks-Plattform.

Informationen zu Ressourcen für Online-Schulungen finden Sie unter Kostenlose Databricks-Schulungen.

Wenn Sie nicht über ein Azure Databricks-Konto verfügen, registrieren Sie sich für eine kostenlose Testversion.

Anleitung BESCHREIBUNG
Abfragen und Visualisieren von Daten Verwenden Sie ein Databricks-Notizbuch, um Beispieldaten abzufragen, die im Unity-Katalog mit SQL, Python, Scala und R gespeichert sind, und visualisieren Sie dann die Abfrageergebnisse im Notizbuch.
Importieren und Visualisieren von CSV-Daten aus einem Notizbuch Verwenden Sie ein Databricks-Notizbuch, um Daten aus einer CSV-Datei mit Babynamendaten aus https://health.data.ny.gov Ihrem Unity-Katalogvolume mithilfe von Python, Scala und R in Ihr Unity-Katalogvolume zu importieren. Außerdem lernen Sie, einen Spaltennamen zu ändern, die Daten zu visualisieren und in einer Tabelle zu speichern.
Tabelle erstellen Erstellen Sie eine Tabelle, und gewähren Sie Berechtigungen in Databricks mithilfe des Unity Catalog-Datengovernancemodells.
Erstellen einer ETL-Pipeline mit Lakeflow Declarative Pipelines Erstellen und Bereitstellen einer ETL-Pipeline (Extrahieren, Transformieren und Laden) für die Daten-Orchestrierung mithilfe von Lakeflow Declarative Pipelines und Auto Loader.
Erstellen einer ETL-Pipeline mit Apache Spark Entwickeln und bereitstellen Sie Ihre erste ETL-Pipeline (Extrahieren, Transformieren und Laden) für die Daten-Orchestrierung mit Apache Spark™.
Trainieren und Bereitstellen eines ML-Modells Erstellen Sie ein Machine Learning-Klassifizierungsmodell mit der Scikit-Learn-Bibliothek auf Databricks, um vorherzusagen, ob ein Wein als "qualitativ hochwertige" gilt. In diesem Lernprogramm wird auch die Verwendung von MLflow veranschaulicht, um den Modellentwicklungsprozess nachzuverfolgen, und Hyperopt zum Automatisieren der Hyperparameteroptimierung.
LLMs abfragen und KI-Agenten ohne Programmieren prototypisieren Verwenden Sie den KI-Playground, um große Sprachmodelle (LLMs) abzufragen und Ergebnisse nebeneinander zu vergleichen, einen Prototyp eines KI-Agenten zu erstellen und Ihren Agenten in Code umzuwandeln.
Anleitung Einzelheiten
Abfragen und Visualisieren von Daten Verwenden Sie ein Databricks-Notizbuch, um Beispieldaten abzufragen, die im Unity-Katalog mit SQL, Python, Scala und R gespeichert sind, und visualisieren Sie dann die Abfrageergebnisse im Notizbuch.
Importieren und Visualisieren von CSV-Daten aus einem Notizbuch Verwenden Sie ein Databricks-Notizbuch, um Daten aus einer CSV-Datei mit Babynamendaten aus https://health.data.ny.gov Ihrem Unity-Katalogvolume mithilfe von Python, Scala und R in Ihr Unity-Katalogvolume zu importieren. Außerdem lernen Sie, einen Spaltennamen zu ändern, die Daten zu visualisieren und in einer Tabelle zu speichern.
Tabelle erstellen Erstellen Sie eine Tabelle, und gewähren Sie Berechtigungen in Databricks mithilfe des Unity Catalog-Datengovernancemodells.
Erstellen einer ETL-Pipeline mit Lakeflow Declarative Pipelines Erstellen und Bereitstellen einer ETL-Pipeline (Extrahieren, Transformieren und Laden) für die Daten-Orchestrierung mithilfe von Lakeflow Declarative Pipelines und Auto Loader.
Erstellen einer ETL-Pipeline mit Apache Spark Entwickeln und bereitstellen Sie Ihre erste ETL-Pipeline (Extrahieren, Transformieren und Laden) für die Daten-Orchestrierung mit Apache Spark™.
Trainieren und Bereitstellen eines ML-Modells Erstellen Sie ein Machine Learning-Klassifizierungsmodell mit der Scikit-Learn-Bibliothek auf Databricks, um vorherzusagen, ob ein Wein als "qualitativ hochwertige" gilt. In diesem Lernprogramm wird auch die Verwendung von MLflow veranschaulicht, um den Modellentwicklungsprozess nachzuverfolgen, und Hyperopt zum Automatisieren der Hyperparameteroptimierung.
LLMs abfragen und KI-Agenten ohne Programmieren prototypisieren Verwenden Sie den KI-Playground, um große Sprachmodelle (LLMs) abzufragen und Ergebnisse nebeneinander zu vergleichen, einen Prototyp eines KI-Agenten zu erstellen und Ihren Agenten in Code umzuwandeln.
Herstellen einer Verbindung mit Azure Data Lake Storage Verbinden Sie Azure Databricks mit Azure Data Lake Storage mithilfe von OAuth 2.0 und einem Microsoft Entra ID-Dienstprinzipal.

Hilfe erhalten

  • Wenn Ihre Organisation über kein Azure Databricks-Supportabonnement verfügt oder Sie kein autorisierter Kontakt für das Supportabonnement Ihres Unternehmens sind, erhalten Sie Antworten aus der Databricks-Community.