Delen via


Aan de slag tutorials voor Azure Databricks

In de zelfstudies in deze sectie worden de belangrijkste functies geïntroduceerd en wordt u begeleid bij de basisbeginselen van het werken met het Azure Databricks-platform.

Zie Gratis Databricks-training krijgen voor informatie over onlinetrainingsbronnen.

Als u geen Azure Databricks-account hebt, meldt u zich aan voor een gratis proefversie.

Handleiding Beschrijving
Gegevens opvragen en visualiseren Gebruik een Databricks-notebook om een query uit te voeren op voorbeeldgegevens die zijn opgeslagen in Unity Catalog met behulp van SQL, Python, Scala en R, en visualiseer vervolgens de queryresultaten in het notebook.
CSV-gegevens importeren en visualiseren vanuit een notebook Gebruik een Databricks-notebook om gegevens te importeren uit een CSV-bestand met babynaamgegevens uit https://health.data.ny.gov in uw Unity Catalog-volume met behulp van Python, Scala en R. U leert ook hoe u een kolomnaam wijzigt, de gegevens visualiseert en opslaat in een tabel.
Een tabel maken Maak een tabel en verdeel bevoegdheden in Databricks met behulp van het Unity Catalog-gegevensbeheermodel.
Een ETL-pijplijn bouwen met behulp van Lakeflow-declaratieve pijplijnen Maak en implementeer een ETL-pijplijn (extraheren, transformeren en laden) voor gegevensindeling met behulp van Lakeflow Declarative Pipelines en Auto Loader.
Een ETL-pijplijn bouwen met Apache Spark Ontwikkel en implementeer uw eerste ETL-pijplijn (extraheren, transformeren en laden) voor gegevensindeling met Apache Spark™.
Een ML-model trainen en implementeren Bouw een machine learning-classificatiemodel met behulp van de scikit-learn-bibliotheek op Databricks om te voorspellen of een wijn als 'hoge kwaliteit' wordt beschouwd. Deze zelfstudie illustreert ook het gebruik van MLflow om het modelontwikkelingsproces bij te houden en Hyperopt om hyperparameterafstemming te automatiseren.
LLM's bevragen en AI-agenten prototyperen zonder code Gebruik de AI Playground om query's uit te voeren op grote taalmodellen (LLM's) en resultaten naast elkaar te vergelijken, een prototype te maken van een AI-agent die een hulpprogramma aanroept en uw agent te exporteren naar code.
Handleiding Bijzonderheden
Gegevens opvragen en visualiseren Gebruik een Databricks-notebook om een query uit te voeren op voorbeeldgegevens die zijn opgeslagen in Unity Catalog met behulp van SQL, Python, Scala en R, en visualiseer vervolgens de queryresultaten in het notebook.
CSV-gegevens importeren en visualiseren vanuit een notebook Gebruik een Databricks-notebook om gegevens te importeren uit een CSV-bestand met babynaamgegevens uit https://health.data.ny.gov in uw Unity Catalog-volume met behulp van Python, Scala en R. U leert ook hoe u een kolomnaam wijzigt, de gegevens visualiseert en opslaat in een tabel.
Een tabel maken Maak een tabel en verdeel bevoegdheden in Databricks met behulp van het Unity Catalog-gegevensbeheermodel.
Een ETL-pijplijn bouwen met behulp van Lakeflow-declaratieve pijplijnen Maak en implementeer een ETL-pijplijn (extraheren, transformeren en laden) voor gegevensindeling met behulp van Lakeflow Declarative Pipelines en Auto Loader.
Een ETL-pijplijn bouwen met Apache Spark Ontwikkel en implementeer uw eerste ETL-pijplijn (extraheren, transformeren en laden) voor gegevensindeling met Apache Spark™.
Een ML-model trainen en implementeren Bouw een machine learning-classificatiemodel met behulp van de scikit-learn-bibliotheek op Databricks om te voorspellen of een wijn als 'hoge kwaliteit' wordt beschouwd. Deze zelfstudie illustreert ook het gebruik van MLflow om het modelontwikkelingsproces bij te houden en Hyperopt om hyperparameterafstemming te automatiseren.
LLM's bevragen en AI-agenten prototyperen zonder code Gebruik de AI Playground om query's uit te voeren op grote taalmodellen (LLM's) en resultaten naast elkaar te vergelijken, een prototype te maken van een AI-agent die een hulpprogramma aanroept en uw agent te exporteren naar code.
Verbinding maken met Azure Data Lake Storage Maak vanuit Azure Databricks verbinding met Azure Data Lake Storage met behulp van OAuth 2.0 met een Microsoft Entra ID-service-principal.

Hulp krijgen

  • Als uw organisatie geen azure Databricks-ondersteuningsabonnement heeft of als u geen geautoriseerde contactpersoon bent voor het ondersteuningsabonnement van uw bedrijf, kunt u antwoorden krijgen van de Databricks-community.