Udostępnij za pośrednictwem


Wprowadzenie do samouczków dotyczących usługi Azure Databricks

W samouczkach w tej sekcji przedstawiono podstawowe funkcje i przedstawiono podstawy pracy z platformą Azure Databricks.

Aby uzyskać informacje na temat zasobów szkoleniowych online, zobacz Uzyskaj bezpłatne szkolenie Databricks.

Jeśli nie masz konta usługi Azure Databricks, utwórz konto bezpłatnej wersji próbnej.

Poradnik Opis
Wykonywanie zapytań i wizualizowanie danych Notesbook Databricks umożliwia wykonywanie zapytań dotyczących przykładowych danych przechowywanych w Unity Catalog przy użyciu języków SQL, Python, Scala i R, a następnie zwizualizować wyniki zapytania w notebooku.
Importowanie i wizualizowanie danych CSV z notesu Użyj notesu Databricks, aby zaimportować dane z pliku CSV zawierającego imiona dzieci z https://health.data.ny.gov do woluminu katalogu Unity, korzystając z języków Python, Scala i R. Nauczysz się również, jak zmieniać nazwę kolumny, wizualizować dane i zapisywać je w tabeli.
Utwórz tabelę Utwórz tabelę i przyznaj uprawnienia w usłudze Databricks przy użyciu modelu zarządzania danymi Unity Catalog.
Tworzenie potoku ETL przy użyciu Deklaratywnych Potoków Lakeflow Tworzenie i wdrażanie potoku ETL (wyodrębnianie, przekształcanie i ładowanie) na potrzeby orkiestracji danych przy użyciu potoków deklaratywnych lakeflow i modułu ładującego automatycznego.
Tworzenie potoku ETL przy użyciu platformy Apache Spark Twórz i wdrażaj swój pierwszy pipeline ETL (ekstrakcja, transformacja i ładowanie) do orkiestracji danych za pomocą platformy Apache Spark™.
Trenowanie i wdrażanie modelu uczenia maszynowego Tworzenie modelu klasyfikacji uczenia maszynowego przy użyciu biblioteki scikit-learn w usłudze Databricks w celu przewidywania, czy wino jest uznawane za "wysokiej jakości". W tym samouczku przedstawiono również użycie biblioteki MLflow do śledzenia procesu opracowywania modelu i funkcji Hyperopt w celu zautomatyzowania dostrajania hiperparametrów.
Kierowanie zapytań do LLM i prototypowanie agentów AI bez kodowania Użyj narzędzia AI Playground, aby wykonywać zapytania dotyczące dużych modeli językowych (LLM) i porównać wyniki obok siebie, utworzyć prototyp agenta sztucznej inteligencji wywołującego narzędzie i wyeksportować agenta do kodu.
Poradnik Szczegóły
Wykonywanie zapytań i wizualizowanie danych Notesbook Databricks umożliwia wykonywanie zapytań dotyczących przykładowych danych przechowywanych w Unity Catalog przy użyciu języków SQL, Python, Scala i R, a następnie zwizualizować wyniki zapytania w notebooku.
Importowanie i wizualizowanie danych CSV z notesu Użyj notesu Databricks, aby zaimportować dane z pliku CSV zawierającego imiona dzieci z https://health.data.ny.gov do woluminu katalogu Unity, korzystając z języków Python, Scala i R. Nauczysz się również, jak zmieniać nazwę kolumny, wizualizować dane i zapisywać je w tabeli.
Utwórz tabelę Utwórz tabelę i przyznaj uprawnienia w usłudze Databricks przy użyciu modelu zarządzania danymi Unity Catalog.
Tworzenie potoku ETL przy użyciu Deklaratywnych Potoków Lakeflow Tworzenie i wdrażanie potoku ETL (wyodrębnianie, przekształcanie i ładowanie) na potrzeby orkiestracji danych przy użyciu potoków deklaratywnych lakeflow i modułu ładującego automatycznego.
Tworzenie potoku ETL przy użyciu platformy Apache Spark Twórz i wdrażaj swój pierwszy pipeline ETL (ekstrakcja, transformacja i ładowanie) do orkiestracji danych za pomocą platformy Apache Spark™.
Trenowanie i wdrażanie modelu uczenia maszynowego Tworzenie modelu klasyfikacji uczenia maszynowego przy użyciu biblioteki scikit-learn w usłudze Databricks w celu przewidywania, czy wino jest uznawane za "wysokiej jakości". W tym samouczku przedstawiono również użycie biblioteki MLflow do śledzenia procesu opracowywania modelu i funkcji Hyperopt w celu zautomatyzowania dostrajania hiperparametrów.
Kierowanie zapytań do LLM i prototypowanie agentów AI bez kodowania Użyj narzędzia AI Playground, aby wykonywać zapytania dotyczące dużych modeli językowych (LLM) i porównać wyniki obok siebie, utworzyć prototyp agenta sztucznej inteligencji wywołującego narzędzie i wyeksportować agenta do kodu.
Nawiązywanie połączenia z Azure Data Lake Storage Połącz się z usługi Azure Databricks z usługą Azure Data Lake Storage przy użyciu protokołu OAuth 2.0 z jednostką usługi Microsoft Entra ID.

Uzyskiwanie pomocy

  • Jeśli masz pytania dotyczące konfigurowania usługi Azure Databricks i potrzebujesz pomocy na żywo, wyślij wiadomość e-mail na adres onboarding-help@databricks.com.
  • Jeśli Twoja organizacja nie ma subskrypcji pomocy technicznej usługi Azure Databricks lub jeśli nie jesteś autoryzowanym kontaktem dla subskrypcji pomocy technicznej Twojej firmy, możesz uzyskać odpowiedzi od społeczności usługi Databricks.