Uwaga
Dostęp do tej strony wymaga autoryzacji. Może spróbować zalogować się lub zmienić katalogi.
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować zmienić katalogi.
W samouczkach w tej sekcji przedstawiono podstawowe funkcje i przedstawiono podstawy pracy z platformą Azure Databricks.
Aby uzyskać informacje na temat zasobów szkoleniowych online, zobacz Uzyskaj bezpłatne szkolenie Databricks.
Jeśli nie masz konta usługi Azure Databricks, utwórz konto bezpłatnej wersji próbnej.
Poradnik | Opis |
---|---|
Wykonywanie zapytań i wizualizowanie danych | Notesbook Databricks umożliwia wykonywanie zapytań dotyczących przykładowych danych przechowywanych w Unity Catalog przy użyciu języków SQL, Python, Scala i R, a następnie zwizualizować wyniki zapytania w notebooku. |
Importowanie i wizualizowanie danych CSV z notesu | Użyj notesu Databricks, aby zaimportować dane z pliku CSV zawierającego imiona dzieci z https://health.data.ny.gov do woluminu katalogu Unity, korzystając z języków Python, Scala i R. Nauczysz się również, jak zmieniać nazwę kolumny, wizualizować dane i zapisywać je w tabeli. |
Utwórz tabelę | Utwórz tabelę i przyznaj uprawnienia w usłudze Databricks przy użyciu modelu zarządzania danymi Unity Catalog. |
Tworzenie potoku ETL przy użyciu Deklaratywnych Potoków Lakeflow | Tworzenie i wdrażanie potoku ETL (wyodrębnianie, przekształcanie i ładowanie) na potrzeby orkiestracji danych przy użyciu potoków deklaratywnych lakeflow i modułu ładującego automatycznego. |
Tworzenie potoku ETL przy użyciu platformy Apache Spark | Twórz i wdrażaj swój pierwszy pipeline ETL (ekstrakcja, transformacja i ładowanie) do orkiestracji danych za pomocą platformy Apache Spark™. |
Trenowanie i wdrażanie modelu uczenia maszynowego | Tworzenie modelu klasyfikacji uczenia maszynowego przy użyciu biblioteki scikit-learn w usłudze Databricks w celu przewidywania, czy wino jest uznawane za "wysokiej jakości". W tym samouczku przedstawiono również użycie biblioteki MLflow do śledzenia procesu opracowywania modelu i funkcji Hyperopt w celu zautomatyzowania dostrajania hiperparametrów. |
Kierowanie zapytań do LLM i prototypowanie agentów AI bez kodowania | Użyj narzędzia AI Playground, aby wykonywać zapytania dotyczące dużych modeli językowych (LLM) i porównać wyniki obok siebie, utworzyć prototyp agenta sztucznej inteligencji wywołującego narzędzie i wyeksportować agenta do kodu. |
Poradnik | Szczegóły |
---|---|
Wykonywanie zapytań i wizualizowanie danych | Notesbook Databricks umożliwia wykonywanie zapytań dotyczących przykładowych danych przechowywanych w Unity Catalog przy użyciu języków SQL, Python, Scala i R, a następnie zwizualizować wyniki zapytania w notebooku. |
Importowanie i wizualizowanie danych CSV z notesu | Użyj notesu Databricks, aby zaimportować dane z pliku CSV zawierającego imiona dzieci z https://health.data.ny.gov do woluminu katalogu Unity, korzystając z języków Python, Scala i R. Nauczysz się również, jak zmieniać nazwę kolumny, wizualizować dane i zapisywać je w tabeli. |
Utwórz tabelę | Utwórz tabelę i przyznaj uprawnienia w usłudze Databricks przy użyciu modelu zarządzania danymi Unity Catalog. |
Tworzenie potoku ETL przy użyciu Deklaratywnych Potoków Lakeflow | Tworzenie i wdrażanie potoku ETL (wyodrębnianie, przekształcanie i ładowanie) na potrzeby orkiestracji danych przy użyciu potoków deklaratywnych lakeflow i modułu ładującego automatycznego. |
Tworzenie potoku ETL przy użyciu platformy Apache Spark | Twórz i wdrażaj swój pierwszy pipeline ETL (ekstrakcja, transformacja i ładowanie) do orkiestracji danych za pomocą platformy Apache Spark™. |
Trenowanie i wdrażanie modelu uczenia maszynowego | Tworzenie modelu klasyfikacji uczenia maszynowego przy użyciu biblioteki scikit-learn w usłudze Databricks w celu przewidywania, czy wino jest uznawane za "wysokiej jakości". W tym samouczku przedstawiono również użycie biblioteki MLflow do śledzenia procesu opracowywania modelu i funkcji Hyperopt w celu zautomatyzowania dostrajania hiperparametrów. |
Kierowanie zapytań do LLM i prototypowanie agentów AI bez kodowania | Użyj narzędzia AI Playground, aby wykonywać zapytania dotyczące dużych modeli językowych (LLM) i porównać wyniki obok siebie, utworzyć prototyp agenta sztucznej inteligencji wywołującego narzędzie i wyeksportować agenta do kodu. |
Nawiązywanie połączenia z Azure Data Lake Storage | Połącz się z usługi Azure Databricks z usługą Azure Data Lake Storage przy użyciu protokołu OAuth 2.0 z jednostką usługi Microsoft Entra ID. |
Uzyskiwanie pomocy
- Jeśli masz pytania dotyczące konfigurowania usługi Azure Databricks i potrzebujesz pomocy na żywo, wyślij wiadomość e-mail na adres onboarding-help@databricks.com.
- Jeśli Twoja organizacja nie ma subskrypcji pomocy technicznej usługi Azure Databricks lub jeśli nie jesteś autoryzowanym kontaktem dla subskrypcji pomocy technicznej Twojej firmy, możesz uzyskać odpowiedzi od społeczności usługi Databricks.