Compartilhar via


Tutoriais de introdução no Azure Databricks

Os tutoriais nesta seção apresentam os principais recursos e orientam você pelos conceitos básicos de trabalhar com a plataforma do Azure Databricks.

Para explorar mais recursos de treinamento online, confira Realizar o treinamento gratuito do Databricks.

Se você não tiver uma conta do Azure Databricks, inscreva-se para uma avaliação gratuita.

Tutorial Descrição
Consultar e visualizar dados Use um notebook do Databricks para consultar dados de exemplo armazenados no Catálogo do Unity usando SQL, Python, Scala e R e, em seguida, visualize os resultados da consulta no notebook.
Importar e visualizar dados CSV de um notebook Use um notebook do Databricks para importar dados de um arquivo CSV contendo dados de nomes de bebê de https://health.data.ny.gov para o seu volume do Catálogo Unity usando Python, Scala e R. Você também aprenderá a alterar o nome de uma coluna, visualizar os dados e salvar em uma tabela.
Criar uma tabela Crie uma tabela e conceda privilégios no Databricks usando o modelo de governança de dados do Catálogo do Unity.
Criar um pipeline ETL usando Pipelines Declarativos do Lakeflow Crie e implante um pipeline de ETL (extrair, transformar e carregar) para orquestração de dados usando Pipelines Declarativos do Lakeflow e Carregador Automático.
Criar um pipeline de ETL usando o Apache Spark Desenvolva e implante seu primeiro pipeline de ETL (extrair, transformar e carregar) para orquestração de dados com o Apache Spark™.
Treinar e implantar um modelo de ML Crie um modelo de classificação de machine learning usando a biblioteca scikit-learn no Databricks para prever se um vinho é considerado de "alta qualidade". Este tutorial também ilustra o uso do MLflow para acompanhar o processo de desenvolvimento do modelo e o Hyperopt para automatizar o ajuste do hiperparâmetro.
Consultar LLMs e protótipos de agentes de IA sem código Use o Ambiente de IA para consultar grandes modelos de linguagem (LLMs) e comparar resultados lado a lado, prototipar um agente de IA que faz chamadas para ferramentas e exportar seu agente em formato de código.
Tutorial Detalhes
Consultar e visualizar dados Use um notebook do Databricks para consultar dados de exemplo armazenados no Catálogo do Unity usando SQL, Python, Scala e R e, em seguida, visualize os resultados da consulta no notebook.
Importar e visualizar dados CSV de um notebook Use um notebook do Databricks para importar dados de um arquivo CSV contendo dados de nomes de bebê de https://health.data.ny.gov para o seu volume do Catálogo Unity usando Python, Scala e R. Você também aprenderá a alterar o nome de uma coluna, visualizar os dados e salvar em uma tabela.
Criar uma tabela Crie uma tabela e conceda privilégios no Databricks usando o modelo de governança de dados do Catálogo do Unity.
Criar um pipeline ETL usando Pipelines Declarativos do Lakeflow Crie e implante um pipeline de ETL (extrair, transformar e carregar) para orquestração de dados usando Pipelines Declarativos do Lakeflow e Carregador Automático.
Criar um pipeline de ETL usando o Apache Spark Desenvolva e implante seu primeiro pipeline de ETL (extrair, transformar e carregar) para orquestração de dados com o Apache Spark™.
Treinar e implantar um modelo de ML Crie um modelo de classificação de machine learning usando a biblioteca scikit-learn no Databricks para prever se um vinho é considerado de "alta qualidade". Este tutorial também ilustra o uso do MLflow para acompanhar o processo de desenvolvimento do modelo e o Hyperopt para automatizar o ajuste do hiperparâmetro.
Consultar LLMs e protótipos de agentes de IA sem código Use o Ambiente de IA para consultar grandes modelos de linguagem (LLMs) e comparar resultados lado a lado, prototipar um agente de IA que faz chamadas para ferramentas e exportar seu agente em formato de código.
Ligar ao Azure Data Lake Storage Conecte-se do Azure Databricks ao Azure Data Lake Storage usando o OAuth 2.0 com um principal de serviço do Microsoft Entra ID.

Obter ajuda

  • Se sua organização não tiver uma assinatura de suporte do Azure Databricks ou se você não for um contato autorizado para a assinatura de suporte da sua empresa, você poderá obter respostas da Comunidade do Databricks.