Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
Os tutoriais nesta seção apresentam os principais recursos e orientam você pelos conceitos básicos de trabalhar com a plataforma do Azure Databricks.
Para explorar mais recursos de treinamento online, confira Realizar o treinamento gratuito do Databricks.
Se você não tiver uma conta do Azure Databricks, inscreva-se para uma avaliação gratuita.
Tutorial | Descrição |
---|---|
Consultar e visualizar dados | Use um notebook do Databricks para consultar dados de exemplo armazenados no Catálogo do Unity usando SQL, Python, Scala e R e, em seguida, visualize os resultados da consulta no notebook. |
Importar e visualizar dados CSV de um notebook | Use um notebook do Databricks para importar dados de um arquivo CSV contendo dados de nomes de bebê de https://health.data.ny.gov para o seu volume do Catálogo Unity usando Python, Scala e R. Você também aprenderá a alterar o nome de uma coluna, visualizar os dados e salvar em uma tabela. |
Criar uma tabela | Crie uma tabela e conceda privilégios no Databricks usando o modelo de governança de dados do Catálogo do Unity. |
Criar um pipeline ETL usando Pipelines Declarativos do Lakeflow | Crie e implante um pipeline de ETL (extrair, transformar e carregar) para orquestração de dados usando Pipelines Declarativos do Lakeflow e Carregador Automático. |
Criar um pipeline de ETL usando o Apache Spark | Desenvolva e implante seu primeiro pipeline de ETL (extrair, transformar e carregar) para orquestração de dados com o Apache Spark™. |
Treinar e implantar um modelo de ML | Crie um modelo de classificação de machine learning usando a biblioteca scikit-learn no Databricks para prever se um vinho é considerado de "alta qualidade". Este tutorial também ilustra o uso do MLflow para acompanhar o processo de desenvolvimento do modelo e o Hyperopt para automatizar o ajuste do hiperparâmetro. |
Consultar LLMs e protótipos de agentes de IA sem código | Use o Ambiente de IA para consultar grandes modelos de linguagem (LLMs) e comparar resultados lado a lado, prototipar um agente de IA que faz chamadas para ferramentas e exportar seu agente em formato de código. |
Tutorial | Detalhes |
---|---|
Consultar e visualizar dados | Use um notebook do Databricks para consultar dados de exemplo armazenados no Catálogo do Unity usando SQL, Python, Scala e R e, em seguida, visualize os resultados da consulta no notebook. |
Importar e visualizar dados CSV de um notebook | Use um notebook do Databricks para importar dados de um arquivo CSV contendo dados de nomes de bebê de https://health.data.ny.gov para o seu volume do Catálogo Unity usando Python, Scala e R. Você também aprenderá a alterar o nome de uma coluna, visualizar os dados e salvar em uma tabela. |
Criar uma tabela | Crie uma tabela e conceda privilégios no Databricks usando o modelo de governança de dados do Catálogo do Unity. |
Criar um pipeline ETL usando Pipelines Declarativos do Lakeflow | Crie e implante um pipeline de ETL (extrair, transformar e carregar) para orquestração de dados usando Pipelines Declarativos do Lakeflow e Carregador Automático. |
Criar um pipeline de ETL usando o Apache Spark | Desenvolva e implante seu primeiro pipeline de ETL (extrair, transformar e carregar) para orquestração de dados com o Apache Spark™. |
Treinar e implantar um modelo de ML | Crie um modelo de classificação de machine learning usando a biblioteca scikit-learn no Databricks para prever se um vinho é considerado de "alta qualidade". Este tutorial também ilustra o uso do MLflow para acompanhar o processo de desenvolvimento do modelo e o Hyperopt para automatizar o ajuste do hiperparâmetro. |
Consultar LLMs e protótipos de agentes de IA sem código | Use o Ambiente de IA para consultar grandes modelos de linguagem (LLMs) e comparar resultados lado a lado, prototipar um agente de IA que faz chamadas para ferramentas e exportar seu agente em formato de código. |
Ligar ao Azure Data Lake Storage | Conecte-se do Azure Databricks ao Azure Data Lake Storage usando o OAuth 2.0 com um principal de serviço do Microsoft Entra ID. |
Obter ajuda
- Se você tiver dúvidas sobre como configurar o Azure Databricks e precisar de ajuda ao vivo, envie um email para onboarding-help@databricks.com.
- Se sua organização não tiver uma assinatura de suporte do Azure Databricks ou se você não for um contato autorizado para a assinatura de suporte da sua empresa, você poderá obter respostas da Comunidade do Databricks.