Share via


Transformar dados executando uma atividade do Azure Databricks

A atividade do Azure Databricks no Data Factory for Microsoft Fabric permite orquestrar os seguintes trabalhos do Azure Databricks:

  • Bloco de Notas
  • Frasco
  • Python

Este artigo fornece um passo a passo que descreve como criar uma atividade do Azure Databricks usando a interface do Data Factory.

Pré-requisitos

Para começar, você deve preencher os seguintes pré-requisitos:

Configurando uma atividade do Azure Databricks

Para usar uma atividade do Azure Databricks em um pipeline, conclua as seguintes etapas:

Configurando a conexão

  1. Crie um novo pipeline em seu espaço de trabalho.

  2. Clique em adicionar uma atividade de pipeline e procure o Azure Databricks.

    Screenshot of the Fabric Data pipelines landing page and Azure Databricks activity highlighted.

  3. Como alternativa, você pode pesquisar o Azure Databricks no painel Atividades do pipeline e selecioná-lo para adicioná-lo à tela do pipeline.

    Screenshot of the Fabric UI with the Activities pane and Azure Databricks activity highlighted.

  4. Selecione a nova atividade do Azure Databricks na tela, se ainda não estiver selecionada.

    Screenshot showing the General settings tab of the Azure Databricks activity.

Consulte as orientações de configurações gerais para configurar a guia Configurações gerais.

Configurando clusters

  1. Selecione a guia Cluster. Em seguida, você pode escolher uma conexão existente ou criar uma nova conexão do Azure Databricks e, em seguida, escolher um novo cluster de trabalho, um cluster interativo existente ou um pool de instâncias existente.

  2. Dependendo do que você escolher para o cluster, preencha os campos correspondentes conforme apresentado.

    • Em novo cluster de trabalho e pool de instâncias existentes, você também tem a capacidade de configurar o número de trabalhadores e habilitar instâncias spot.
  3. Você também pode especificar configurações de cluster adicionais, como política de cluster, configuração do Spark, variáveis de ambiente do Spark e tags personalizadas, conforme necessário para o cluster ao qual você está se conectando. Os scripts de inicialização do Databricks e o caminho de destino do Log de Cluster também podem ser adicionados nas configurações adicionais do cluster.

    Nota

    Todas as propriedades avançadas de cluster e expressões dinâmicas suportadas no Azure Data Factory O serviço vinculado do Azure Databricks agora também tem suporte na atividade do Azure Databricks no Microsoft Fabric na seção 'Configuração de cluster adicional' na interface do usuário. Como essas propriedades agora estão incluídas na interface do usuário da atividade; eles podem ser facilmente usados com uma expressão (conteúdo dinâmico) sem a necessidade da especificação JSON Avançada no serviço vinculado Azure Data Factory Azure Databricks.

    Screenshot showing the Cluster settings tab of the Azure Databricks activity.

  4. A Atividade do Azure Databricks agora também oferece suporte à Política de Cluster e ao Catálogo Unity.

    • Em Configurações avançadas, você tem a opção de escolher a Diretiva de Cluster para especificar quais configurações de cluster são permitidas.
    • Além disso, em configurações avançadas, você tem a opção de configurar o Modo de Acesso ao Catálogo Unity para maior segurança.

    Screenshot showing the policy ID and Unity Catalog support under Cluster settings tab of the Azure Databricks activity.

Definindo configurações

Selecionando a guia Configurações , você pode escolher entre 3 opções do tipo Azure Databricks que você gostaria de orquestrar.

Screenshot showing the Settings tab of the Azure Databricks activity.

Orquestrando o tipo de Bloco de Anotações na atividade do Azure Databricks:

  1. Na guia Configurações, você pode escolher o botão de opção Bloco de Anotações para executar um Bloco de Anotações. Você precisará especificar o caminho do bloco de anotações a ser executado no Azure Databricks, parâmetros básicos opcionais a serem passados para o bloco de anotações e quaisquer bibliotecas adicionais a serem instaladas no cluster para executar o trabalho.

    Screenshot showing the Notebooks type of the Azure Databricks activity.

Orquestrando o tipo Jar na atividade do Azure Databricks:

  1. Na guia Configurações, você pode escolher o botão de opção Jar para executar um Jar. Você precisará especificar o nome da classe a ser executada no Azure Databricks, parâmetros básicos opcionais a serem passados para o Jar e quaisquer bibliotecas adicionais a serem instaladas no cluster para executar o trabalho.

    Screenshot showing the Jar type of the Azure Databricks activity.

Orquestrando o tipo Python na atividade do Azure Databricks:

  1. Na guia Configurações, você pode escolher o botão de opção Python para executar um arquivo Python. Você precisará especificar o caminho dentro do Azure Databricks para um arquivo Python a ser executado, parâmetros básicos opcionais a serem passados e quaisquer bibliotecas adicionais a serem instaladas no cluster para executar o trabalho.

    Screenshot showing the Python type of the Azure Databricks activity.

Bibliotecas suportadas para a atividade do Azure Databricks

Na definição de atividade do Databricks acima, você pode especificar esses tipos de biblioteca: jar, egg, whl, maven, pypi, cran.

Para obter mais informações, consulte a documentação do Databricks para tipos de biblioteca.

Passando parâmetros entre a atividade do Azure Databricks e pipelines

Você pode passar parâmetros para blocos de anotações usando a propriedade baseParameters na atividade databricks.

Em certos casos, pode ser necessário repassar certos valores do notebook de volta para o serviço, que podem ser usados para controlar o fluxo (verificações condicionais) no serviço ou ser consumidos por atividades a jusante (o limite de tamanho é de 2 MB).

  1. No seu bloco de anotações, por exemplo, você pode chamar dbutils.notebook.exit("returnValue") e o correspondente "returnValue" será retornado ao serviço.

  2. Você pode consumir a saída no serviço usando expressões como @{activity('databricks activity name').output.runOutput}.

Screenshot showing how to pass base parameters in the Azure Databricks activity.

Salvar e executar ou agendar o pipeline

Depois de configurar quaisquer outras atividades necessárias para o pipeline, alterne para a guia Página Inicial na parte superior do editor de pipeline e selecione o botão Salvar para salvar o pipeline. Selecione Executar para executá-lo diretamente ou Agendar para agendá-lo. Você também pode visualizar o histórico de execução aqui ou definir outras configurações.

Screenshot showing how to save and run the pipeline.

Como monitorar execuções de pipeline