Tutorial: Criar clusters do Apache Hadoop sob demanda no HDInsight usando o Azure Data Factory
Neste tutorial, você aprenderá como criar um cluster do Apache Hadoop, sob demanda, no Azure HDInsight usando o Azure Data Factory. Em seguida, usar pipelines de dados no Azure Data Factory para executar trabalhos de Hive e excluir o cluster. No final deste tutorial, você aprenderá a operationalize
um trabalho de Big Data executado em que a criação do cluster, a execução do trabalho e a exclusão de cluster são feitas de acordo com uma agenda.
Este tutorial cobre as seguintes tarefas:
- Criar uma conta de armazenamento do Azure
- Entender a atividade do Azure Data Factory
- Criar um data factory usando o portal do Azure
- Criar serviços vinculados
- Criar um pipeline
- Disparar um pipeline
- Como monitorar um pipeline
- Verificar a saída
Se você não tiver uma assinatura do Azure, crie uma conta gratuita antes de começar.
Pré-requisitos
O Módulo Az do PowerShell instalado.
Uma entidade de serviço do Microsoft Entra. Depois de criar a entidade de serviço, certifique-se de recuperar a ID do aplicativo e a chave de autenticação usando as instruções no artigo vinculado. Você precisa dos seguintes valores mais tarde neste tutorial. Além disso, verifique se a entidade de serviço é um membro da função de Colaborador da assinatura ou do grupo de recursos em que o cluster é criado. Para obter instruções para recuperar os valores necessários e atribuir as funções corretas, confira Criar uma entidade de serviço do Microsoft Entra.
Criar objetos preliminares do Azure
Nesta seção, você deve criar vários objetos que serão usados para o cluster do HDInsight que você criar sob demanda. A conta de armazenamento criada também conterá o script HiveQL de exemplo, partitionweblogs.hql
, que você usa para simular um trabalho do Apache Hive de exemplo que é executado no cluster.
Esta seção usa um script do Azure PowerShell para criar a conta de armazenamento e copie os arquivos necessários na conta de armazenamento. O exemplo de script do Azure PowerShell nesta seção faz as seguintes tarefas:
- Entra no Azure.
- Cria um grupo de recursos do Azure.
- Cria uma conta de armazenamento do Azure.
- Cria um contêiner de Blob na conta de armazenamento
- Copia o script HiveQL de exemplo (partitionweblogs.hql) para o contêiner de Blob. O script de exemplo já está disponível em outro contêiner de Blob público. O script do PowerShell a seguir faz uma cópia desses arquivos para a conta de Armazenamento do Azure, que ele cria.
Criar conta de armazenamento e copiar arquivos
Importante
Especifique nomes para o grupo de recursos do Azure e a conta de armazenamento do Azure que será criada pelo script. Anote o nome do grupo de recursos, o nome da conta de armazenamento, e a chave da conta de armazenamento produzidos pelo script. Você precisa deles na próxima seção.
$resourceGroupName = "<Azure Resource Group Name>"
$storageAccountName = "<Azure Storage Account Name>"
$location = "East US"
$sourceStorageAccountName = "hditutorialdata"
$sourceContainerName = "adfv2hiveactivity"
$destStorageAccountName = $storageAccountName
$destContainerName = "adfgetstarted" # don't change this value.
####################################
# Connect to Azure
####################################
#region - Connect to Azure subscription
Write-Host "`nConnecting to your Azure subscription ..." -ForegroundColor Green
$sub = Get-AzSubscription -ErrorAction SilentlyContinue
if(-not($sub))
{
Connect-AzAccount
}
# If you have multiple subscriptions, set the one to use
# Select-AzSubscription -SubscriptionId "<SUBSCRIPTIONID>"
#endregion
####################################
# Create a resource group, storage, and container
####################################
#region - create Azure resources
Write-Host "`nCreating resource group, storage account and blob container ..." -ForegroundColor Green
New-AzResourceGroup `
-Name $resourceGroupName `
-Location $location
New-AzStorageAccount `
-ResourceGroupName $resourceGroupName `
-Name $destStorageAccountName `
-Kind StorageV2 `
-Location $location `
-SkuName Standard_LRS `
-EnableHttpsTrafficOnly 1
$destStorageAccountKey = (Get-AzStorageAccountKey `
-ResourceGroupName $resourceGroupName `
-Name $destStorageAccountName)[0].Value
$sourceContext = New-AzStorageContext `
-StorageAccountName $sourceStorageAccountName `
-Anonymous
$destContext = New-AzStorageContext `
-StorageAccountName $destStorageAccountName `
-StorageAccountKey $destStorageAccountKey
New-AzStorageContainer `
-Name $destContainerName `
-Context $destContext
#endregion
####################################
# Copy files
####################################
#region - copy files
Write-Host "`nCopying files ..." -ForegroundColor Green
$blobs = Get-AzStorageBlob `
-Context $sourceContext `
-Container $sourceContainerName `
-Blob "hivescripts\hivescript.hql"
$blobs|Start-AzStorageBlobCopy `
-DestContext $destContext `
-DestContainer $destContainerName `
-DestBlob "hivescripts\partitionweblogs.hql"
Write-Host "`nCopied files ..." -ForegroundColor Green
Get-AzStorageBlob `
-Context $destContext `
-Container $destContainerName
#endregion
Write-host "`nYou will use the following values:" -ForegroundColor Green
write-host "`nResource group name: $resourceGroupName"
Write-host "Storage Account Name: $destStorageAccountName"
write-host "Storage Account Key: $destStorageAccountKey"
Write-host "`nScript completed" -ForegroundColor Green
Verificar a conta de armazenamento
- Entre no Portal do Azure.
- À esquerda, navegue até Todos os serviços>Geral>Grupos de recursos.
- Selecione o nome do grupo de recursos criado em seu script do PowerShell. Use o filtro se houver muitos grupos de recursos listados.
- Na exibição Visão geral, você verá um recurso listado, a menos que compartilhe o grupo de recursos com outros projetos. Esse recurso é a conta de armazenamento com o nome especificado anteriormente. Selecione o nome da conta de armazenamento.
- Selecione o bloco Contêineres.
- Selecione o contêiner adfgetstarted. Você vê uma pasta chamada
hivescripts
. - Abra a pasta e certifique-se de que contém o arquivo de script de exemplo partitionweblogs.hql.
Entender a atividade do Azure Data Factory
O Azure Data Factory orquestra e automatiza a movimentação e a transformação dos dados. O Azure Data Factory pode criar um cluster HDInsight Hadoop just-in-time para processar uma fatia de entrada de dados e excluir o cluster quando o processamento for concluído.
No Azure Data Factory, um data factory pode ter um ou mais pipelines de dados. Um pipeline de dados tem uma ou mais atividades. Há dois tipos de atividades:
- Atividades de Movimentação de Dados. Você pode usar as atividades de movimentação de dados para mover dados de um repositório de dados de origem para um repositório de dados de destino.
- Atividades de transformação de dados. Você pode usar as atividades de transformação de dados para transformar/processar dados. A atividade do HDInsight Hive é uma das atividades de transformação com suporte pelo Data Factory. Você pode usar a atividade de transformação do Hive neste tutorial.
Neste artigo, você deve configurar a atividade de Hive para criar um cluster Hadoop do HDInsight sob demanda. Quando a atividade é executada para processar dados, aqui está o que acontece:
Um cluster Hadoop do HDInsight é criado automaticamente para você just-in-time para processar a fatia.
Os dados de entrada são processados executando um script HiveQL no cluster. Neste tutorial, o script HiveQL associado à atividade hive faz as seguintes ações:
- Usa a tabela existente (hivesampletable) para criar outra tabela HiveSampleOut.
- Preencha a tabela HiveSampleOut com apenas a colunas específicas do original hivesampletable.
O cluster HDInsight Hadoop é excluído depois que o processamento é concluído e o cluster está ocioso pelo período de tempo configurado (configuração timeToLive). Se a próxima fatia de dados estiver disponível para processamento nesse tempo ocioso timeToLive, o mesmo cluster será usado para processar a fatia.
Criar uma data factory
Entre no portal do Azure.
No menu à esquerda, navegue até
+ Create a resource
>Análise>Data Factory.Insira ou selecione os seguintes valores para o bloco Novo data factory:
Propriedade Valor Nome Insira um nome para o data factory. Esse nome deve ser globalmente exclusivo. Versão Deixe como V2. Subscription Selecione sua assinatura do Azure. Resource group Selecione o grupo de recursos criado usando o script do PowerShell. Location O local é definido automaticamente para o local que você especificou ao criar o grupo de recursos anterior. Para este tutorial, o local é definido como Leste dos EUA. Habilitar o GIT Desmarque essa caixa. Selecione Criar. Criar um data factory pode levar entre 2 a 4 minutos.
Depois que o data factory for criado, você receberá uma notificação de Implantação bem-sucedida com um botão Ir para o recurso. Selecione ir para o recurso para abrir a exibição padrão do Data Factory.
Selecione Autor & Monitor para iniciar o portal de criação e monitoramento do Azure Data Factory.
Criar serviços vinculados
Nesta seção, você pode criar dois serviços vinculados no data factory.
- Um serviço vinculado do Armazenamento do Azure que vincula uma conta de Armazenamento do Azure ao data factory. Esse armazenamento é usado pelo cluster HDInsight sob demanda. Ele também contém o script Hive que é executado no cluster.
- Um serviço vinculado do HDInsight sob demanda. O Azure Data Factory cria automaticamente um cluster HDInsight e executa o script Hive. Em seguida, ele exclui o cluster HDInsight após o cluster ficar ocioso por um tempo pré-configurado.
Criar um serviço vinculado do Armazenamento do Azure
No painel esquerdo da página Vamos começar, selecione o ícone Criar.
Selecione Conexões do canto inferior esquerdo da janela e, depois, selecione + Novo.
Na caixa de diálogo Novo Serviço Vinculado, selecione Armazenamento de Blobs do Azure e selecione Continuar.
Forneça os seguintes valores para o serviço vinculado de armazenamento:
Propriedade Valor Nome Digite HDIStorageLinkedService
.Assinatura do Azure Selecione sua assinatura na lista suspensa. Nome da conta de armazenamento Selecione a conta de armazenamento do Azure que você criou como parte do script do PowerShell. Selecione Testar conexão e, se tiver êxito, selecione Criar.
Criar um serviço vinculado do HDInsight sob demanda
Selecione o botão + Novo novamente para criar outro serviço vinculado.
Na janela Novo Serviço Vinculado, selecione a guia Computação.
Selecione Azure HDInsight e, em seguida, selecione Continuar.
Na janela Novo Serviço Vinculado, insira os seguintes valores e mantenha os demais como padrão:
Propriedade Valor Nome Digite HDInsightLinkedService
.Type Selecione HDInsight sob demanda. Serviço vinculado de armazenamento do Azure Selecione HDIStorageLinkedService
.Tipo de cluster Selecione hadoop Vida útil Forneça a duração para a qual você deseja que o cluster HDInsight esteja disponível antes de ser excluído automaticamente. ID da entidade de serviço Forneça a ID do aplicativo da entidade de serviço do Microsoft Entra que você criou como parte dos pré-requisitos. Chave da entidade de serviço Forneça a chave de autenticação para a entidade de serviço do Microsoft Entra. Prefixo do nome do cluster Forneça um valor que será prefixado para todos os tipos de cluster criados pelo data factory. Subscription Selecione sua assinatura na lista suspensa. Escolha o grupo de recursos Selecione o grupo de recursos criado como parte do script do PowerShell que você usou anteriormente. Tipo de SO/nome de usuário do cluster SSH Insira um nome de usuário SSH, normalmente sshuser
.Tipo de SO/senha do cluster SSH Forneça uma senha para o usuário do SSH Tipo de SO/nome de usuário do cluster Insira um nome de usuário do cluster, normalmente admin
.Tipo de SO/senha do cluster Forneça uma senha para o usuário do cluster. Em seguida, selecione Criar.
Criar um pipeline
Selecione o botão + (adição) e escolha Pipeline.
Na caixa de ferramentas Atividades, expanda HDInsighte arraste a atividade Hive para a superfície do designer de pipeline. Na guia Geral, forneça um nome para a atividade.
Com a atividade do Hive selecionada, selecione a guia Cluster HDI. E, na lista suspensa Serviço vinculado HDInsight, selecione o serviço vinculado criado anteriormente, HDInsightLinkedService, para o HDInsight.
Selecione a guia Script e conclua as etapas a seguir:
Para Serviço vinculado de script, selecione HDIStorageLinkedService na lista suspensa. Este valor é o serviço vinculado de armazenamento criado anteriormente.
Para Caminho do arquivo, selecione Procurar armazenamento e navegue até o local onde o script de Hive de exemplo está disponível. Se você executou o script do PowerShell anteriormente, esse local deve ser
adfgetstarted/hivescripts/partitionweblogs.hql
.Em Avançado>Parâmetros, selecione
Auto-fill from script
. Essa opção procura todos os parâmetros de script do Hive que exigem valores em runtime.Na caixa de texto Valor, adicione a pasta existente no formato
wasbs://adfgetstarted@<StorageAccount>.blob.core.windows.net/outputfolder/
. O caminho diferencia maiúsculas de minúsculas. Este caminho é o local em que a saída do script será armazenada. O esquemawasbs
é necessário porque as contas de armazenamento agora têm a transferência segura necessária habilitada por padrão.
Selecione Validar para validar o pipeline. Selecione a >> (seta para a direita) para fechar a janela de validação.
Por fim, selecione Publicar tudo para publicar os artefatos no Azure Data Factory.
Disparar um pipeline
Na barra de ferramentas na superfície de design, selecione Adicionar gatilho>Disparar agora.
Selecione OK na barra lateral da pop-up.
Como monitorar um pipeline
Alterne para a guia Monitorar à esquerda. Você vê uma execução de pipeline na lista Execuções de Pipeline. Observe o status da execução na coluna Status.
Selecione Atualizar para atualizar o status.
Você também pode monitorar o ícone Exibir Execuções da Atividade para ver a execução de atividade associada ao pipeline. Na captura de tela abaixo, você vê somente uma execução de atividade, já que há apenas uma atividade no pipeline que você criou. Para voltar para o modo de exibição anterior, selecione Pipelines no topo da página.
Verificar a saída
Para verificar a saída, no portal do Azure, navegue até a conta de armazenamento que você usou para este tutorial. Você deve ver as seguintes pastas ou contêineres:
Você verá um adfgerstarted/outputfolder que contém a saída do script de Hive que foi executado como parte do pipeline.
Você verá um contêiner adfhdidatafactory-<linked-service-name>-<timestamp>. Esse contêiner é o local de armazenamento padrão do cluster HDInsight que foi criado como parte da execução do pipeline.
Você verá um contêiner adfjobs que possui logs de trabalho do Azure Data Factory.
Limpar os recursos
Com a criação do cluster HDInsight sob demanda, você não precisa excluir explicitamente o cluster HDInsight. O cluster é excluído com base na configuração fornecida durante a criação do pipeline. Mesmo depois que o cluster é excluído, as contas de armazenamento associadas ao cluster continuam a existir. Esse comportamento ocorre por design, para que você possa manter os dados intactos. No entanto, se você não deseja manter os dados, pode excluir a conta de armazenamento que você criou.
Ou você pode excluir o grupo de recursos inteiro que você criou para este tutorial. Esse processo exclui a conta de armazenamento e o Azure Data Factory que você criou.
Exclua o grupo de recursos
Entre no Portal do Azure.
Selecione Grupos de recursos no painel esquerdo.
Selecione o nome do grupo de recursos criado em seu script do PowerShell. Use o filtro se houver muitos grupos de recursos listados. Ele abre o grupo de recursos.
No bloco Recursos , a conta de armazenamento padrão e o data factory deverão estar listados, a menos que você compartilhe o grupo de recursos com outros projetos.
Selecione Excluir grupo de recursos. Isso exclui a conta de armazenamento e os dados armazenados na conta de armazenamento.
Insira o nome do grupo de recursos para confirmar a exclusão e, em seguida, selecione Excluir.
Próximas etapas
Neste artigo, você aprendeu a usar o Azure Data Factory para criar o cluster HDInsight sob demanda e executar trabalhos do Apache Hive. Avance para o próximo artigo para aprender a criar clusters HDInsight com a configuração personalizada.