evento
31/03, 23 - 2/04, 23
O maior evento de aprendizagem de Malha, Power BI e SQL. 31 de março a 2 de abril. Use o código FABINSIDER para economizar $400.
Registe-se hoje mesmoEste browser já não é suportado.
Atualize para o Microsoft Edge para tirar partido das mais recentes funcionalidades, atualizações de segurança e de suporte técnico.
APLICA-SE A: Azure Data Factory
Azure Synapse Analytics
Sugestão
Experimente o Data Factory no Microsoft Fabric, uma solução de análise tudo-em-um para empresas. O Microsoft Fabric abrange tudo, desde a movimentação de dados até ciência de dados, análises em tempo real, business intelligence e relatórios. Saiba como iniciar uma nova avaliação gratuitamente!
Nota
Synapse Analytics também suporta CI/CD. Consulte a documentação do Synapse Analytics CI/CD para obter mais informações.
A integração contínua é a prática de testar automaticamente cada alteração feita ao código base. O mais cedo possível, a entrega contínua segue os testes que acontecem durante a integração contínua e empurra as alterações para um sistema de preparação ou produção.
No Azure Data Factory, CI/CD significa mover pipelines do Data Factory de um ambiente, como desenvolvimento, teste e produção, para outro. O Data Factory usa modelos do Azure Resource Manager (modelos ARM) para armazenar a configuração de suas várias entidades do Data Factory, como pipelines, conjuntos de dados e fluxos de dados.
Há dois métodos sugeridos para promover uma fábrica de dados para outro ambiente:
Para obter mais informações, consulte Integração e entrega contínuas no Azure Data Factory.
Este artigo se concentra nas melhorias contínuas de implantação e no recurso de publicação automatizada para CI/CD.
O recurso de publicação automatizada usa os recursos de modelo Validar tudo e Exportar ARM da experiência do usuário do Data Factory e torna a lógica consumível por meio de um pacote npm disponível publicamente @microsoft/azure-data-factory-utilities. Por esse motivo, você pode acionar programaticamente essas ações em vez de ter que ir para a interface do usuário do Data Factory e selecionar um botão manualmente. Esta capacidade irá proporcionar uma experiência de integração contínua mais verdadeira aos seus pipelines de CI/CD.
Nota
Certifique-se de usar a versão do nó 18.x e sua versão compatível para evitar erros que podem ocorrer devido à incompatibilidade do pacote com versões mais antigas.
No fluxo atual de CI/CD, a experiência do usuário é a intermediária para criar o modelo ARM. Como resultado, um usuário deve ir para a interface do usuário do Data Factory e selecionar manualmente Publicar para iniciar a geração do modelo ARM e soltá-lo na ramificação de publicação.
Nota
Você pode continuar a usar o mecanismo existente, que é a adf_publish
ramificação, ou você pode usar o novo fluxo. Ambos são suportados.
Dois comandos estão atualmente disponíveis no pacote:
Execute npm run build export <rootFolder> <factoryId> [outputFolder]
para exportar o modelo ARM usando os recursos de uma determinada pasta. Este comando também executa uma verificação de validação antes de gerar o modelo ARM. Aqui está um exemplo usando um grupo de recursos chamado testResourceGroup:
npm run build export C:\DataFactories\DevDataFactory /subscriptions/xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx/resourceGroups/testResourceGroup/providers/Microsoft.DataFactory/factories/DevDataFactory ArmTemplateOutput
RootFolder
é um campo obrigatório que representa onde os recursos do Data Factory estão localizados.FactoryId
é um campo obrigatório que representa o ID do recurso Data Factory no formato /subscriptions/<subId>/resourceGroups/<rgName>/providers/Microsoft.DataFactory/factories/<dfName>
.OutputFolder
é um parâmetro opcional que especifica o caminho relativo para salvar o modelo ARM gerado.A capacidade de parar/iniciar apenas os gatilhos atualizados agora está disponível em geral e é mesclada no comando mostrado acima.
Nota
O modelo ARM gerado não é publicado na versão ativa da fábrica. A implantação deve ser feita usando um pipeline de CI/CD.
Execute npm run build validate <rootFolder> <factoryId>
para validar todos os recursos de uma determinada pasta. Eis um exemplo:
npm run build validate C:\DataFactories\DevDataFactory /subscriptions/xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx/resourceGroups/testResourceGroup/providers/Microsoft.DataFactory/factories/DevDataFactory
RootFolder
é um campo obrigatório que representa onde os recursos do Data Factory estão localizados.FactoryId
é um campo obrigatório que representa o ID do recurso Data Factory no formato /subscriptions/<subId>/resourceGroups/<rgName>/providers/Microsoft.DataFactory/factories/<dfName>
.Embora os pacotes npm possam ser consumidos de várias maneiras, um dos principais benefícios é ser consumido por meio do Azure Pipeline. Em cada mesclagem em sua ramificação de colaboração, um pipeline pode ser acionado que primeiro valida todo o código e, em seguida, exporta o modelo ARM para um artefato de compilação que pode ser consumido por um pipeline de liberação. Como ele difere do processo de CI/CD atual é que você apontará seu pipeline de liberação para esse artefato em vez da ramificação existenteadf_publish
.
Siga estes passos para começar:
Abra um projeto de DevOps do Azure e vá para Pipelines. Selecione Novo Pipeline.
Selecione o repositório onde você deseja salvar o script YAML do pipeline. Recomendamos salvá-lo em uma pasta de compilação no mesmo repositório de seus recursos do Data Factory. Verifique se há um arquivo package.json no repositório que contenha o nome do pacote, conforme mostrado no exemplo a seguir:
{
"scripts":{
"build":"node node_modules/@microsoft/azure-data-factory-utilities/lib/index"
},
"dependencies":{
"@microsoft/azure-data-factory-utilities":"^1.0.0"
}
}
Selecione Pipeline inicial. Se você carregou ou mesclou o arquivo YAML, como mostrado no exemplo a seguir, você também pode apontar diretamente para ele e editá-lo.
# Sample YAML file to validate and export an ARM template into a build artifact
# Requires a package.json file located in the target repository
trigger:
- main #collaboration branch
pool:
vmImage: 'ubuntu-latest'
steps:
# Installs Node and the npm packages saved in your package.json file in the build
- task: UseNode@1
inputs:
version: '18.x'
displayName: 'Install Node.js'
- task: Npm@1
inputs:
command: 'install'
workingDir: '$(Build.Repository.LocalPath)/<folder-of-the-package.json-file>' #replace with the package.json folder
verbose: true
displayName: 'Install npm package'
# Validates all of the Data Factory resources in the repository. You'll get the same validation errors as when "Validate All" is selected.
# Enter the appropriate subscription and name for the source factory. Either of the "Validate" or "Validate and Generate ARM template" options are required to perform validation. Running both is unnecessary.
- task: Npm@1
inputs:
command: 'custom'
workingDir: '$(Build.Repository.LocalPath)/<folder-of-the-package.json-file>' #replace with the package.json folder
customCommand: 'run build validate $(Build.Repository.LocalPath)/<Root-folder-from-Git-configuration-settings-in-ADF> /subscriptions/xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx/resourceGroups/<Your-ResourceGroup-Name>/providers/Microsoft.DataFactory/factories/<Your-Factory-Name>'
displayName: 'Validate'
# Validate and then generate the ARM template into the destination folder, which is the same as selecting "Publish" from the UX.
# The ARM template generated isn't published to the live version of the factory. Deployment should be done by using a CI/CD pipeline.
- task: Npm@1
inputs:
command: 'custom'
workingDir: '$(Build.Repository.LocalPath)/<folder-of-the-package.json-file>' #replace with the package.json folder
customCommand: 'run build export $(Build.Repository.LocalPath)/<Root-folder-from-Git-configuration-settings-in-ADF> /subscriptions/xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx/resourceGroups/<Your-ResourceGroup-Name>/providers/Microsoft.DataFactory/factories/<Your-Factory-Name> "ArmTemplate"'
#For using preview that allows you to only stop/ start triggers that are modified, please comment out the above line and uncomment the below line. Make sure the package.json contains the build-preview command.
#customCommand: 'run build-preview export $(Build.Repository.LocalPath) /subscriptions/aaaa0a0a-bb1b-cc2c-dd3d-eeeeee4e4e4e/resourceGroups/GartnerMQ2021/providers/Microsoft.DataFactory/factories/Dev-GartnerMQ2021-DataFactory "ArmTemplate"'
displayName: 'Validate and Generate ARM template'
# Publish the artifact to be used as a source for a release pipeline.
- task: PublishPipelineArtifact@1
inputs:
targetPath: '$(Build.Repository.LocalPath)/<folder-of-the-package.json-file>/ArmTemplate' #replace with the package.json folder
artifact: 'ArmTemplates'
publishLocation: 'pipeline'
Introduza o seu código YAML. Recomendamos que você use o arquivo YAML como ponto de partida.
Salve e execute. Se você usou o YAML, ele é acionado toda vez que a ramificação principal é atualizada.
Nota
Os artefatos gerados já contêm scripts pré e pós-implantação para os gatilhos, portanto, não é necessário adicioná-los manualmente. No entanto, ao implantar, ainda seria necessário consultar a documentação sobre como parar e iniciar gatilhos para executar o script fornecido.
Saiba mais informações sobre integração e entrega contínuas no Data Factory: Integração e entrega contínuas no Azure Data Factory.
evento
31/03, 23 - 2/04, 23
O maior evento de aprendizagem de Malha, Power BI e SQL. 31 de março a 2 de abril. Use o código FABINSIDER para economizar $400.
Registe-se hoje mesmoFormação
Módulo
Operacionalizar o Azure Data Factory ou o Azure Synapse Pipeline - Training
Operacionalizar o Azure Data Factory ou o Azure Synapse Pipeline
Certificação
Certificado pela Microsoft: Power Automate RPA Developer Associate - Certifications
Demonstre como melhorar e automatizar fluxos de trabalho com o desenvolvedor RPA do Microsoft Power Automatic.