Eventi
31 mar, 23 - 2 apr, 23
Il più grande evento di apprendimento di Fabric, Power BI e SQL. 31 marzo - 2 aprile. Usare il codice FABINSIDER per salvare $400.
Iscriviti oggi stessoQuesto browser non è più supportato.
Esegui l'aggiornamento a Microsoft Edge per sfruttare i vantaggi di funzionalità più recenti, aggiornamenti della sicurezza e supporto tecnico.
SI APPLICA A: Azure Data Factory
Azure Synapse Analytics
Suggerimento
Provare Data Factory in Microsoft Fabric, una soluzione di analisi all-in-one per le aziende. Microsoft Fabric copre tutto, dallo spostamento dati al data science, all'analisi in tempo reale, alla business intelligence e alla creazione di report. Vedere le informazioni su come iniziare una nuova prova gratuita!
Nota
Il gestore dell'orchestrazione del flusso di lavoro dispone di tecnologia Apache Airflow.
Apache Airflow offre diversi back-end per l'archiviazione sicura di informazioni riservate, ad esempio variabili e connessioni. Una di queste opzioni è Azure Key Vault. Questo articolo illustra il processo di configurazione di Key Vault come back-end segreto per Apache Airflow all'interno di un ambiente di Workflow Orchestration Manager.
Nota
Workflow Orchestration Manager per Azure Data Factory si basa sull'applicazione Apache Airflow open source. Per la documentazione e altre esercitazioni su Airflow, vedere la documentazione di Apache Airflow o le pagine Web della community.
Assegnare il nome SPN ai seguenti ruoli predefiniti nell'istanza Key Vault:
Per abilitare Key Vault come back-end segreto per l'istanza di Workflow Orchestration Manager:
Passare all'ambiente del runtime di integrazione dell'istanza di Workflow Orchestration Manager.
Installare apache-airflow-providers-microsoft-azure per i requisiti di Airflow durante la configurazione iniziale dell'ambiente Airflow.
Aggiungere le impostazioni seguenti per le sostituzioni della configurazione airflow nelle proprietà del runtime di integrazione:
airflow.providers.microsoft.azure.secrets.key_vault.AzureKeyVaultBackend
{"connections_prefix": "airflow-connections", "variables_prefix": "airflow-variables", "vault_url": **\<your keyvault uri\>**}
Aggiungere le variabili seguenti per la configurazione delle variabili di ambiente nelle proprietà del runtime di integrazione Airflow:
È quindi possibile usare variabili e connessioni che vengono archiviate automaticamente in Key Vault. I nomi delle connessioni e delle variabili devono seguire AIRFLOW__SECRETS__BACKEND_KWARGS
, come definito in precedenza. Per altre informazioni, vedere Azure Key Vault come back-end segreto.
Creare un nuovo file Python adf.py
con il contenuto seguente:
from datetime import datetime, timedelta
from airflow.operators.python_operator import PythonOperator
from textwrap import dedent
from airflow.models import Variable
from airflow import DAG
import logging
def retrieve_variable_from_akv():
variable_value = Variable.get("sample-variable")
logger = logging.getLogger(__name__)
logger.info(variable_value)
with DAG(
"tutorial",
default_args={
"depends_on_past": False,
"email": ["airflow@example.com"],
"email_on_failure": False,
"email_on_retry": False,
"retries": 1,
"retry_delay": timedelta(minutes=5),
},
description="This DAG shows how to use Azure Key Vault to retrieve variables in Apache Airflow DAG",
schedule_interval=timedelta(days=1),
start_date=datetime(2021, 1, 1),
catchup=False,
tags=["example"],
) as dag:
get_variable_task = PythonOperator(
task_id="get_variable",
python_callable=retrieve_variable_from_akv,
)
get_variable_task
Archiviare le variabili per le connessioni in Key Vault. Per altre informazioni, vedere Memorizzare credenziali in Azure Key Vault.
Eventi
31 mar, 23 - 2 apr, 23
Il più grande evento di apprendimento di Fabric, Power BI e SQL. 31 marzo - 2 aprile. Usare il codice FABINSIDER per salvare $400.
Iscriviti oggi stesso