Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Questo articolo fornisce informazioni di riferimento sulle chiavi supportate dalla configurazione dei bundle di asset di Databricks (YAML). Consulta Che cosa sono i Databricks asset bundle?.
Per esempi completi di bundle, vedere gli esempi di configurazione del bundle e il repository GitHub bundle-examples.
Artefatti
Type: Map
Specifica gli artefatti da compilare automaticamente durante le distribuzioni di bundle che possono essere usate in un secondo momento nelle esecuzioni del bundle. Ogni chiave è il nome dell'artefatto e il valore è una mappa che definisce le impostazioni di compilazione dell'artefatto.
Suggerimento
È possibile definire, combinare ed eseguire l'override delle impostazioni per gli artefatti nei bundle, come descritto in Eseguire l'override con le impostazioni di destinazione.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
artifacts:
<artifact-name>:
<artifact-field-name>: <artifact-field-value>
| Chiave | Digitare | Descrizione |
|---|---|---|
build |
Stringa | Set facoltativo di comandi di compilazione da eseguire localmente prima della distribuzione. Per le compilazioni con il wheel Python, l'interfaccia della riga di comando di Databricks presuppone che sia possibile trovare un'installazione locale del pacchetto Python wheel per eseguire le compilazioni ed esegue il comando python setup.py bdist_wheel per impostazione predefinita durante ogni distribuzione del bundle. Specificare più comandi di compilazione in righe separate.Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
dynamic_version |
Booleano | Indica se applicare la patch alla versione della rotellina in modo dinamico in base al timestamp del file whl. Se è impostato su true, è possibile distribuire un nuovo codice senza dover aggiornare la versione in setup.py o pyproject.toml. Questa impostazione è valida solo se type è impostata su whl.Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.245.0 |
executable |
Stringa | Tipo eseguibile. I valori validi sono bash, she cmd.Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
files |
Sequenza | Percorso relativo o assoluto dei file di artefatti compilati. Vedere artefatti.name.files. Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
path |
Stringa | Percorso locale della directory per l'artefatto. I percorsi sono relativi al percorso del file di configurazione del bundle. Per le compilazioni con rotellina Python, si tratta del percorso del file della setup.py rotellina Python. Se path non è incluso, il client CLI di Databricks tenta di trovare il file wheel Python setup.py nella radice del bundle.Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
type |
Stringa | Obbligatorio se l'artefatto è una rotellina Python. Tipo dell'artefatto. I valori validi sono whl e jar. Questa impostazione non deve essere specificata per compilare altri artefatti.Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
Esempi
La configurazione seguente crea una rotellina Python usando Poetry:
artifacts:
default:
type: whl
build: poetry build
path: .
La configurazione seguente esegue test e compila una rotellina. Per un'esercitazione completa sull'aggregazione usata artifacts per creare una rotellina, vedere Creare un file con rotellina Python usando i bundle di asset di Databricks.
artifacts:
default:
type: whl
build: |-
# run tests
python -m pytest tests/ -v
# build the actual artifact
python setup.py bdist_wheel
path: .
Per un esempio di configurazione che compila un file JAR e lo carica in Unity Catalog, vedere Bundle che carica un file JAR in Unity Catalog.
Manufatti. name.files
Type: Sequence
Percorso relativo o assoluto dei file di artefatti compilati. Utilizzare source per specificare gli artefatti compilati. I percorsi sono relativi al percorso del file di configurazione del bundle.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
| Chiave | Digitare | Descrizione |
|---|---|---|
source |
Stringa | Obbligatorio. File di origine dell'artefatto. Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
pacchetto
Type: Map
Attributi del bundle per la distribuzione su questo target.
Un file di configurazione del bundle deve contenere un solo mapping di primo livello bundle .
Questo mapping bundle deve contenere un mapping name che specifica un nome programmatico (o logico) per il bundle. Nell'esempio seguente viene dichiarato un bundle con il nome programmatico (o logico) hello-bundle.
bundle:
name: hello-bundle
Un bundle mapping può anche essere figlio di una o più destinazioni nella mappatura destinazioni principale. Ognuna di queste mappature figlio bundle specifica eventuali sostituzioni non predefinite al livello di destinazione.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
| Chiave | Digitare | Descrizione |
|---|---|---|
cluster_id |
Stringa | ID di un cluster da usare per eseguire il bundle. Questa chiave consente di specificare l'ID di un cluster da usare come override per i cluster definiti altrove nel file di configurazione del bundle. Per informazioni su come recuperare l'ID di un cluster, vedere URL e ID della risorsa di calcolo. L'override cluster_id è destinato agli scenari di solo sviluppo ed è supportato solo per la destinazione con il relativo mapping mode impostato su development. Per altre informazioni sulla mappatura target, vedere destinazioni.Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
compute_id |
Stringa | Deprecato. ID dell'ambiente di calcolo da usare per eseguire il bundle. Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
databricks_cli_version |
Stringa | Versione della CLI (interfaccia della riga di comando) di Databricks da utilizzare con il bundle. Vedere bundle.databricks_cli_version. Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
deployment |
Mappa | La definizione della distribuzione del bundle. Per gli attributi supportati, vedere Modalità di distribuzione del bundle di asset di Databricks. Vedere bundle.deployment. Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
git |
Mappa | I dettagli del controllo della versione Git associati al bundle. Per gli attributi supportati, vedere git. Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
name |
Stringa | Nome del pacchetto. Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
uuid |
Stringa | Riservato. Identificatore Univoco Universale (UUID) per il bundle che lo identifica in modo univoco all'interno dei sistemi interni di Databricks. Questo viene generato quando un progetto bundle viene inizializzato usando un modello di Databricks (usando il comando databricks bundle init).Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.236.0 |
bundle.databricks_cli_version
Il mapping bundle può contenere un mapping databricks_cli_version che vincola la versione dell'interfaccia della riga di comando di Databricks richiesta dal bundle. Ciò può impedire problemi causati dall'uso di mapping non supportati in una determinata versione dell'interfaccia della riga di comando di Databricks.
La versione dell'interfaccia della riga di comando di Databricks è conforme al controllo delle versioni semantiche e il databricks_cli_version mapping supporta la specifica dei vincoli di versione. Se il valore corrente databricks --version non rientra nei limiti specificati nel mapping del databricks_cli_version bundle, si verifica un errore quando databricks bundle validate viene eseguito nel bundle. Gli esempi seguenti illustrano una sintassi comune dei vincoli di versione:
bundle:
name: hello-bundle
databricks_cli_version: '0.218.0' # require Databricks CLI 0.218.0
bundle:
name: hello-bundle
databricks_cli_version: '0.218.*' # allow all patch versions of Databricks CLI 0.218
bundle:
name: my-bundle
databricks_cli_version: '>= 0.218.0' # allow any version of Databricks CLI 0.218.0 or higher
bundle:
name: my-bundle
databricks_cli_version: '>= 0.218.0, <= 1.0.0' # allow any Databricks CLI version between 0.218.0 and 1.0.0, inclusive
bundle.deployment
Type: Map
Definizione della distribuzione del bundle
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
| Chiave | Digitare | Descrizione |
|---|---|---|
fail_on_active_runs |
Booleano | Indica se l'esecuzione attiva ha esito negativo. Se è impostato su true, una distribuzione in esecuzione può essere interrotta. Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
lock |
Mappa | Attributi di blocco della distribuzione. Vedere bundle.deployment.lock. Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
bundle.deployment.lock
Type: Map
Attributi di blocco della distribuzione.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
| Chiave | Digitare | Descrizione |
|---|---|---|
enabled |
Booleano | Indica se questo blocco è abilitato. Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
force |
Booleano | Indica se forzare questo blocco se è abilitato. Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
sperimentale
Type: Map
Definisce gli attributi per le funzionalità sperimentali.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
| Chiave | Digitare | Descrizione |
|---|---|---|
python |
Mappa | Deprecato. Usare invece il mapping python di primo livello. Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.238.0 |
python_wheel_wrapper |
Booleano | Se utilizzare un pacchetto wheel di Python. Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
scripts |
Mappa | Comandi da eseguire. Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
skip_artifact_cleanup |
Booleano | Determina se ignorare l'eliminazione della .internal cartella all'interno workspace.artifact_pathdi . Per impostazione predefinita, questa cartella viene eliminata prima di caricare nuovi artefatti di compilazione (ad esempio le ruote Python) durante la distribuzione. Impostare su true per mantenere gli artefatti esistenti tra le distribuzioni.Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.254.0 |
skip_name_prefix_for_schema |
Booleano | Se ignorare l'aggiunta del prefisso (impostato in presets.name_prefix o calcolato quando mode: development) ai nomi degli schemi del catalogo Unity definiti nel bundle.Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.255.0 |
use_legacy_run_as |
Booleano | Indica se utilizzare il comportamento legacy di run_as. Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
includere
Type: Sequence
Specifica un elenco di glob di percorso che contengono file di configurazione da includere all'interno del bundle. Questi glob di percorso sono relativi al percorso del file di configurazione del bundle in cui vengono specificati i glob del percorso.
databricks.ymlA parte , è necessario usare la include matrice per specificare tutti i file di configurazione da includere all'interno del bundle.
Suggerimento
Per includere o escludere altri file nel bundle, usare include ed exclude.
Questa matrice include può essere visualizzata solo come mapping di primo livello.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
La configurazione di esempio seguente include tre file di configurazione. Questi file si trovano nella stessa cartella del file di configurazione del bundle:
include:
- 'bundle.artifacts.yml'
- 'bundle.resources.yml'
- 'bundle.targets.yml'
La configurazione di esempio seguente include tutti i file con nomi file che iniziano con bundle e terminano con .yml. Questi file si trovano nella stessa cartella del file di configurazione del bundle:
include:
- 'bundle*.yml'
Autorizzazioni
Type: Sequence
Definisce le autorizzazioni da applicare alle risorse definite nel bundle, in cui ogni elemento della sequenza è un'autorizzazione per un'entità specifica. Consultare Impostare le autorizzazioni per le risorse nei Bundle di Asset di Databricks.
I livelli di autorizzazione di primo livello consentiti sono CAN_VIEW, CAN_MANAGE e CAN_RUN.
Per applicare autorizzazioni a una risorsa specifica, vedere Definire le autorizzazioni per una risorsa specifica.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
| Chiave | Digitare | Descrizione |
|---|---|---|
group_name |
Stringa | Nome del gruppo con il set di autorizzazioni a livello. Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
level |
Stringa | Autorizzazioni consentite per utente, gruppo, principale del servizio definite per questo permesso. I valori validi per questa chiave sono diversi a seconda che le autorizzazioni siano definite al livello superiore del bundle o per una risorsa specifica. Consultare Impostare le autorizzazioni per le risorse nei Bundle di Asset di Databricks. Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
service_principal_name |
Stringa | Nome del principale servizio che ha le autorizzazioni impostate a livello. Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
user_name |
Stringa | Nome dell'utente che ha le autorizzazioni impostate a livello. Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
Esempio
La configurazione di esempio seguente definisce i livelli di autorizzazione per un utente, un gruppo e un'entità servizio, che vengono applicati a tutte le risorse definite nel resources bundle:
permissions:
- level: CAN_VIEW
group_name: test-group
- level: CAN_MANAGE
user_name: someone@example.com
- level: CAN_RUN
service_principal_name: 123456-abcdef
Preimpostazioni
Type: Map
Definisce le preimpostazioni di distribuzione del bundle. Per altre informazioni, vedere Impostazioni predefinite personalizzate.
A meno che non venga specificata un'eccezione per un set di impostazioni, se mode entrambi e presets sono impostati, i set di impostazioni sostituiscono il comportamento della modalità predefinita e le impostazioni delle singole risorse sostituiscono i set di impostazioni.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
| Preset | Descrizione |
|---|---|
artifacts_dynamic_version |
Indica se aggiornare in modo dinamico la versione degli whl artefatti durante la distribuzione. I valori validi sono true o false. Se viene specificata l'impostazione di configurazione di artifacts.dynamic_version di primo livello, esegue l'override di questo set di impostazioni.Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.256.0 |
jobs_max_concurrent_runs |
Numero massimo di esecuzioni simultanee consentite per i job. Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
name_prefix |
Stringa di prefisso da anteporre ai nomi delle risorse. Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
pipelines_development |
Indica se le distribuzioni della pipeline devono essere bloccate in modalità di sviluppo. I valori validi sono true o false.Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
source_linked_deployment |
Indica se le risorse create durante la distribuzione puntano ai file di origine nell'area di lavoro anziché alle loro copie nell'area di lavoro. Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.236.0 |
tags |
Insieme di tag chiave:valore che si applicano a tutte le risorse che supportano i tag, inclusi processi ed esperimenti. I bundle di asset di Databricks non supportano i tag per la schema risorsa.Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
trigger_pause_status |
Stato di pausa da applicare a tutti i trigger e le pianificazioni. I valori validi sono PAUSED o UNPAUSED.Se mode è impostato su development, trigger_pause_status è sempre PAUSED.Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
python
Type: Map
Configura il caricamento del codice Python definito con il pacchetto databricks-bundles. Per altre informazioni, vedere Configurazione del bundle in Python.
Spostato dall'interfaccia experimental della riga di comando di Databricks versione 0.275.0
| Chiave | Digitare | Descrizione |
|---|---|---|
mutators |
Sequenza | I mutatori contengono un elenco di percorsi di funzione completi per le funzioni mutatorie, ad esempio [my_project.mutators:add_default_cluster].Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.238.0 |
resources |
Sequenza | Le risorse contengono un elenco di percorsi di funzione completi per caricare le risorse definite nel codice Python, ad esempio ["my_project.resources:load_resources"]Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.238.0 |
venv_path |
Stringa | Il percorso dell'ambiente virtuale. Se abilitato, il codice Python viene eseguito all'interno di questo ambiente. Se disabilitato, per impostazione predefinita viene usato l'interprete Python disponibile nella shell corrente. Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.238.0 |
risorse
Type: Map
Definisce le risorse per il bundle, dove ogni chiave è il nome della risorsa e il valore è una mappa che definisce la risorsa. Per ulteriori informazioni sulle risorse supportate dai bundle di asset di Databricks e sulla documentazione di riferimento per le definizioni delle risorse, vedere risorse dei bundle di asset di Databricks.
Il resources mapping può essere visualizzato come mapping di primo livello oppure può essere figlio di una o più destinazioni nel mapping delle destinazioni di primo livello e include zero o uno dei tipi di risorse supportati. Ogni mapping dei tipi di risorsa include una o più dichiarazioni di risorse singole, che devono avere un nome univoco. Queste singole dichiarazioni di risorse usano il payload di richiesta dell'operazione di creazione dell'oggetto corrispondente, espresso in YAML, per definire la risorsa. Le proprietà supportate per una risorsa sono i campi supportati dell'oggetto corrispondente.
I payload della richiesta di operazione di creazione sono documentati in Informazioni di riferimento sull'API REST di Databricks e il databricks bundle schema comando restituisce tutti gli schemi di oggetti supportati. Inoltre, il comando databricks bundle validate restituisce avvisi se le proprietà sconosciute delle risorse vengono trovate nei file di configurazione del bundle.
Per ulteriori informazioni sulle risorse supportate nei bundle, così come configurazioni ed esempi comuni, vedere risorse dei bundle di asset di Databricks e esempi di configurazione del bundle.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
resources:
<resource-type>:
<resource-name>:
<resource-field-name>: <resource-field-value>
| Chiave | Digitare | Descrizione |
|---|---|---|
alerts |
Mappa | Definizioni di avviso (v2) per il bundle, in cui ogni chiave è il nome dell'avviso. Vedere l'avviso. Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.279.0 |
apps |
Mappa | Le definizioni di app Databricks per il bundle, dove ogni chiave è il nome dell'app. Vedi app. Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.239.0 |
catalogs |
Mappa | Definizioni del catalogo (Catalogo Unity) per il bundle, in cui ogni chiave è il nome di un catalogo. Vedere cataloghi. Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.287.0 |
clusters |
Mappa | Definizioni di cluster per il bundle, in cui ogni chiave è il nome di un cluster. Consulta cluster. Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
dashboards |
Mappa | Le definizioni delle dashboard per il bundle, dove ogni chiave è il nome della dashboard. Consulta il dashboard . Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.232.0 |
database_catalogs |
Mappa | Definizioni del catalogo di database per il bundle, in cui ogni chiave è il nome del catalogo di database. Vedere database_catalog. Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.265.0 |
database_instances |
Mappa | Definizioni di istanza del database per il bundle, in cui ogni chiave è il nome dell'istanza del database. Vedere database_instance. Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.265.0 |
experiments |
Mappa | Definizioni dell'esperimento per il bundle, in cui ogni chiave è il nome dell'esperimento. Vedere l'esperimento. Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
jobs |
Mappa | Definizioni di attività per il bundle, in cui ogni chiave è il nome dell'attività. Vedere il lavoro. Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
model_serving_endpoints |
Mappa | Le definizioni degli endpoint di servizio dei modelli per il pacchetto, dove ogni chiave è il nome dell'endpoint di servizio del modello. Vedere model_serving_endpoint. Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
models |
Mappa | Definizioni di modello per il bundle, in cui ogni chiave è il nome del modello. Consultare il modello (legacy). Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
pipelines |
Mappa | Le definizioni di pipeline per il bundle, dove ogni chiave è il nome della pipeline. Vedere pipeline. Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
postgres_branches |
Mappa | Definizioni di ramo Postgres per il bundle, dove ogni chiave è il nome del ramo Lakebase. Vedere postgres_branch. Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.287.0 |
postgres_endpoints |
Mappa | Le definizioni di endpoint Postgres per il bundle, dove ogni chiave è il nome dell'endpoint di calcolo Lakebase. Vedere postgres_endpoint. Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.287.0 |
postgres_projects |
Mappa | Le definizioni di progetto Postgres per il bundle, in cui ogni chiave è il nome del progetto Lakebase. Vedere postgres_project. Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.287.0 |
quality_monitors |
Mappa | Definizioni di monitoraggio qualità per il bundle, in cui ogni chiave è il nome del monitoraggio qualità. Consulta quality_monitor (Unity Catalog). Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
registered_models |
Mappa | Le definizioni di modello registrate per il bundle, dove ogni chiave è il nome di un modello registrato nel Unity Catalog. Consultare registered_model (Unity Catalog). Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
schemas |
Mappa | Definizioni dello schema per il bundle, in cui ogni chiave è il nome dello schema. Consulta lo schema (Catalogo Unity). Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
secret_scopes |
Mappa | Definizioni di ambito segreto per il bundle, dove ogni chiave rappresenta il nome dell'ambito segreto. Vedere secret_scope. Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.252.0 |
sql_warehouses |
Mappa | Definizioni di SQL Warehouse per il bundle, in cui ogni chiave è il nome del warehouse SQL. Vedere sql_warehouse. Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.260.0 |
synced_database_tables |
Mappa | Definizioni di tabella di database sincronizzate per il bundle, in cui ogni chiave è il nome della tabella di database. Vedere synced_database_table. Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.266.0 |
volumes |
Mappa | Le definizioni dei volumi per il bundle, dove ogni chiave è il nome del volume. Consultare il volume (Catalogo Unity). Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.236.0 |
Esempio
La seguente configurazione di esempio definisce una risorsa attività:
resources:
jobs:
hello-job:
name: hello-job
tasks:
- task_key: hello-task
existing_cluster_id: 1234-567890-abcde123
notebook_task:
notebook_path: ./hello.py
run_as
Type: Map
Identità (user_name o service_principal_name) da usare per eseguire flussi di lavoro dei bundle di asset di Databricks. Consente di separare l'identità usata per distribuire un job bundle o una pipeline da quella usata per eseguire il job o la pipeline. Consultare Specificare un'identità di esecuzione per un flusso di lavoro dei pacchetti di asset di Databricks.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
| Chiave | Digitare | Descrizione |
|---|---|---|
service_principal_name |
Stringa | ID applicazione di un'entità servizio attiva. L'impostazione di questo campo richiede il ruolo servicePrincipal/user.Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
user_name |
Stringa | L'email di un utente attivo dell'area di lavoro. Gli utenti non amministratori possono impostare questo campo solo sul proprio messaggio di posta elettronica. Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
Script
Type: Map
Script che possono essere eseguiti tramite bundle run. Ogni script denominato nel scripts mapping contiene contenuto con i comandi. Vedere Eseguire script.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.259.0
scripts:
<script-name>:
<script-field-name>: <script-field-value>
| Chiave | Digitare | Descrizione |
|---|---|---|
content |
Stringa | Comandi da eseguire Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.259.0 |
Esempi
scripts:
my_script:
content: uv run pytest -m ${bundle.target}
Sincronizzazione
Type: Map
File e percorsi di file da includere o escludere nel bundle.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
| Chiave | Digitare | Descrizione |
|---|---|---|
exclude |
Sequenza | Elenco di file o cartelle da escludere dal bundle. Vedere includere ed escludere. Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
include |
Sequenza | Elenco di file o cartelle da includere nel bundle. Vedere includere ed escludere. Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
paths |
Sequenza | I percorsi delle cartelle locali, che possono essere esterni alla radice del bundle, per eseguire la sincronizzazione con l'area di lavoro quando viene distribuito il bundle. Vedere sync.paths. Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
includere ed escludere
I mapping include e exclude all'interno del mapping sync specificano un elenco di file o cartelle da includere o escludere dalle distribuzioni di bundle, a seconda delle regole seguenti:
- Basato su qualsiasi elenco di file e glob di percorso in un
.gitignorefile posizionato nella radice del bundle, ilincludemapping può contenere un elenco di glob di file, glob di percorso, o entrambi, relativo alla radice del bundle, per includere in modo esplicito. - Basato su qualsiasi elenco di modelli di file e modelli di percorso in un
.gitignorefile nella radice del bundle, oltre all'elenco di modelli di file e modelli di percorso nelincludemapping, ilexcludemapping può contenere un elenco di modelli di file, modelli di percorso o entrambi, rispetto alla radice del bundle, per escludere in modo esplicito.
Tutti i percorsi dei file e delle cartelle specificati sono relativi al percorso del file di configurazione del bundle in cui sono specificati.
La sintassi per i modelli di file include e exclude di percorso segue la sintassi standard del modello .gitignore. Vedere Gitignore Pattern Format( Formato modello gitignore).
Ad esempio, se il seguente file .gitignore contiene le voci seguenti:
.databricks
my_package/dist
Il file di configurazione del bundle contiene la seguente mappatura include:
sync:
include:
- my_package/dist/*.whl
Vengono quindi inclusi tutti i file nella cartella my_package/dist con estensione di file di *.whl. Tutti gli altri file nella cartella my_package/dist non sono inclusi.
Tuttavia, se il file di configurazione del bundle contiene anche la seguente mappatura exclude:
sync:
include:
- my_package/dist/*.whl
exclude:
- my_package/dist/delete-me.whl
Vengono quindi inclusi tutti i file nella cartella my_package/dist con estensione di file di *.whl, ad eccezione del file denominato delete-me.whl. Anche tutti gli altri file nella cartella my_package/dist non sono inclusi.
Il mapping sync può anche essere dichiarato nel mapping targets per una destinazione specifica. Qualsiasi mapping sync dichiarato in una destinazione viene unito a qualsiasi dichiarazione di mapping di primo livello sync. Ad esempio, continuando con l'esempio precedente, il seguente mapping include al livello targets viene unito al mapping include nel mapping di primo livello sync:
targets:
dev:
sync:
include:
- my_package/dist/delete-me.whl
sync.paths
Il mapping sync può contenere un mapping paths che specifica i percorsi locali da sincronizzare con l'area di lavoro. Il mapping paths consente di condividere file comuni tra bundle e può essere usato per sincronizzare i file che si trovano all'esterno della radice del bundle. (La radice del bundle è il percorso del file databricks.yml.) Ciò è particolarmente utile quando si dispone di un singolo repository che ospita più bundle e si vuole condividere librerie, file di codice o configurazione.
I percorsi specificati devono essere relativi a file e directory ancorati nella cartella in cui è impostato il mapping paths. Se uno o più valori di percorso salgono nella directory fino a un antenato della radice del pacchetto, il percorso radice viene determinato in modo dinamico per garantire che la struttura delle cartelle rimanga intatta. Ad esempio, se la cartella radice del bundle è denominata my_bundle, questa configurazione in databricks.yml sincronizza la cartella common che si trova a un livello sopra la radice del bundle e la radice del bundle stessa:
sync:
paths:
- ../common
- .
Una distribuzione di questo bundle comporta la struttura di cartelle seguente nell'area di lavoro:
common/
common_file.txt
my_bundle/
databricks.yml
src/
...
Obiettivi
Type: Map
Definisce i contesti di destinazione della distribuzione per il bundle. Ogni destinazione è una raccolta univoca di artefatti, impostazioni dell'area di lavoro di Azure Databricks e talvolta dettagli delle risorse specifiche della destinazione.
Il mapping targets è costituito da uno o più mapping di destinazione, che devono avere un nome univoco a livello di codice (o logico). Questo mapping è facoltativo ma altamente consigliato.
Le impostazioni all'interno del mapping hanno la targets precedenza sulle impostazioni specificate nell'area di lavoro di primo livello, negli artefatti e nei mapping delle risorse .
Una destinazione può anche eseguire l'override dei valori di qualsiasi variabile di primo livello.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
targets:
<target-name>:
<target-field-name>: <target-field-value>
| Chiave | Digitare | Descrizione |
|---|---|---|
artifacts |
Mappa | I componenti da includere nella distribuzione finale. Vedere artefatti. Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
bundle |
Mappa | Attributi del bundle per la distribuzione su questo target. Vedi bundle. Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
cluster_id |
Stringa | ID del cluster da usare per questa destinazione. Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
compute_id |
Stringa | Deprecato. L'ID del calcolatore da usare per questa destinazione. |
default |
Booleano | Indica se questa destinazione è la destinazione predefinita. Vedere le destinazioni.name.default. Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
git |
Mappa | Impostazioni del controllo della versione Git per l'obiettivo. Vedere git. Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
mode |
Stringa | Modalità di distribuzione per la destinazione. I valori validi sono development o production. Vedere le destinazioni.modalità di distribuzione name.mode e Databricks Asset Bundle.Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
permissions |
Sequenza | Autorizzazioni per la distribuzione e l'esecuzione del bundle nell'ambiente di destinazione. Vedere autorizzazioni. Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
presets |
Mappa | Impostazioni predefinite di distribuzione per destinazione. Vedere le destinazioni.name.presets. Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
resources |
Mappa | Definizioni di risorse per la destinazione. Vedi le risorse . Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
run_as |
Mappa | Identità da usare per eseguire il bundle. Vedere run_as e Specificare un'identità di esecuzione per un flusso di lavoro dei bundle di asset di Databricks. Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
sync |
Mappa | I percorsi locali da sincronizzare con l'area di lavoro di destinazione quando un bundle viene eseguito o distribuito. Consultare sync. Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
variables |
Mappa | Definizioni di variabili personalizzate per la destinazione. Si veda Variabili. Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
workspace |
Mappa | Area di lavoro di Databricks per l'obiettivo. Vedi l'area di lavoro . Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
Obiettivi. name.default
Per specificare un valore predefinito di destinazione per i comandi bundle, impostare il mapping default su true. Ad esempio, questa destinazione denominata dev è la destinazione predefinita:
targets:
dev:
default: true
Se una destinazione predefinita non è configurata o se si desidera convalidare, distribuire ed eseguire processi o pipeline all'interno di una destinazione specifica, usare l'opzione -t dei comandi bundle.
I comandi seguenti convalidano, distribuiscono ed eseguono my_job nei target dev e prod:
databricks bundle validate
databricks bundle deploy -t dev
databricks bundle run -t dev my_job
databricks bundle validate
databricks bundle deploy -t prod
databricks bundle run -t prod my_job
Nell'esempio seguente vengono dichiarate due destinazioni. La prima destinazione ha il nome dev ed è la destinazione predefinita usata quando non viene specificata alcuna destinazione per i comandi bundle. La seconda destinazione ha il nome prod e viene usata solo quando questa destinazione viene specificata per i comandi bundle.
targets:
dev:
default: true
prod:
workspace:
host: https://<production-workspace-url>
Obiettivi. name.mode
Per semplificare lo sviluppo e le procedure consigliate per CI/CD, i bundle di asset di Databricks offrono modalità di distribuzione per le destinazioni che impostano comportamenti predefiniti per i flussi di lavoro di pre-produzione e produzione. Alcuni comportamenti sono configurabili anche usando le destinazioni.name.presets.
Per informazioni dettagliate, vedere Modalità di distribuzione del bundle di asset di Databricks.
Suggerimento
Per impostare le identità di esecuzione per i bundle, è possibile specificare run_as per ogni destinazione, come descritto in Specificare un'identità di esecuzione per un flusso di lavoro dei bundle di asset di Databricks.
Per specificare che una destinazione viene considerata come destinazione di sviluppo, aggiungere il mapping mode impostato su development. Per specificare che una destinazione viene considerata come destinazione di produzione, aggiungere il mapping mode impostato su production. Ad esempio, questa destinazione denominata prod viene considerata come destinazione di produzione:
targets:
prod:
mode: production
Obiettivi. name.presets
È possibile personalizzare alcuni dei comportamenti di distribuzione mode di destinazione usando il presets mapping.
Per un elenco dei set di impostazioni disponibili, vedere Impostazioni predefinite personalizzate.
L'esempio seguente mostra una destinazione di produzione personalizzata che prefissa e contrassegna tutte le risorse di produzione:
targets:
prod:
mode: production
presets:
name_prefix: 'production_' # prefix all resource names with production_
tags:
prod: true
Variabili
Type: Map
Definisce una variabile personalizzata per il bundle. Per ogni variabile, impostare una descrizione facoltativa, un valore predefinito, se la variabile personalizzata è un tipo complesso o una ricerca per recuperare un valore ID, usando il formato seguente:
variables:
<variable-name>:
description: <variable-description>
default: <optional-default-value>
type: <optional-type-value> # "complex" is the only valid value
lookup:
<optional-object-type>: <optional-object-name>
Annotazioni
Si presuppone che le variabili siano di tipo string, a meno che non type sia impostato su complex. Vedere Definire una variabile complessa.
Per fare riferimento a una variabile personalizzata all'interno della configurazione del bundle, usare la sostituzione ${var.<variable_name>}.
Per altre informazioni sulle variabili e le sostituzioni personalizzate, vedere Sostituzioni e variabili nei bundle di asset di Databricks.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
| Chiave | Digitare | Descrizione |
|---|---|---|
default |
Qualunque | Valore predefinito per la variabile. Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
description |
Stringa | Descrizione della variabile. Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
lookup |
Mappa | Nome del alert, cluster_policy, cluster, dashboard, instance_pool, job, metastore, pipeline, query, service_principalo warehouse oggetto per cui recuperare un ID. Vedere le variabili.name.lookup.Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
type |
Stringa | Tipo della variabile, semplice o complessa. Impostare questa chiave solo se la variabile è complessa. Valori validi: complex.Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
Variabili. name.lookup
Type: Map
Nome dell'avviso, cluster_policy, cluster, dashboard, instance_pool, processo, metastore, pipeline, query, service_principal o oggetto warehouse per cui recuperare un ID. Per informazioni sull'uso della ricerca, vedere Recuperare il valore ID di un oggetto.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
| Chiave | Digitare | Descrizione |
|---|---|---|
alert |
Stringa | Nome dell'avviso per il quale recuperare un ID. Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
cluster |
Stringa | Nome del cluster per il quale recuperare un ID. Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
cluster_policy |
Stringa | Nome del cluster_policy per il quale recuperare un ID. Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
dashboard |
Stringa | Nome del dashboard per il quale recuperare un ID. Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
instance_pool |
Stringa | Nome del instance_pool per il quale recuperare un ID. Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
job |
Stringa | Nome del processo per il quale recuperare un ID. Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
metastore |
Stringa | Nome del metastore per cui recuperare un ID. Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
notification_destination |
Stringa | Nome del notification_destination per il quale recuperare un ID. Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.236.0 |
pipeline |
Stringa | Nome della pipeline per la quale recuperare l'ID. Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
query |
Stringa | Nome della query per cui recuperare un ID. Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
service_principal |
Stringa | Nome del service_principal per il quale recuperare un ID. Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
warehouse |
Stringa | Nome del magazzino per il quale recuperare un ID. Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
Spazio di lavoro
Type: Map
Definisce l'area di lavoro di Databricks per il bundle. Il file di configurazione del bundle può contenere un solo mapping di primo livello workspace per specificare le impostazioni dell'area di lavoro di Azure Databricks non predefinite da usare.
Importante
I percorsi validi dell'area di lavoro di Databricks iniziano con /Workspace, mentre per gli artefatti è supportato anche /Volumes. I percorsi dell'area di lavoro personalizzati sono preceduti automaticamente da /Workspace, quindi se si usa una sostituzione del percorso dell'area di lavoro nel percorso personalizzato, ${workspace.file_path}ad esempio , non è necessario anteporre /Workspace al percorso.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
| Chiave | Digitare | Descrizione |
|---|---|---|
artifact_path |
Stringa | Percorso dell'artefatto da usare all'interno dell'area di lavoro sia per la distribuzione che per l'esecuzione del flusso di lavoro Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
auth_type |
Stringa | Tipo di autenticazione da usare, particolarmente importante nei casi in cui l'interfaccia della riga di comando di Databricks deduce un tipo di autenticazione imprevisto. Vedere Autorizzare l'accesso alle risorse di Azure Databricks. Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
azure_client_id |
Stringa | ID client di Azure. Vedere Autenticazione dell'area di lavoro. Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
azure_environment |
Stringa | Ambiente Azure. Vedere Autenticazione dell'area di lavoro. Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
azure_login_app_id |
Stringa | ID app di accesso di Azure. Vedere Autenticazione dell'area di lavoro. Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
azure_tenant_id |
Stringa | ID del tenant di Azure. Vedere Autenticazione dell'area di lavoro. Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
azure_use_msi |
Booleano | Indica se usare MSI per Azure. Vedere Autenticazione dell'area di lavoro. Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
azure_workspace_resource_id |
Stringa | ID risorsa dell'area di lavoro di Azure. Vedere Autenticazione dell'area di lavoro. Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
client_id |
Stringa | ID client per l'area di lavoro. Vedere Autenticazione dell'area di lavoro. Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
file_path |
Stringa | Percorso del file da usare all'interno dell'area di lavoro sia per le distribuzioni che per le esecuzioni del flusso di lavoro. Vedere workspace.file_path. Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
google_service_account |
Stringa | Nome dell'account del servizio Google. Vedere Autenticazione dell'area di lavoro. Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
host |
Stringa | URL host dell'area di lavoro di Databricks. Consultare nomi di istanza dell'area di lavoro, URL e ID. L'impostazione del host mapping indica all'interfaccia della riga di comando di Databricks di trovare un profilo corrispondente nel .databrickscfg file e quindi usare i campi del profilo per determinare il tipo di autenticazione di Databricks da usare. Se all'interno del .databrickscfg file esistono più profili con un campo corrispondentehost, è necessario usare il profile mapping (o le opzioni della --profile riga di comando o -p ) per specificare un profilo.Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
profile |
Stringa | Nome del profilo dell'area di lavoro di Databricks. Vedere workspace.profile. Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
resource_path |
Stringa | Percorso della risorsa dell'area di lavoro Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.230.0 |
root_path |
Stringa | Percorso radice dell'area di lavoro di Databricks. Vedere workspace.root_path. Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
state_path |
Stringa | Percorso dello stato dell'area di lavoro. Questa chiave usa per impostazione predefinita il percorso predefinito di ${workspace.root}/state e rappresenta il percorso all'interno dell'area di lavoro per archiviare le informazioni sullo stato di Terraform sulle distribuzioni.Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0 |
Autenticazione dell'area di lavoro
Il mapping dell'area di lavoro può contenere anche mapping per specificare il meccanismo di autenticazione di Databricks da usare. Se non vengono specificati all'interno del mapping dell'area di lavoro di primo livello, devono essere specificati in un mapping dell'area di lavoro come figlio di una o più destinazioni nel mapping delle destinazioni di primo livello.
Per l'autenticazione da computer a computer (M2M) OAuth, viene usato il mapping
client_id. In alternativa, è possibile impostare questo valore nella variabile di ambiente localeDATABRICKS_CLIENT_ID. In alternativa, è possibile creare un profilo di configurazione con il valoreclient_ide quindi specificare il nome del profilo con il mappingprofileoppure usando le opzioni--profileo-pquando si eseguono i comandi di convalida, distribuzione, esecuzione e eliminazione del bundle con la CLI di Databricks. Vedere Autorizzare l'accesso dell'entità servizio ad Azure Databricks con OAuth.Annotazioni
Non è possibile specificare un valore del segreto OAuth di Azure Databricks nel file di configurazione del bundle. Invece, impostare la variabile di ambiente
DATABRICKS_CLIENT_SECRET. In alternativa, è possibile aggiungere il valoreclient_secreta un profilo di configurazione e quindi specificare il nome del profilo con il mappingprofile, oppure utilizzando le opzioni--profileo-pquando si eseguono i comandi di convalida, distribuzione, esecuzione ed eliminazione del bundle con il CLI di Databricks.Per l'autenticazione con l’interfaccia della riga di comando di Azure, viene usato il mapping
azure_workspace_resource_id. In alternativa, è possibile impostare questo valore nella variabile di ambiente localeDATABRICKS_AZURE_RESOURCE_ID. In alternativa, è possibile creare un profilo di configurazione con il valoreazure_workspace_resource_ide quindi specificare il nome del profilo con il mappingprofileoppure usando le opzioni--profileo-pquando si eseguono i comandi di convalida, distribuzione, esecuzione e eliminazione del bundle con la CLI di Databricks. Vedere Eseguire l'autenticazione con l'interfaccia della riga di comando di Azure.Per l'autenticazione dei segreti client di Azure con le entità servizio, vengono usati i mapping
azure_workspace_resource_id,azure_tenant_ideazure_client_id. In alternativa, è possibile impostare questi valori rispettivamente nelle variabili di ambiente localiDATABRICKS_AZURE_RESOURCE_ID,ARM_TENANT_IDeARM_CLIENT_ID. In alternativa, è possibile creare un profilo di configurazione con i valoriazure_workspace_resource_id,azure_tenant_ideazure_client_id, e quindi specificare il nome del profilo con il mappingprofileoppure utilizzando le opzioni--profileo-pquando si eseguono i comandi di convalida, distribuzione, esecuzione ed eliminazione del bundle con l'interfaccia della riga di comando di Databricks. Consultare Effettuare l'autenticazione con i principali di servizio Microsoft Entra.Annotazioni
Non è possibile specificare un valore del segreto client di Azure nel file di configurazione del bundle. Invece, impostare la variabile di ambiente
ARM_CLIENT_SECRET. In alternativa, è possibile aggiungere il valoreazure_client_secreta un profilo di configurazione e quindi specificare il nome del profilo con il mappingprofile, oppure utilizzando le opzioni--profileo-pquando si eseguono i comandi di convalida, distribuzione, esecuzione ed eliminazione del bundle con il CLI di Databricks.Per l'autenticazione delle identità gestite di Azure, vengono usati i mapping
azure_use_msi,azure_client_ideazure_workspace_resource_id. In alternativa, è possibile impostare questi valori rispettivamente nelle variabili di ambiente localiARM_USE_MSI,ARM_CLIENT_IDeDATABRICKS_AZURE_RESOURCE_ID. In alternativa, è possibile creare un profilo di configurazione con i valoriazure_use_msi,azure_client_ideazure_workspace_resource_id, e quindi specificare il nome del profilo con il mappingprofileoppure utilizzando le opzioni--profileo-pquando si eseguono i comandi di convalida, distribuzione, esecuzione ed eliminazione del bundle con l'interfaccia della riga di comando di Databricks. Vedere Eseguire l'autenticazione con le identità gestite di Azure.Il mapping
azure_environmentspecifica il tipo di ambiente di Azure (ad esempio Public, UsGov, Cina e Germania) per un set specifico di endpoint API. Il valore predefinito èPUBLIC. In alternativa, è possibile impostare questo valore nella variabile di ambiente localeARM_ENVIRONMENT. In alternativa, è possibile aggiungere il valoreazure_environmenta un profilo di configurazione e quindi specificare il nome del profilo con il mappingprofile, oppure utilizzando le opzioni--profileo-pquando si eseguono i comandi di convalida, distribuzione, esecuzione ed eliminazione del bundle con il CLI di Databricks.Il mapping
azure_login_app_idnon è operativo ed è riservato per l'uso interno.
workspace.root_path
Questo mapping workspace può contenere un mapping root_path per specificare un percorso radice non predefinito da usare all'interno dell'area di lavoro sia per le distribuzioni che per le esecuzioni del flusso di lavoro, ad esempio:
workspace:
root_path: /Workspace/Users/${workspace.current_user.userName}/.bundle/${bundle.name}/my-envs/${bundle.target}
Per impostazione predefinita, per root_path la CLI di Databricks usa il percorso predefinito di /Workspace/Users/${workspace.current_user.userName}/.bundle/${bundle.name}/${bundle.target}, che utilizza sostituzioni.
workspace.artifact_path
Questo mapping workspace può contenere anche un mapping artifact_path per specificare un percorso di artefatto non predefinito da usare all'interno dell'area di lavoro per le distribuzioni e le esecuzioni del flusso di lavoro, ad esempio:
workspace:
artifact_path: /Workspace/Users/${workspace.current_user.userName}/.bundle/${bundle.name}/my-envs/${bundle.target}/artifacts
Per impostazione predefinita, per artifact_path la CLI di Databricks usa il percorso predefinito di ${workspace.root}/artifacts, che utilizza sostituzioni.
Annotazioni
Il mapping artifact_path non supporta i percorsi di Databricks File System (DBFS).
workspace.file_path
Questo mapping workspace può contenere anche un mapping file_path per specificare un percorso di file non predefinito da usare all'interno dell'area di lavoro per le distribuzioni e le esecuzioni del flusso di lavoro, ad esempio:
workspace:
file_path: /Workspace/Users/${workspace.current_user.userName}/.bundle/${bundle.name}/my-envs/${bundle.target}/files
Per impostazione predefinita, per file_path la CLI di Databricks usa il percorso predefinito di ${workspace.root}/files, che utilizza sostituzioni.
Importante
Non è possibile specificare variabili personalizzate per questi valori di autenticazione usando la ${var.*} sintassi .
workspace.profile
Annotazioni
Databricks consiglia di usare il mapping host (o le --profile opzioni o -p quando si eseguono i comandi del bundle convalida, distribuisci, esegui ed elimina con l'interfaccia della riga di comando di Databricks) anziché il mapping profile, in quanto rende i file di configurazione del bundle più portatili.
Il profile mapping specifica il nome di un profilo di configurazione da usare per l'autenticazione in questa area di lavoro di Azure Databricks. Questo profilo di configurazione viene mappato a quello creato durante la configurazione dell'interfaccia della riga di comando di Databricks.
Oggetti comuni
Git
Type: Map
Definisce i dettagli del controllo della versione git. Ciò è utile per propagare i metadati di distribuzione che possono essere usati in un secondo momento per identificare le risorse. Ad esempio, è possibile tracciare l'origine del repository di un processo distribuito da CI/CD.
Ogni volta che si esegue un bundle comando come validate, deploy o run, il bundle comando popola l'albero di configurazione del comando con le impostazioni predefinite seguenti:
Per recuperare o eseguire l'override delle impostazioni Git, il bundle deve trovarsi all'interno di una directory associata a un repository Git, ad esempio una directory locale inizializzata eseguendo il comando git clone. Se la directory non è associata a un repository Git, queste impostazioni Git sono vuote.
| Chiave | Digitare | Descrizione |
|---|---|---|
branch |
Stringa | Nome corrente del ramo Git. Si tratta dello stesso valore che si otterrebbe se è stato eseguito il comando git branch --show-current dal repository clonato. È possibile usare le sostituzioni per fare riferimento a questo valore con i file di configurazione del bundle, come ${bundle.git.branch}. |
origin_url |
Stringa | L'URL di origine del repository. Si tratta dello stesso valore che si otterrebbe se è stato eseguito il comando git config --get remote.origin.url dal repository clonato. È possibile usare le sostituzioni per fare riferimento a questo valore con i file di configurazione del bundle, come ${bundle.git.origin_url}. |
Esempi
Se necessario, è possibile eseguire l'override delle origin_url impostazioni e branch all'interno del git mapping del mapping di primo livello bundle :
bundle:
git:
origin_url: <some-non-default-origin-url>
branch: <some-non-current-branch-name>