Condividi tramite


Informazioni di riferimento sulla configurazione

Questo articolo fornisce informazioni di riferimento sulle chiavi supportate dalla configurazione dei bundle di asset di Databricks (YAML). Consulta Che cosa sono i Databricks asset bundle?.

Per esempi completi di bundle, vedere gli esempi di configurazione del bundle e il repository GitHub bundle-examples.

Artefatti

Type: Map

Specifica gli artefatti da compilare automaticamente durante le distribuzioni di bundle che possono essere usate in un secondo momento nelle esecuzioni del bundle. Ogni chiave è il nome dell'artefatto e il valore è una mappa che definisce le impostazioni di compilazione dell'artefatto.

Suggerimento

È possibile definire, combinare ed eseguire l'override delle impostazioni per gli artefatti nei bundle, come descritto in Eseguire l'override con le impostazioni di destinazione.

Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0

artifacts:
  <artifact-name>:
    <artifact-field-name>: <artifact-field-value>
Chiave Digitare Descrizione
build Stringa Set facoltativo di comandi di compilazione da eseguire localmente prima della distribuzione. Per le compilazioni con il wheel Python, l'interfaccia della riga di comando di Databricks presuppone che sia possibile trovare un'installazione locale del pacchetto Python wheel per eseguire le compilazioni ed esegue il comando python setup.py bdist_wheel per impostazione predefinita durante ogni distribuzione del bundle. Specificare più comandi di compilazione in righe separate.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
dynamic_version Booleano Indica se applicare la patch alla versione della rotellina in modo dinamico in base al timestamp del file whl. Se è impostato su true, è possibile distribuire un nuovo codice senza dover aggiornare la versione in setup.py o pyproject.toml. Questa impostazione è valida solo se type è impostata su whl.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.245.0
executable Stringa Tipo eseguibile. I valori validi sono bash, she cmd.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
files Sequenza Percorso relativo o assoluto dei file di artefatti compilati. Vedere artefatti.name.files.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
path Stringa Percorso locale della directory per l'artefatto. I percorsi sono relativi al percorso del file di configurazione del bundle. Per le compilazioni con rotellina Python, si tratta del percorso del file della setup.py rotellina Python. Se path non è incluso, il client CLI di Databricks tenta di trovare il file wheel Python setup.py nella radice del bundle.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
type Stringa Obbligatorio se l'artefatto è una rotellina Python. Tipo dell'artefatto. I valori validi sono whl e jar. Questa impostazione non deve essere specificata per compilare altri artefatti.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0

Esempi

La configurazione seguente crea una rotellina Python usando Poetry:

artifacts:
  default:
    type: whl
    build: poetry build
    path: .

La configurazione seguente esegue test e compila una rotellina. Per un'esercitazione completa sull'aggregazione usata artifacts per creare una rotellina, vedere Creare un file con rotellina Python usando i bundle di asset di Databricks.

artifacts:
  default:
    type: whl
    build: |-
      # run tests
      python -m pytest tests/ -v

      # build the actual artifact
      python setup.py bdist_wheel

    path: .

Per un esempio di configurazione che compila un file JAR e lo carica in Unity Catalog, vedere Bundle che carica un file JAR in Unity Catalog.

Manufatti. name.files

Type: Sequence

Percorso relativo o assoluto dei file di artefatti compilati. Utilizzare source per specificare gli artefatti compilati. I percorsi sono relativi al percorso del file di configurazione del bundle.

Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0

Chiave Digitare Descrizione
source Stringa Obbligatorio. File di origine dell'artefatto.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0

pacchetto

Type: Map

Attributi del bundle per la distribuzione su questo target.

Un file di configurazione del bundle deve contenere un solo mapping di primo livello bundle .

Questo mapping bundle deve contenere un mapping name che specifica un nome programmatico (o logico) per il bundle. Nell'esempio seguente viene dichiarato un bundle con il nome programmatico (o logico) hello-bundle.

bundle:
  name: hello-bundle

Un bundle mapping può anche essere figlio di una o più destinazioni nella mappatura destinazioni principale. Ognuna di queste mappature figlio bundle specifica eventuali sostituzioni non predefinite al livello di destinazione.

Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0

Chiave Digitare Descrizione
cluster_id Stringa ID di un cluster da usare per eseguire il bundle. Questa chiave consente di specificare l'ID di un cluster da usare come override per i cluster definiti altrove nel file di configurazione del bundle. Per informazioni su come recuperare l'ID di un cluster, vedere URL e ID della risorsa di calcolo.
L'override cluster_id è destinato agli scenari di solo sviluppo ed è supportato solo per la destinazione con il relativo mapping mode impostato su development. Per altre informazioni sulla mappatura target, vedere destinazioni.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
compute_id Stringa Deprecato. ID dell'ambiente di calcolo da usare per eseguire il bundle.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
databricks_cli_version Stringa Versione della CLI (interfaccia della riga di comando) di Databricks da utilizzare con il bundle. Vedere bundle.databricks_cli_version.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
deployment Mappa La definizione della distribuzione del bundle. Per gli attributi supportati, vedere Modalità di distribuzione del bundle di asset di Databricks. Vedere bundle.deployment.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
git Mappa I dettagli del controllo della versione Git associati al bundle. Per gli attributi supportati, vedere git.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
name Stringa Nome del pacchetto.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
uuid Stringa Riservato. Identificatore Univoco Universale (UUID) per il bundle che lo identifica in modo univoco all'interno dei sistemi interni di Databricks. Questo viene generato quando un progetto bundle viene inizializzato usando un modello di Databricks (usando il comando databricks bundle init).
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.236.0

bundle.databricks_cli_version

Il mapping bundle può contenere un mapping databricks_cli_version che vincola la versione dell'interfaccia della riga di comando di Databricks richiesta dal bundle. Ciò può impedire problemi causati dall'uso di mapping non supportati in una determinata versione dell'interfaccia della riga di comando di Databricks.

La versione dell'interfaccia della riga di comando di Databricks è conforme al controllo delle versioni semantiche e il databricks_cli_version mapping supporta la specifica dei vincoli di versione. Se il valore corrente databricks --version non rientra nei limiti specificati nel mapping del databricks_cli_version bundle, si verifica un errore quando databricks bundle validate viene eseguito nel bundle. Gli esempi seguenti illustrano una sintassi comune dei vincoli di versione:

bundle:
  name: hello-bundle
  databricks_cli_version: '0.218.0' # require Databricks CLI 0.218.0
bundle:
  name: hello-bundle
  databricks_cli_version: '0.218.*' # allow all patch versions of Databricks CLI 0.218
bundle:
  name: my-bundle
  databricks_cli_version: '>= 0.218.0' # allow any version of Databricks CLI 0.218.0 or higher
bundle:
  name: my-bundle
  databricks_cli_version: '>= 0.218.0, <= 1.0.0' # allow any Databricks CLI version between 0.218.0 and 1.0.0, inclusive

bundle.deployment

Type: Map

Definizione della distribuzione del bundle

Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0

Chiave Digitare Descrizione
fail_on_active_runs Booleano Indica se l'esecuzione attiva ha esito negativo. Se è impostato su true, una distribuzione in esecuzione può essere interrotta.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
lock Mappa Attributi di blocco della distribuzione. Vedere bundle.deployment.lock.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0

bundle.deployment.lock

Type: Map

Attributi di blocco della distribuzione.

Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0

Chiave Digitare Descrizione
enabled Booleano Indica se questo blocco è abilitato.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
force Booleano Indica se forzare questo blocco se è abilitato.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0

sperimentale

Type: Map

Definisce gli attributi per le funzionalità sperimentali.

Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0

Chiave Digitare Descrizione
python Mappa Deprecato. Usare invece il mapping python di primo livello.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.238.0
python_wheel_wrapper Booleano Se utilizzare un pacchetto wheel di Python.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
scripts Mappa Comandi da eseguire.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
skip_artifact_cleanup Booleano Determina se ignorare l'eliminazione della .internal cartella all'interno workspace.artifact_pathdi . Per impostazione predefinita, questa cartella viene eliminata prima di caricare nuovi artefatti di compilazione (ad esempio le ruote Python) durante la distribuzione. Impostare su true per mantenere gli artefatti esistenti tra le distribuzioni.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.254.0
skip_name_prefix_for_schema Booleano Se ignorare l'aggiunta del prefisso (impostato in presets.name_prefix o calcolato quando mode: development) ai nomi degli schemi del catalogo Unity definiti nel bundle.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.255.0
use_legacy_run_as Booleano Indica se utilizzare il comportamento legacy di run_as.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0

includere

Type: Sequence

Specifica un elenco di glob di percorso che contengono file di configurazione da includere all'interno del bundle. Questi glob di percorso sono relativi al percorso del file di configurazione del bundle in cui vengono specificati i glob del percorso. databricks.ymlA parte , è necessario usare la include matrice per specificare tutti i file di configurazione da includere all'interno del bundle.

Suggerimento

Per includere o escludere altri file nel bundle, usare include ed exclude.

Questa matrice include può essere visualizzata solo come mapping di primo livello.

Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0

La configurazione di esempio seguente include tre file di configurazione. Questi file si trovano nella stessa cartella del file di configurazione del bundle:

include:
  - 'bundle.artifacts.yml'
  - 'bundle.resources.yml'
  - 'bundle.targets.yml'

La configurazione di esempio seguente include tutti i file con nomi file che iniziano con bundle e terminano con .yml. Questi file si trovano nella stessa cartella del file di configurazione del bundle:

include:
  - 'bundle*.yml'

Autorizzazioni

Type: Sequence

Definisce le autorizzazioni da applicare alle risorse definite nel bundle, in cui ogni elemento della sequenza è un'autorizzazione per un'entità specifica. Consultare Impostare le autorizzazioni per le risorse nei Bundle di Asset di Databricks.

I livelli di autorizzazione di primo livello consentiti sono CAN_VIEW, CAN_MANAGE e CAN_RUN.

Per applicare autorizzazioni a una risorsa specifica, vedere Definire le autorizzazioni per una risorsa specifica.

Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0

Chiave Digitare Descrizione
group_name Stringa Nome del gruppo con il set di autorizzazioni a livello.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
level Stringa Autorizzazioni consentite per utente, gruppo, principale del servizio definite per questo permesso. I valori validi per questa chiave sono diversi a seconda che le autorizzazioni siano definite al livello superiore del bundle o per una risorsa specifica. Consultare Impostare le autorizzazioni per le risorse nei Bundle di Asset di Databricks.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
service_principal_name Stringa Nome del principale servizio che ha le autorizzazioni impostate a livello.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
user_name Stringa Nome dell'utente che ha le autorizzazioni impostate a livello.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0

Esempio

La configurazione di esempio seguente definisce i livelli di autorizzazione per un utente, un gruppo e un'entità servizio, che vengono applicati a tutte le risorse definite nel resources bundle:

permissions:
  - level: CAN_VIEW
    group_name: test-group
  - level: CAN_MANAGE
    user_name: someone@example.com
  - level: CAN_RUN
    service_principal_name: 123456-abcdef

Preimpostazioni

Type: Map

Definisce le preimpostazioni di distribuzione del bundle. Per altre informazioni, vedere Impostazioni predefinite personalizzate.

A meno che non venga specificata un'eccezione per un set di impostazioni, se mode entrambi e presets sono impostati, i set di impostazioni sostituiscono il comportamento della modalità predefinita e le impostazioni delle singole risorse sostituiscono i set di impostazioni.

Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0

Preset Descrizione
artifacts_dynamic_version Indica se aggiornare in modo dinamico la versione degli whl artefatti durante la distribuzione. I valori validi sono true o false. Se viene specificata l'impostazione di configurazione di artifacts.dynamic_version di primo livello, esegue l'override di questo set di impostazioni.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.256.0
jobs_max_concurrent_runs Numero massimo di esecuzioni simultanee consentite per i job.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
name_prefix Stringa di prefisso da anteporre ai nomi delle risorse.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
pipelines_development Indica se le distribuzioni della pipeline devono essere bloccate in modalità di sviluppo. I valori validi sono true o false.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
source_linked_deployment Indica se le risorse create durante la distribuzione puntano ai file di origine nell'area di lavoro anziché alle loro copie nell'area di lavoro.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.236.0
tags Insieme di tag chiave:valore che si applicano a tutte le risorse che supportano i tag, inclusi processi ed esperimenti. I bundle di asset di Databricks non supportano i tag per la schema risorsa.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
trigger_pause_status Stato di pausa da applicare a tutti i trigger e le pianificazioni. I valori validi sono PAUSED o UNPAUSED.
Se mode è impostato su development, trigger_pause_status è sempre PAUSED.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0

python

Type: Map

Configura il caricamento del codice Python definito con il pacchetto databricks-bundles. Per altre informazioni, vedere Configurazione del bundle in Python.

Spostato dall'interfaccia experimental della riga di comando di Databricks versione 0.275.0

Chiave Digitare Descrizione
mutators Sequenza I mutatori contengono un elenco di percorsi di funzione completi per le funzioni mutatorie, ad esempio [my_project.mutators:add_default_cluster].
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.238.0
resources Sequenza Le risorse contengono un elenco di percorsi di funzione completi per caricare le risorse definite nel codice Python, ad esempio ["my_project.resources:load_resources"]
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.238.0
venv_path Stringa Il percorso dell'ambiente virtuale. Se abilitato, il codice Python viene eseguito all'interno di questo ambiente. Se disabilitato, per impostazione predefinita viene usato l'interprete Python disponibile nella shell corrente.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.238.0

risorse

Type: Map

Definisce le risorse per il bundle, dove ogni chiave è il nome della risorsa e il valore è una mappa che definisce la risorsa. Per ulteriori informazioni sulle risorse supportate dai bundle di asset di Databricks e sulla documentazione di riferimento per le definizioni delle risorse, vedere risorse dei bundle di asset di Databricks.

Il resources mapping può essere visualizzato come mapping di primo livello oppure può essere figlio di una o più destinazioni nel mapping delle destinazioni di primo livello e include zero o uno dei tipi di risorse supportati. Ogni mapping dei tipi di risorsa include una o più dichiarazioni di risorse singole, che devono avere un nome univoco. Queste singole dichiarazioni di risorse usano il payload di richiesta dell'operazione di creazione dell'oggetto corrispondente, espresso in YAML, per definire la risorsa. Le proprietà supportate per una risorsa sono i campi supportati dell'oggetto corrispondente.

I payload della richiesta di operazione di creazione sono documentati in Informazioni di riferimento sull'API REST di Databricks e il databricks bundle schema comando restituisce tutti gli schemi di oggetti supportati. Inoltre, il comando databricks bundle validate restituisce avvisi se le proprietà sconosciute delle risorse vengono trovate nei file di configurazione del bundle.

Per ulteriori informazioni sulle risorse supportate nei bundle, così come configurazioni ed esempi comuni, vedere risorse dei bundle di asset di Databricks e esempi di configurazione del bundle.

Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0

resources:
  <resource-type>:
    <resource-name>:
      <resource-field-name>: <resource-field-value>
Chiave Digitare Descrizione
alerts Mappa Definizioni di avviso (v2) per il bundle, in cui ogni chiave è il nome dell'avviso. Vedere l'avviso.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.279.0
apps Mappa Le definizioni di app Databricks per il bundle, dove ogni chiave è il nome dell'app. Vedi app.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.239.0
catalogs Mappa Definizioni del catalogo (Catalogo Unity) per il bundle, in cui ogni chiave è il nome di un catalogo. Vedere cataloghi.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.287.0
clusters Mappa Definizioni di cluster per il bundle, in cui ogni chiave è il nome di un cluster. Consulta cluster.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
dashboards Mappa Le definizioni delle dashboard per il bundle, dove ogni chiave è il nome della dashboard. Consulta il dashboard .
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.232.0
database_catalogs Mappa Definizioni del catalogo di database per il bundle, in cui ogni chiave è il nome del catalogo di database. Vedere database_catalog.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.265.0
database_instances Mappa Definizioni di istanza del database per il bundle, in cui ogni chiave è il nome dell'istanza del database. Vedere database_instance.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.265.0
experiments Mappa Definizioni dell'esperimento per il bundle, in cui ogni chiave è il nome dell'esperimento. Vedere l'esperimento.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
jobs Mappa Definizioni di attività per il bundle, in cui ogni chiave è il nome dell'attività. Vedere il lavoro.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
model_serving_endpoints Mappa Le definizioni degli endpoint di servizio dei modelli per il pacchetto, dove ogni chiave è il nome dell'endpoint di servizio del modello. Vedere model_serving_endpoint.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
models Mappa Definizioni di modello per il bundle, in cui ogni chiave è il nome del modello. Consultare il modello (legacy).
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
pipelines Mappa Le definizioni di pipeline per il bundle, dove ogni chiave è il nome della pipeline. Vedere pipeline.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
postgres_branches Mappa Definizioni di ramo Postgres per il bundle, dove ogni chiave è il nome del ramo Lakebase. Vedere postgres_branch.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.287.0
postgres_endpoints Mappa Le definizioni di endpoint Postgres per il bundle, dove ogni chiave è il nome dell'endpoint di calcolo Lakebase. Vedere postgres_endpoint.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.287.0
postgres_projects Mappa Le definizioni di progetto Postgres per il bundle, in cui ogni chiave è il nome del progetto Lakebase. Vedere postgres_project.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.287.0
quality_monitors Mappa Definizioni di monitoraggio qualità per il bundle, in cui ogni chiave è il nome del monitoraggio qualità. Consulta quality_monitor (Unity Catalog).
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
registered_models Mappa Le definizioni di modello registrate per il bundle, dove ogni chiave è il nome di un modello registrato nel Unity Catalog. Consultare registered_model (Unity Catalog).
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
schemas Mappa Definizioni dello schema per il bundle, in cui ogni chiave è il nome dello schema. Consulta lo schema (Catalogo Unity).
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
secret_scopes Mappa Definizioni di ambito segreto per il bundle, dove ogni chiave rappresenta il nome dell'ambito segreto. Vedere secret_scope.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.252.0
sql_warehouses Mappa Definizioni di SQL Warehouse per il bundle, in cui ogni chiave è il nome del warehouse SQL. Vedere sql_warehouse.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.260.0
synced_database_tables Mappa Definizioni di tabella di database sincronizzate per il bundle, in cui ogni chiave è il nome della tabella di database. Vedere synced_database_table.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.266.0
volumes Mappa Le definizioni dei volumi per il bundle, dove ogni chiave è il nome del volume. Consultare il volume (Catalogo Unity).
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.236.0

Esempio

La seguente configurazione di esempio definisce una risorsa attività:

resources:
  jobs:
    hello-job:
      name: hello-job
      tasks:
        - task_key: hello-task
          existing_cluster_id: 1234-567890-abcde123
          notebook_task:
            notebook_path: ./hello.py

run_as

Type: Map

Identità (user_name o service_principal_name) da usare per eseguire flussi di lavoro dei bundle di asset di Databricks. Consente di separare l'identità usata per distribuire un job bundle o una pipeline da quella usata per eseguire il job o la pipeline. Consultare Specificare un'identità di esecuzione per un flusso di lavoro dei pacchetti di asset di Databricks.

Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0

Chiave Digitare Descrizione
service_principal_name Stringa ID applicazione di un'entità servizio attiva. L'impostazione di questo campo richiede il ruolo servicePrincipal/user.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
user_name Stringa L'email di un utente attivo dell'area di lavoro. Gli utenti non amministratori possono impostare questo campo solo sul proprio messaggio di posta elettronica.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0

Script

Type: Map

Script che possono essere eseguiti tramite bundle run. Ogni script denominato nel scripts mapping contiene contenuto con i comandi. Vedere Eseguire script.

Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.259.0

scripts:
  <script-name>:
    <script-field-name>: <script-field-value>
Chiave Digitare Descrizione
content Stringa Comandi da eseguire
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.259.0

Esempi

scripts:
  my_script:
    content: uv run pytest -m ${bundle.target}

Sincronizzazione

Type: Map

File e percorsi di file da includere o escludere nel bundle.

Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0

Chiave Digitare Descrizione
exclude Sequenza Elenco di file o cartelle da escludere dal bundle. Vedere includere ed escludere.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
include Sequenza Elenco di file o cartelle da includere nel bundle. Vedere includere ed escludere.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
paths Sequenza I percorsi delle cartelle locali, che possono essere esterni alla radice del bundle, per eseguire la sincronizzazione con l'area di lavoro quando viene distribuito il bundle. Vedere sync.paths.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0

includere ed escludere

I mapping include e exclude all'interno del mapping sync specificano un elenco di file o cartelle da includere o escludere dalle distribuzioni di bundle, a seconda delle regole seguenti:

  • Basato su qualsiasi elenco di file e glob di percorso in un .gitignore file posizionato nella radice del bundle, il include mapping può contenere un elenco di glob di file, glob di percorso, o entrambi, relativo alla radice del bundle, per includere in modo esplicito.
  • Basato su qualsiasi elenco di modelli di file e modelli di percorso in un .gitignore file nella radice del bundle, oltre all'elenco di modelli di file e modelli di percorso nel include mapping, il exclude mapping può contenere un elenco di modelli di file, modelli di percorso o entrambi, rispetto alla radice del bundle, per escludere in modo esplicito.

Tutti i percorsi dei file e delle cartelle specificati sono relativi al percorso del file di configurazione del bundle in cui sono specificati.

La sintassi per i modelli di file include e exclude di percorso segue la sintassi standard del modello .gitignore. Vedere Gitignore Pattern Format( Formato modello gitignore).

Ad esempio, se il seguente file .gitignore contiene le voci seguenti:

.databricks
my_package/dist

Il file di configurazione del bundle contiene la seguente mappatura include:

sync:
  include:
    - my_package/dist/*.whl

Vengono quindi inclusi tutti i file nella cartella my_package/dist con estensione di file di *.whl. Tutti gli altri file nella cartella my_package/dist non sono inclusi.

Tuttavia, se il file di configurazione del bundle contiene anche la seguente mappatura exclude:

sync:
  include:
    - my_package/dist/*.whl
  exclude:
    - my_package/dist/delete-me.whl

Vengono quindi inclusi tutti i file nella cartella my_package/dist con estensione di file di *.whl, ad eccezione del file denominato delete-me.whl. Anche tutti gli altri file nella cartella my_package/dist non sono inclusi.

Il mapping sync può anche essere dichiarato nel mapping targets per una destinazione specifica. Qualsiasi mapping sync dichiarato in una destinazione viene unito a qualsiasi dichiarazione di mapping di primo livello sync. Ad esempio, continuando con l'esempio precedente, il seguente mapping include al livello targets viene unito al mapping include nel mapping di primo livello sync:

targets:
  dev:
    sync:
      include:
        - my_package/dist/delete-me.whl

sync.paths

Il mapping sync può contenere un mapping paths che specifica i percorsi locali da sincronizzare con l'area di lavoro. Il mapping paths consente di condividere file comuni tra bundle e può essere usato per sincronizzare i file che si trovano all'esterno della radice del bundle. (La radice del bundle è il percorso del file databricks.yml.) Ciò è particolarmente utile quando si dispone di un singolo repository che ospita più bundle e si vuole condividere librerie, file di codice o configurazione.

I percorsi specificati devono essere relativi a file e directory ancorati nella cartella in cui è impostato il mapping paths. Se uno o più valori di percorso salgono nella directory fino a un antenato della radice del pacchetto, il percorso radice viene determinato in modo dinamico per garantire che la struttura delle cartelle rimanga intatta. Ad esempio, se la cartella radice del bundle è denominata my_bundle, questa configurazione in databricks.yml sincronizza la cartella common che si trova a un livello sopra la radice del bundle e la radice del bundle stessa:

sync:
  paths:
    - ../common
    - .

Una distribuzione di questo bundle comporta la struttura di cartelle seguente nell'area di lavoro:

common/
  common_file.txt
my_bundle/
  databricks.yml
  src/
    ...

Obiettivi

Type: Map

Definisce i contesti di destinazione della distribuzione per il bundle. Ogni destinazione è una raccolta univoca di artefatti, impostazioni dell'area di lavoro di Azure Databricks e talvolta dettagli delle risorse specifiche della destinazione.

Il mapping targets è costituito da uno o più mapping di destinazione, che devono avere un nome univoco a livello di codice (o logico). Questo mapping è facoltativo ma altamente consigliato.

Le impostazioni all'interno del mapping hanno la targets precedenza sulle impostazioni specificate nell'area di lavoro di primo livello, negli artefatti e nei mapping delle risorse .

Una destinazione può anche eseguire l'override dei valori di qualsiasi variabile di primo livello.

Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0

targets:
  <target-name>:
    <target-field-name>: <target-field-value>
Chiave Digitare Descrizione
artifacts Mappa I componenti da includere nella distribuzione finale. Vedere artefatti.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
bundle Mappa Attributi del bundle per la distribuzione su questo target. Vedi bundle.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
cluster_id Stringa ID del cluster da usare per questa destinazione.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
compute_id Stringa Deprecato. L'ID del calcolatore da usare per questa destinazione.
default Booleano Indica se questa destinazione è la destinazione predefinita. Vedere le destinazioni.name.default.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
git Mappa Impostazioni del controllo della versione Git per l'obiettivo. Vedere git.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
mode Stringa Modalità di distribuzione per la destinazione. I valori validi sono development o production. Vedere le destinazioni.modalità di distribuzione name.mode e Databricks Asset Bundle.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
permissions Sequenza Autorizzazioni per la distribuzione e l'esecuzione del bundle nell'ambiente di destinazione. Vedere autorizzazioni.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
presets Mappa Impostazioni predefinite di distribuzione per destinazione. Vedere le destinazioni.name.presets.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
resources Mappa Definizioni di risorse per la destinazione. Vedi le risorse .
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
run_as Mappa Identità da usare per eseguire il bundle. Vedere run_as e Specificare un'identità di esecuzione per un flusso di lavoro dei bundle di asset di Databricks.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
sync Mappa I percorsi locali da sincronizzare con l'area di lavoro di destinazione quando un bundle viene eseguito o distribuito. Consultare sync.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
variables Mappa Definizioni di variabili personalizzate per la destinazione. Si veda Variabili.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
workspace Mappa Area di lavoro di Databricks per l'obiettivo. Vedi l'area di lavoro .
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0

Obiettivi. name.default

Per specificare un valore predefinito di destinazione per i comandi bundle, impostare il mapping default su true. Ad esempio, questa destinazione denominata dev è la destinazione predefinita:

targets:
  dev:
    default: true

Se una destinazione predefinita non è configurata o se si desidera convalidare, distribuire ed eseguire processi o pipeline all'interno di una destinazione specifica, usare l'opzione -t dei comandi bundle.

I comandi seguenti convalidano, distribuiscono ed eseguono my_job nei target dev e prod:

databricks bundle validate
databricks bundle deploy -t dev
databricks bundle run -t dev my_job
databricks bundle validate
databricks bundle deploy -t prod
databricks bundle run -t prod my_job

Nell'esempio seguente vengono dichiarate due destinazioni. La prima destinazione ha il nome dev ed è la destinazione predefinita usata quando non viene specificata alcuna destinazione per i comandi bundle. La seconda destinazione ha il nome prod e viene usata solo quando questa destinazione viene specificata per i comandi bundle.

targets:
  dev:
    default: true
  prod:
    workspace:
      host: https://<production-workspace-url>

Obiettivi. name.mode

Per semplificare lo sviluppo e le procedure consigliate per CI/CD, i bundle di asset di Databricks offrono modalità di distribuzione per le destinazioni che impostano comportamenti predefiniti per i flussi di lavoro di pre-produzione e produzione. Alcuni comportamenti sono configurabili anche usando le destinazioni.name.presets.

Per informazioni dettagliate, vedere Modalità di distribuzione del bundle di asset di Databricks.

Suggerimento

Per impostare le identità di esecuzione per i bundle, è possibile specificare run_as per ogni destinazione, come descritto in Specificare un'identità di esecuzione per un flusso di lavoro dei bundle di asset di Databricks.

Per specificare che una destinazione viene considerata come destinazione di sviluppo, aggiungere il mapping mode impostato su development. Per specificare che una destinazione viene considerata come destinazione di produzione, aggiungere il mapping mode impostato su production. Ad esempio, questa destinazione denominata prod viene considerata come destinazione di produzione:

targets:
  prod:
    mode: production

Obiettivi. name.presets

È possibile personalizzare alcuni dei comportamenti di distribuzione mode di destinazione usando il presets mapping.

Per un elenco dei set di impostazioni disponibili, vedere Impostazioni predefinite personalizzate.

L'esempio seguente mostra una destinazione di produzione personalizzata che prefissa e contrassegna tutte le risorse di produzione:

targets:
  prod:
    mode: production
    presets:
      name_prefix: 'production_' # prefix all resource names with production_
      tags:
        prod: true

Variabili

Type: Map

Definisce una variabile personalizzata per il bundle. Per ogni variabile, impostare una descrizione facoltativa, un valore predefinito, se la variabile personalizzata è un tipo complesso o una ricerca per recuperare un valore ID, usando il formato seguente:

variables:
  <variable-name>:
    description: <variable-description>
    default: <optional-default-value>
    type: <optional-type-value> # "complex" is the only valid value
    lookup:
      <optional-object-type>: <optional-object-name>

Annotazioni

Si presuppone che le variabili siano di tipo string, a meno che non type sia impostato su complex. Vedere Definire una variabile complessa.

Per fare riferimento a una variabile personalizzata all'interno della configurazione del bundle, usare la sostituzione ${var.<variable_name>}.

Per altre informazioni sulle variabili e le sostituzioni personalizzate, vedere Sostituzioni e variabili nei bundle di asset di Databricks.

Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0

Chiave Digitare Descrizione
default Qualunque Valore predefinito per la variabile.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
description Stringa Descrizione della variabile.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
lookup Mappa Nome del alert, cluster_policy, cluster, dashboard, instance_pool, job, metastore, pipeline, query, service_principalo warehouse oggetto per cui recuperare un ID. Vedere le variabili.name.lookup.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
type Stringa Tipo della variabile, semplice o complessa. Impostare questa chiave solo se la variabile è complessa. Valori validi: complex.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0

Variabili. name.lookup

Type: Map

Nome dell'avviso, cluster_policy, cluster, dashboard, instance_pool, processo, metastore, pipeline, query, service_principal o oggetto warehouse per cui recuperare un ID. Per informazioni sull'uso della ricerca, vedere Recuperare il valore ID di un oggetto.

Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0

Chiave Digitare Descrizione
alert Stringa Nome dell'avviso per il quale recuperare un ID.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
cluster Stringa Nome del cluster per il quale recuperare un ID.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
cluster_policy Stringa Nome del cluster_policy per il quale recuperare un ID.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
dashboard Stringa Nome del dashboard per il quale recuperare un ID.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
instance_pool Stringa Nome del instance_pool per il quale recuperare un ID.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
job Stringa Nome del processo per il quale recuperare un ID.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
metastore Stringa Nome del metastore per cui recuperare un ID.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
notification_destination Stringa Nome del notification_destination per il quale recuperare un ID.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.236.0
pipeline Stringa Nome della pipeline per la quale recuperare l'ID.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
query Stringa Nome della query per cui recuperare un ID.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
service_principal Stringa Nome del service_principal per il quale recuperare un ID.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
warehouse Stringa Nome del magazzino per il quale recuperare un ID.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0

Spazio di lavoro

Type: Map

Definisce l'area di lavoro di Databricks per il bundle. Il file di configurazione del bundle può contenere un solo mapping di primo livello workspace per specificare le impostazioni dell'area di lavoro di Azure Databricks non predefinite da usare.

Importante

I percorsi validi dell'area di lavoro di Databricks iniziano con /Workspace, mentre per gli artefatti è supportato anche /Volumes. I percorsi dell'area di lavoro personalizzati sono preceduti automaticamente da /Workspace, quindi se si usa una sostituzione del percorso dell'area di lavoro nel percorso personalizzato, ${workspace.file_path}ad esempio , non è necessario anteporre /Workspace al percorso.

Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0

Chiave Digitare Descrizione
artifact_path Stringa Percorso dell'artefatto da usare all'interno dell'area di lavoro sia per la distribuzione che per l'esecuzione del flusso di lavoro
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
auth_type Stringa Tipo di autenticazione da usare, particolarmente importante nei casi in cui l'interfaccia della riga di comando di Databricks deduce un tipo di autenticazione imprevisto. Vedere Autorizzare l'accesso alle risorse di Azure Databricks.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
azure_client_id Stringa ID client di Azure. Vedere Autenticazione dell'area di lavoro.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
azure_environment Stringa Ambiente Azure. Vedere Autenticazione dell'area di lavoro.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
azure_login_app_id Stringa ID app di accesso di Azure. Vedere Autenticazione dell'area di lavoro.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
azure_tenant_id Stringa ID del tenant di Azure. Vedere Autenticazione dell'area di lavoro.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
azure_use_msi Booleano Indica se usare MSI per Azure. Vedere Autenticazione dell'area di lavoro.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
azure_workspace_resource_id Stringa ID risorsa dell'area di lavoro di Azure. Vedere Autenticazione dell'area di lavoro.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
client_id Stringa ID client per l'area di lavoro. Vedere Autenticazione dell'area di lavoro.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
file_path Stringa Percorso del file da usare all'interno dell'area di lavoro sia per le distribuzioni che per le esecuzioni del flusso di lavoro. Vedere workspace.file_path.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
google_service_account Stringa Nome dell'account del servizio Google. Vedere Autenticazione dell'area di lavoro.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
host Stringa URL host dell'area di lavoro di Databricks. Consultare nomi di istanza dell'area di lavoro, URL e ID.
L'impostazione del host mapping indica all'interfaccia della riga di comando di Databricks di trovare un profilo corrispondente nel .databrickscfg file e quindi usare i campi del profilo per determinare il tipo di autenticazione di Databricks da usare. Se all'interno del .databrickscfg file esistono più profili con un campo corrispondentehost, è necessario usare il profile mapping (o le opzioni della --profile riga di comando o -p ) per specificare un profilo.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
profile Stringa Nome del profilo dell'area di lavoro di Databricks. Vedere workspace.profile.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
resource_path Stringa Percorso della risorsa dell'area di lavoro
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.230.0
root_path Stringa Percorso radice dell'area di lavoro di Databricks. Vedere workspace.root_path.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0
state_path Stringa Percorso dello stato dell'area di lavoro. Questa chiave usa per impostazione predefinita il percorso predefinito di ${workspace.root}/state e rappresenta il percorso all'interno dell'area di lavoro per archiviare le informazioni sullo stato di Terraform sulle distribuzioni.
Aggiunta nell'interfaccia della riga di comando di Databricks versione 0.229.0

Autenticazione dell'area di lavoro

Il mapping dell'area di lavoro può contenere anche mapping per specificare il meccanismo di autenticazione di Databricks da usare. Se non vengono specificati all'interno del mapping dell'area di lavoro di primo livello, devono essere specificati in un mapping dell'area di lavoro come figlio di una o più destinazioni nel mapping delle destinazioni di primo livello.

  • Per l'autenticazione da computer a computer (M2M) OAuth, viene usato il mapping client_id. In alternativa, è possibile impostare questo valore nella variabile di ambiente locale DATABRICKS_CLIENT_ID. In alternativa, è possibile creare un profilo di configurazione con il valore client_id e quindi specificare il nome del profilo con il mapping profile oppure usando le opzioni --profile o -p quando si eseguono i comandi di convalida, distribuzione, esecuzione e eliminazione del bundle con la CLI di Databricks. Vedere Autorizzare l'accesso dell'entità servizio ad Azure Databricks con OAuth.

    Annotazioni

    Non è possibile specificare un valore del segreto OAuth di Azure Databricks nel file di configurazione del bundle. Invece, impostare la variabile di ambiente DATABRICKS_CLIENT_SECRET. In alternativa, è possibile aggiungere il valore client_secret a un profilo di configurazione e quindi specificare il nome del profilo con il mapping profile, oppure utilizzando le opzioni --profile o -p quando si eseguono i comandi di convalida, distribuzione, esecuzione ed eliminazione del bundle con il CLI di Databricks.

  • Per l'autenticazione con l’interfaccia della riga di comando di Azure, viene usato il mapping azure_workspace_resource_id. In alternativa, è possibile impostare questo valore nella variabile di ambiente locale DATABRICKS_AZURE_RESOURCE_ID. In alternativa, è possibile creare un profilo di configurazione con il valore azure_workspace_resource_id e quindi specificare il nome del profilo con il mapping profile oppure usando le opzioni --profile o -p quando si eseguono i comandi di convalida, distribuzione, esecuzione e eliminazione del bundle con la CLI di Databricks. Vedere Eseguire l'autenticazione con l'interfaccia della riga di comando di Azure.

  • Per l'autenticazione dei segreti client di Azure con le entità servizio, vengono usati i mapping azure_workspace_resource_id, azure_tenant_id e azure_client_id. In alternativa, è possibile impostare questi valori rispettivamente nelle variabili di ambiente locali DATABRICKS_AZURE_RESOURCE_ID, ARM_TENANT_ID e ARM_CLIENT_ID. In alternativa, è possibile creare un profilo di configurazione con i valori azure_workspace_resource_id, azure_tenant_id e azure_client_id, e quindi specificare il nome del profilo con il mapping profile oppure utilizzando le opzioni --profile o -p quando si eseguono i comandi di convalida, distribuzione, esecuzione ed eliminazione del bundle con l'interfaccia della riga di comando di Databricks. Consultare Effettuare l'autenticazione con i principali di servizio Microsoft Entra.

    Annotazioni

    Non è possibile specificare un valore del segreto client di Azure nel file di configurazione del bundle. Invece, impostare la variabile di ambiente ARM_CLIENT_SECRET. In alternativa, è possibile aggiungere il valore azure_client_secret a un profilo di configurazione e quindi specificare il nome del profilo con il mapping profile, oppure utilizzando le opzioni --profile o -p quando si eseguono i comandi di convalida, distribuzione, esecuzione ed eliminazione del bundle con il CLI di Databricks.

  • Per l'autenticazione delle identità gestite di Azure, vengono usati i mapping azure_use_msi, azure_client_id e azure_workspace_resource_id . In alternativa, è possibile impostare questi valori rispettivamente nelle variabili di ambiente locali ARM_USE_MSI, ARM_CLIENT_ID e DATABRICKS_AZURE_RESOURCE_ID. In alternativa, è possibile creare un profilo di configurazione con i valori azure_use_msi, azure_client_id e azure_workspace_resource_id, e quindi specificare il nome del profilo con il mapping profile oppure utilizzando le opzioni --profile o -p quando si eseguono i comandi di convalida, distribuzione, esecuzione ed eliminazione del bundle con l'interfaccia della riga di comando di Databricks. Vedere Eseguire l'autenticazione con le identità gestite di Azure.

  • Il mapping azure_environment specifica il tipo di ambiente di Azure (ad esempio Public, UsGov, Cina e Germania) per un set specifico di endpoint API. Il valore predefinito è PUBLIC. In alternativa, è possibile impostare questo valore nella variabile di ambiente locale ARM_ENVIRONMENT. In alternativa, è possibile aggiungere il valore azure_environment a un profilo di configurazione e quindi specificare il nome del profilo con il mapping profile, oppure utilizzando le opzioni --profile o -p quando si eseguono i comandi di convalida, distribuzione, esecuzione ed eliminazione del bundle con il CLI di Databricks.

  • Il mapping azure_login_app_id non è operativo ed è riservato per l'uso interno.

workspace.root_path

Questo mapping workspace può contenere un mapping root_path per specificare un percorso radice non predefinito da usare all'interno dell'area di lavoro sia per le distribuzioni che per le esecuzioni del flusso di lavoro, ad esempio:

workspace:
  root_path: /Workspace/Users/${workspace.current_user.userName}/.bundle/${bundle.name}/my-envs/${bundle.target}

Per impostazione predefinita, per root_path la CLI di Databricks usa il percorso predefinito di /Workspace/Users/${workspace.current_user.userName}/.bundle/${bundle.name}/${bundle.target}, che utilizza sostituzioni.

workspace.artifact_path

Questo mapping workspace può contenere anche un mapping artifact_path per specificare un percorso di artefatto non predefinito da usare all'interno dell'area di lavoro per le distribuzioni e le esecuzioni del flusso di lavoro, ad esempio:

workspace:
  artifact_path: /Workspace/Users/${workspace.current_user.userName}/.bundle/${bundle.name}/my-envs/${bundle.target}/artifacts

Per impostazione predefinita, per artifact_path la CLI di Databricks usa il percorso predefinito di ${workspace.root}/artifacts, che utilizza sostituzioni.

Annotazioni

Il mapping artifact_path non supporta i percorsi di Databricks File System (DBFS).

workspace.file_path

Questo mapping workspace può contenere anche un mapping file_path per specificare un percorso di file non predefinito da usare all'interno dell'area di lavoro per le distribuzioni e le esecuzioni del flusso di lavoro, ad esempio:

workspace:
  file_path: /Workspace/Users/${workspace.current_user.userName}/.bundle/${bundle.name}/my-envs/${bundle.target}/files

Per impostazione predefinita, per file_path la CLI di Databricks usa il percorso predefinito di ${workspace.root}/files, che utilizza sostituzioni.

Importante

Non è possibile specificare variabili personalizzate per questi valori di autenticazione usando la ${var.*} sintassi .

workspace.profile

Annotazioni

Databricks consiglia di usare il mapping host (o le --profile opzioni o -p quando si eseguono i comandi del bundle convalida, distribuisci, esegui ed elimina con l'interfaccia della riga di comando di Databricks) anziché il mapping profile, in quanto rende i file di configurazione del bundle più portatili.

Il profile mapping specifica il nome di un profilo di configurazione da usare per l'autenticazione in questa area di lavoro di Azure Databricks. Questo profilo di configurazione viene mappato a quello creato durante la configurazione dell'interfaccia della riga di comando di Databricks.

Oggetti comuni

Git

Type: Map

Definisce i dettagli del controllo della versione git. Ciò è utile per propagare i metadati di distribuzione che possono essere usati in un secondo momento per identificare le risorse. Ad esempio, è possibile tracciare l'origine del repository di un processo distribuito da CI/CD.

Ogni volta che si esegue un bundle comando come validate, deploy o run, il bundle comando popola l'albero di configurazione del comando con le impostazioni predefinite seguenti:

Per recuperare o eseguire l'override delle impostazioni Git, il bundle deve trovarsi all'interno di una directory associata a un repository Git, ad esempio una directory locale inizializzata eseguendo il comando git clone. Se la directory non è associata a un repository Git, queste impostazioni Git sono vuote.

Chiave Digitare Descrizione
branch Stringa Nome corrente del ramo Git. Si tratta dello stesso valore che si otterrebbe se è stato eseguito il comando git branch --show-current dal repository clonato. È possibile usare le sostituzioni per fare riferimento a questo valore con i file di configurazione del bundle, come ${bundle.git.branch}.
origin_url Stringa L'URL di origine del repository. Si tratta dello stesso valore che si otterrebbe se è stato eseguito il comando git config --get remote.origin.url dal repository clonato. È possibile usare le sostituzioni per fare riferimento a questo valore con i file di configurazione del bundle, come ${bundle.git.origin_url}.

Esempi

Se necessario, è possibile eseguire l'override delle origin_url impostazioni e branch all'interno del git mapping del mapping di primo livello bundle :

bundle:
  git:
    origin_url: <some-non-default-origin-url>
    branch: <some-non-current-branch-name>