Dela via


Konfigurationsreferens

Den här artikeln ger en referens för nycklar som stöds av Databricks Asset Bundles-konfiguration (YAML). Se avsnitt Vad är Databricks-tillgångspaket?.

Fullständiga paketexempel finns i Exempel på paketkonfiguration och GitHub-lagringsplats med paketexempel.

Artefakter

Type: Map

Anger de artefakter som ska skapas automatiskt under paketdistributioner som kan användas senare i paketkörningar. Varje nyckel är namnet på artefakten och värdet är en karta som definierar inställningarna för artefaktbygget.

Tips/Råd

Du kan definiera, kombinera och åsidosätta inställningarna för artefakter i paket enligt beskrivningen i Åsidosätt med målinställningar.

Har lagts till i Databricks CLI version 0.229.0

artifacts:
  <artifact-name>:
    <artifact-field-name>: <artifact-field-value>
Nyckel Typ Beskrivning
build Sträng En valfri uppsättning build-kommandon som ska köras lokalt före distributionen. För Python-hjulversioner förutsätter Databricks CLI att det kan hitta en lokal installation av Python-paketet wheel för att köra versioner och kör kommandot python setup.py bdist_wheel som standard under varje paketdistribution. Ange flera build-kommandon på separata rader.
Har lagts till i Databricks CLI version 0.229.0
dynamic_version Boolesk Huruvida man ska korrigera hjulversionen dynamiskt baserat på tidsstämpeln för whl-filen. Om detta är inställt på truekan ny kod distribueras utan att du behöver uppdatera versionen i setup.py eller pyproject.toml. Den här inställningen är endast giltig när type är inställd på whl.
Har lagts till i Databricks CLI version 0.245.0
executable Sträng Den körbara typen. Giltiga värden är bash, shoch cmd.
Har lagts till i Databricks CLI version 0.229.0
files Sekvens Den relativa eller absoluta sökvägen till de skapade artefaktfilerna. Se artefakter.name.files.
Har lagts till i Databricks CLI version 0.229.0
path Sträng Den lokala sökvägen till katalogen för artefakten. Sökvägarna är relativa till platsen för paketkonfigurationsfilen. För Python-hjulversioner är det sökvägen till Python-hjulfilens setup.py fil. Om path inte ingår försöker Databricks CLI hitta Python-hjulfilens setup.py fil i paketets rot.
Har lagts till i Databricks CLI version 0.229.0
type Sträng Krävs om artefakten är ett Python-hjul. Artefaktens typ. Giltiga värden är whl och jar. Den här inställningen behöver inte anges för att skapa andra artefakter.
Har lagts till i Databricks CLI version 0.229.0

Exempel

Följande konfiguration bygger ett Python-hjul med hjälp av Poetry:

artifacts:
  default:
    type: whl
    build: poetry build
    path: .

Följande konfiguration kör tester och skapar ett hjul. En fullständig självstudiekurs om paket som använder artifacts för att skapa ett hjul finns i Skapa en Python-hjulfil med databricks-tillgångspaket.

artifacts:
  default:
    type: whl
    build: |-
      # run tests
      python -m pytest tests/ -v

      # build the actual artifact
      python setup.py bdist_wheel

    path: .

En exempelkonfiguration som skapar en JAR och laddar upp den till Unity Catalog finns i Paket som laddar upp en JAR-fil till Unity Catalog.

Artefakter. name.files

Type: Sequence

Den relativa eller absoluta sökvägen till de skapade artefaktfilerna. Använd source för att ange de skapade artefakterna. Sökvägarna är relativa till platsen för paketkonfigurationsfilen.

Har lagts till i Databricks CLI version 0.229.0

Nyckel Typ Beskrivning
source Sträng Krävs. Artefaktkällfilen.
Har lagts till i Databricks CLI version 0.229.0

bunt

Type: Map

Paketattributen vid distribution till det här målet.

En paketkonfigurationsfil får bara innehålla en mappning på den översta nivån bundle .

Den här bundle mappningen måste innehålla en name mappning som anger ett programmatiskt (eller logiskt) namn för paketet. I följande exempel deklareras ett paket med det programmatiska (eller logiska) namnet hello-bundle.

bundle:
  name: hello-bundle

En bundle mappning kan också vara underordnad ett eller flera av målen i den översta målmappningen . Var och en av dessa underordnade bundle mappningar anger eventuella icke-standard undantag på målobjektsnivå.

Har lagts till i Databricks CLI version 0.229.0

Nyckel Typ Beskrivning
cluster_id Sträng ID:t för ett kluster som ska användas för att köra paketet. Med den här nyckeln kan du ange ID för ett kluster som ska användas som åsidosättning för kluster som definierats någon annanstans i paketkonfigurationsfilen. Information om hur du hämtar ID:t för ett kluster finns i Beräkningsresurs-URL och ID.
Åsidosättningen cluster_id är avsedd för utvecklingsändamål och stöds endast för det målobjekt som har mappningen mode satt till development. Mer information om mappningen finns i targetmål.
Har lagts till i Databricks CLI version 0.229.0
compute_id Sträng Föråldrad. ID:t för den beräkning som ska användas för att köra paketet.
Har lagts till i Databricks CLI version 0.229.0
databricks_cli_version Sträng Databricks CLI-versionen som ska användas för paketet. Se bundle.databricks_cli_version.
Har lagts till i Databricks CLI version 0.229.0
deployment Karta Definitionen av paketdistributionen. För attribut som stöds, se Distributionslägen för Databricks Asset Bundle. Se bundle.deployment.
Har lagts till i Databricks CLI version 0.229.0
git Karta Information för Git-versionskontroll som är associerad med ditt bundle. För attribut som stöds, se git.
Har lagts till i Databricks CLI version 0.229.0
name Sträng Namnet på paketet.
Har lagts till i Databricks CLI version 0.229.0
uuid Sträng Reserverad. En universellt unik identifierare (UUID) för paketet som unikt identifierar paketet i interna Databricks-system. Detta genereras när ett paketprojekt initieras med hjälp av en Databricks-mall (med kommandot databricks bundle init).
Har lagts till i Databricks CLI version 0.236.0

bundle.databricks_cli_version

Mappningen bundle kan innehålla en databricks_cli_version mappning som begränsar den Databricks CLI-version som krävs av paketet. Detta kan förhindra problem som orsakas av mappningar som inte stöds i en viss version av Databricks CLI.

CLI-versionen av Databricks överensstämmer med semantisk versionshantering, och mappningen stöder specificering av versionsbegränsningar. Om det aktuella databricks --version värdet inte ligger inom de gränser som anges i paketets databricks_cli_version mappning uppstår ett fel när databricks bundle validate det körs i paketet. I följande exempel visas några vanliga syntaxer för versionsbegränsningar:

bundle:
  name: hello-bundle
  databricks_cli_version: '0.218.0' # require Databricks CLI 0.218.0
bundle:
  name: hello-bundle
  databricks_cli_version: '0.218.*' # allow all patch versions of Databricks CLI 0.218
bundle:
  name: my-bundle
  databricks_cli_version: '>= 0.218.0' # allow any version of Databricks CLI 0.218.0 or higher
bundle:
  name: my-bundle
  databricks_cli_version: '>= 0.218.0, <= 1.0.0' # allow any Databricks CLI version between 0.218.0 and 1.0.0, inclusive

bundle.deployment

Type: Map

Definitionen av paketdistributionen

Har lagts till i Databricks CLI version 0.229.0

Nyckel Typ Beskrivning
fail_on_active_runs Boolesk Om aktiva körningar ska misslyckas eller inte. Om detta är inställt till 'true' har en distribution som körs möjlighet att avbrytas.
Har lagts till i Databricks CLI version 0.229.0
lock Karta Attributen för distributionslås. Se bundle.deployment.lock.
Har lagts till i Databricks CLI version 0.229.0

bundle.deployment.lock

Type: Map

Attributen för distributionslås.

Har lagts till i Databricks CLI version 0.229.0

Nyckel Typ Beskrivning
enabled Boolesk Om låset är aktiverat.
Har lagts till i Databricks CLI version 0.229.0
force Boolesk Om låset ska framtvingas om det är aktiverat.
Har lagts till i Databricks CLI version 0.229.0

experimentell

Type: Map

Definierar attribut för experimentella funktioner.

Har lagts till i Databricks CLI version 0.229.0

Nyckel Typ Beskrivning
python Karta Föråldrad. Använd python-mappningen på den översta nivån i stället.
Har lagts till i Databricks CLI version 0.238.0
python_wheel_wrapper Boolesk Om du vill använda en Python-hjulomslutning.
Har lagts till i Databricks CLI version 0.229.0
scripts Karta Kommandona som ska köras.
Har lagts till i Databricks CLI version 0.229.0
skip_artifact_cleanup Boolesk Avgör om du vill hoppa över att .internal ta bort mappen i workspace.artifact_path. Som standard tas den här mappen bort innan du laddar upp nya byggartefakter (till exempel Python-hjul) under distributionen. Ange till för att true bevara befintliga artefakter mellan distributioner.
Har lagts till i Databricks CLI version 0.254.0
skip_name_prefix_for_schema Boolesk Om du vill hoppa över att lägga till prefixet (anges i presets.name_prefix eller beräknas när mode: development) i namnen på Unity Catalog-scheman som definierats i paketet.
Har lagts till i Databricks CLI version 0.255.0
use_legacy_run_as Boolesk Om du vill använda det äldre run_as beteendet.
Har lagts till i Databricks CLI version 0.229.0

inkludera

Type: Sequence

Anger en lista över sökvägsglober som innehåller konfigurationsfiler som ska ingå i paketet. Dessa sökvägsmönster är relativa till platsen för paketkonfigurationsfilen där dessa mönster anges. Förutom databricks.ymlmåste du använda matrisen include för att ange alla konfigurationsfiler som ska ingå i paketet.

Tips/Råd

Om du vill inkludera eller exkludera andra filer i paketet använder du inkludera och exkludera.

Den här include matrisen kan bara visas som en mappning på den översta nivån.

Har lagts till i Databricks CLI version 0.229.0

Följande exempelkonfiguration innehåller tre konfigurationsfiler. Dessa filer finns i samma mapp som paketkonfigurationsfilen:

include:
  - 'bundle.artifacts.yml'
  - 'bundle.resources.yml'
  - 'bundle.targets.yml'

Följande exempelkonfiguration innehåller alla filer med filnamn som börjar med bundle och slutar med .yml. Dessa filer finns i samma mapp som paketkonfigurationsfilen:

include:
  - 'bundle*.yml'

Behörigheter

Type: Sequence

Definierar de behörigheter som ska tillämpas på resurser som definierats i paketet, där varje objekt i sekvensen är en behörighet för en specifik entitet. Se Ange behörigheter för resurser i Databricks-tillgångspaket.

Tillåtna behörighetsnivåer på den översta nivån är CAN_VIEW, CAN_MANAGEoch CAN_RUN.

Om du vill använda behörigheter för en specifik resurs kan du läsa Definiera behörigheter för en specifik resurs.

Har lagts till i Databricks CLI version 0.229.0

Nyckel Typ Beskrivning
group_name Sträng Namnet på den grupp som har behörigheten angiven på en nivå.
Har lagts till i Databricks CLI version 0.229.0
level Sträng Den tillåtna behörigheten för användare, grupp, tjänstens huvudnamn som definierats för den här behörigheten. Giltiga värden för den här nyckeln skiljer sig beroende på om behörigheterna definieras på den översta nivån i paketet eller för en specifik resurs. Se Ange behörigheter för resurser i Databricks-tillgångspaket.
Har lagts till i Databricks CLI version 0.229.0
service_principal_name Sträng Namnet på tjänstens principal som har behörigheten angiven i nivå.
Har lagts till i Databricks CLI version 0.229.0
user_name Sträng Namnet på den användare som har behörigheten inställd på nivå.
Har lagts till i Databricks CLI version 0.229.0

Exempel

I följande exempelkonfiguration definieras behörighetsnivåer för en användare, grupp och tjänstens huvudnamn, som tillämpas på alla resurser som definieras i resources paketet:

permissions:
  - level: CAN_VIEW
    group_name: test-group
  - level: CAN_MANAGE
    user_name: someone@example.com
  - level: CAN_RUN
    service_principal_name: 123456-abcdef

Förinställningar

Type: Map

Definierar förinställningar för paketdistribution. Mer information finns i Anpassade förinställningar.

Om inte ett undantag anges för en förinställning åsidosätter förinställningar standardlägets beteende och inställningar för enskilda resurser för förinställningarna om båda mode och presets anges.

Har lagts till i Databricks CLI version 0.229.0

Preset Beskrivning
artifacts_dynamic_version Om du vill uppdatera versionen av whl artefakter dynamiskt under distributionen. Giltiga värden är true eller false. Om konfigurationsinställningen artifacts.dynamic_version på den översta nivån anges, åsidosätter den denna förinställning.
Har lagts till i Databricks CLI version 0.256.0
jobs_max_concurrent_runs Antalet maximala tillåtna samtidiga körningar för jobb.
Har lagts till i Databricks CLI version 0.229.0
name_prefix Prefixsträngen som ska läggas till resursnamn.
Har lagts till i Databricks CLI version 0.229.0
pipelines_development Om pipelineutplaceringar ska vara låsta i utvecklingsläge. Giltiga värden är true eller false.
Har lagts till i Databricks CLI version 0.229.0
source_linked_deployment Om resurser som skapats under driftsättning pekar på källfiler i arbetsytan i stället för på deras kopior i arbetsytan.
Har lagts till i Databricks CLI version 0.236.0
tags En uppsättning key:value-taggar som gäller för alla resurser som stöder taggar, som innehåller jobb och experiment. Databricks-tillgångspaket stöder inte taggar för resursen schema .
Har lagts till i Databricks CLI version 0.229.0
trigger_pause_status En pausstatus som ska tillämpas på alla utlösare och scheman. Giltiga värden är PAUSED eller UNPAUSED.
Om mode är inställt på development, trigger_pause_status är alltid PAUSED.
Har lagts till i Databricks CLI version 0.229.0

pytonorm

Type: Map

Konfigurerar inläsning av Python-kod som definierats med databricks-bundles-paketet. Mer information finns i Paketkonfiguration i Python.

Flyttades från experimental i Databricks CLI version 0.275.0

Nyckel Typ Beskrivning
mutators Sekvens Mutatorer innehåller en lista över fullständigt kvalificerade funktionssökvägar till mutatorfunktioner, till exempel [my_project.mutators:add_default_cluster].
Har lagts till i Databricks CLI version 0.238.0
resources Sekvens Resurser innehåller en lista över fullständigt kvalificerade funktionssökvägar för att läsa in resurser som definierats i Python-kod, till exempel ["my_project.resources:load_resources"]
Har lagts till i Databricks CLI version 0.238.0
venv_path Sträng Sökvägen till den virtuella miljön. Om den är aktiverad körs Python-kod i den här miljön. Om det är inaktiverat används python-tolken som är tillgänglig i det aktuella gränssnittet som standard.
Har lagts till i Databricks CLI version 0.238.0

Resurser

Type: Map

Definierar resurserna för paketet, där varje nyckel är namnet på resursen och värdet är en karta som definierar resursen. Mer information om resurser som stöds av Databricks-tillgångspaket och referens för resursdefinitioner finns i Databricks Asset Bundles-resurser.

Mappningen resources kan visas som en mappning på den översta nivån, eller så kan den vara underordnad ett eller flera av målen i den översta målmappningen och innehåller noll eller en av de resurstyper som stöds. Varje resurstypmappning innehåller en eller flera enskilda resursdeklarationer, som var och en måste ha ett unikt namn. Dessa enskilda resursdeklarationer använder motsvarande objekts nyttolast för skapaåtgärdens begäran, som uttrycks i YAML, för att definiera resursen. Egenskaper som stöds för en resurs är motsvarande objekts fält som stöds.

Nyttolaster för begäran om att skapa operationer dokumenteras i Databricks REST API Reference, och kommandot visar alla objektscheman som stöds. Dessutom databricks bundle validate returnerar kommandot varningar om okända resursegenskaper finns i paketkonfigurationsfiler.

Mer information om resurser som stöds i paket samt vanliga konfigurationer och exempel finns i Databricks Asset Bundles-resurser och paketkonfigurationsexempel.

Har lagts till i Databricks CLI version 0.229.0

resources:
  <resource-type>:
    <resource-name>:
      <resource-field-name>: <resource-field-value>
Nyckel Typ Beskrivning
alerts Karta Aviseringsdefinitionerna (v2) för paketet, där varje nyckel är namnet på aviseringen. Se avisering.
Har lagts till i Databricks CLI version 0.279.0
apps Karta Databricks-appdefinitionerna för paketet, där varje nyckel är namnet på appen. Se appen.
Har lagts till i Databricks CLI version 0.239.0
catalogs Karta Katalogdefinitionerna (Unity Catalog) för paketet, där varje nyckel är namnet på en katalog. Se kataloger.
Har lagts till i Databricks CLI version 0.287.0
clusters Karta Klusterdefinitionerna för paketet, där varje nyckel är namnet på ett kluster. Se kluster.
Har lagts till i Databricks CLI version 0.229.0
dashboards Karta Instrumentpanelsdefinitionerna för paketet, där varje nyckel är namnet på instrumentpanelen. Se översikten.
Har lagts till i Databricks CLI version 0.232.0
database_catalogs Karta Databaskatalogdefinitionerna för paketet, där varje nyckel är namnet på databaskatalogen. Se databaskatalog.
Har lagts till i Databricks CLI version 0.265.0
database_instances Karta Databasinstansdefinitionerna för paketet, där varje nyckel är namnet på databasinstansen. Se database_instance.
Har lagts till i Databricks CLI version 0.265.0
experiments Karta Experimentdefinitionerna för paketet, där varje nyckel är namnet på experimentet. Se experiment.
Har lagts till i Databricks CLI version 0.229.0
jobs Karta Jobbdefinitionerna för paketet, där varje nyckel är namnet på jobbet. Se jobb.
Har lagts till i Databricks CLI version 0.229.0
model_serving_endpoints Karta Modellen som betjänar slutpunktsdefinitioner för paketet, där varje nyckel är namnet på modellen som betjänar slutpunkten. Se model_serving_endpoint.
Har lagts till i Databricks CLI version 0.229.0
models Karta Modelldefinitionerna för paketet, där varje nyckel är namnet på modellen. Se modell (äldre).
Har lagts till i Databricks CLI version 0.229.0
pipelines Karta Pipelinedefinitionerna för paketet, där varje nyckel är namnet på pipelinen. Se pipeline.
Har lagts till i Databricks CLI version 0.229.0
postgres_branches Karta Postgres-grendefinitionerna för paketet, där varje nyckel är namnet på Lakebase-grenen. Se postgres_branch.
Har lagts till i Databricks CLI version 0.287.0
postgres_endpoints Karta Postgres-slutpunktsdefinitionerna för paketet, där varje nyckel är namnet på Lakebase-beräkningsslutpunkten. Se postgres_endpoint.
Har lagts till i Databricks CLI version 0.287.0
postgres_projects Karta Postgres-projektdefinitionerna för paketet, där varje nyckel är namnet på Lakebase-projektet. Se postgres_project.
Har lagts till i Databricks CLI version 0.287.0
quality_monitors Karta Kvalitetsövervakarens definitioner för paketet, där varje nyckel är namnet på kvalitetsövervakaren. Se quality_monitor (Unity Catalog).
Har lagts till i Databricks CLI version 0.229.0
registered_models Karta De registrerade modelldefinitionerna för paketet, där varje nyckel är namnet på den registrerade Unity Catalog-modellen. Se registered_model (Unity Catalog).
Har lagts till i Databricks CLI version 0.229.0
schemas Karta Schemadefinitionerna för paketet, där varje nyckel är namnet på schemat. Se schema (Unity Catalog).
Har lagts till i Databricks CLI version 0.229.0
secret_scopes Karta Definitionerna av det hemliga omfångsområdet för paketet, där varje nyckel är namnet på omfångsområdet. Kolla secret_scope.
Har lagts till i Databricks CLI version 0.252.0
sql_warehouses Karta SQL Warehouse-definitionerna för paketet, där varje nyckel är namnet på SQL-lagret. Se sql_warehouse.
Har lagts till i Databricks CLI version 0.260.0
synced_database_tables Karta De synkroniserade databastabelldefinitionerna för paketet, där varje nyckel är namnet på databastabellen. Se synced_database_table.
Har lagts till i Databricks CLI version 0.266.0
volumes Karta Volymdefinitionerna för paketet, där varje nyckel är namnet på volymen. Se volym (Unity Catalog).
Har lagts till i Databricks CLI version 0.236.0

Exempel

Följande exempelkonfiguration definierar en jobbresurs:

resources:
  jobs:
    hello-job:
      name: hello-job
      tasks:
        - task_key: hello-task
          existing_cluster_id: 1234-567890-abcde123
          notebook_task:
            notebook_path: ./hello.py

run_as

Type: Map

Identiteten (user_name eller service_principal_name) som ska användas för att köra Databricks Asset Bundles-arbetsflöden. Det ger möjlighet att separera den identitet som används för att distribuera ett paketjobb eller en pipeline från den som används för att köra jobbet eller pipelinen. Se Ange en körningsidentitet för ett Databricks Asset Bundles-arbetsflöde.

Har lagts till i Databricks CLI version 0.229.0

Nyckel Typ Beskrivning
service_principal_name Sträng Applikations-ID för ett aktivt tjänstekonto. Att ställa in det här fältet kräver rollen servicePrincipal/user.
Har lagts till i Databricks CLI version 0.229.0
user_name Sträng E-postmeddelandet för en aktiv arbetsyteanvändare. Användare som inte är administratörer kan bara ange det här fältet till sin egen e-post.
Har lagts till i Databricks CLI version 0.229.0

Skript

Type: Map

Skripten som kan köras med .bundle run Varje namngivet skript i mappningen scripts innehåller innehåll med kommandon. Se även Köra skript.

Har lagts till i Databricks CLI version 0.259.0

scripts:
  <script-name>:
    <script-field-name>: <script-field-value>
Nyckel Typ Beskrivning
content Sträng Kommandona som ska köras
Har lagts till i Databricks CLI version 0.259.0

Exempel

scripts:
  my_script:
    content: uv run pytest -m ${bundle.target}

synkronisering

Type: Map

De filer och filsökvägar som ska inkluderas eller exkluderas i paketet.

Har lagts till i Databricks CLI version 0.229.0

Nyckel Typ Beskrivning
exclude Sekvens En lista över filer eller mappar som ska undantas från paketet. Se inkludera och exkludera.
Har lagts till i Databricks CLI version 0.229.0
include Sekvens En lista över filer eller mappar som ska ingå i paketet. Se inkludera och exkludera.
Har lagts till i Databricks CLI version 0.229.0
paths Sekvens De lokala mappsökvägarna, som kan ligga utanför paketroten, ska synkroniseras till arbetsytan när paketet distribueras. Se sync.paths.
Har lagts till i Databricks CLI version 0.229.0

inkludera och exkludera

Mappningarna include och exclude i sync mappning anger en lista över filer eller mappar som ska inkluderas i eller exkluderas från paketdistributioner, beroende på följande regler:

  • Baserat på en lista över fil- och sökvägsglober i en .gitignore fil i paketets rot kan mappningen include innehålla en lista över filglober, sökvägsglober eller båda, i förhållande till paketets rot, som uttryckligen ska inkluderas.
  • Baserat på en lista över fil- och sökvägsglober i en .gitignore fil i paketets rot, plus listan över fil- och sökvägsglober i mappningen include , exclude kan mappningen innehålla en lista över filglober, sökvägsglober eller båda, i förhållande till paketets rot, som uttryckligen ska undantas.

Alla sökvägar till angivna filer och mappar är relativa till platsen för paketkonfigurationsfilen där de anges.

Syntaxen för include och exclude fil- och sökvägsmönster följer standardmönstersyntaxen .gitignore . Se gitignore-mönsterformat.

Om filen .gitignore till exempel innehåller följande poster:

.databricks
my_package/dist

Och paketkonfigurationsfilen innehåller följande include mappning:

sync:
  include:
    - my_package/dist/*.whl

Sedan ingår alla filer i my_package/dist mappen med filnamnstillägget *.whl . Andra filer i my_package/dist mappen ingår inte.

Men om paketkonfigurationsfilen också innehåller följande exclude mappning:

sync:
  include:
    - my_package/dist/*.whl
  exclude:
    - my_package/dist/delete-me.whl

Sedan ingår alla filer i my_package/dist mappen med filnamnstillägget *.whl, förutom filen med namnet delete-me.whl. Andra filer i my_package/dist mappen ingår inte heller.

Mappningen sync kan också deklareras i mappningen targets för ett specifikt mål. Alla sync mappningar som deklareras i ett mål sammanfogas med eventuella mappningsdeklarationer på den översta nivån sync . Om du till exempel fortsätter med föregående exempel sammanfogas följande include mappning på targets nivån med mappningen include i mappningen på den översta nivån sync :

targets:
  dev:
    sync:
      include:
        - my_package/dist/delete-me.whl

sync.paths

Mappningen sync kan innehålla en paths mappning som anger lokala sökvägar som ska synkroniseras till arbetsytan. Med paths mappningen kan du dela vanliga filer mellan paket och kan användas för att synkronisera filer som finns utanför paketroten. (Paketroten är platsen för filen databricks.yml.) Detta är särskilt användbart när du har en enda lagringsplats som är värd för flera paket och vill dela bibliotek, kodfiler eller konfiguration.

Angivna sökvägar måste vara relativa till filer och kataloger som är förankrade i mappen där mappningen paths anges. Om ett eller flera sökvägsvärden går uppåt i katalogen till en överordnad mapp till paketroten, bestäms rotsökvägen dynamiskt för att säkerställa att katalogstrukturen förblir intakt. Om paketrotmappen till exempel heter my_bundle synkroniserar den här konfigurationen databricks.ymlcommon mappen som finns en nivå ovanför paketroten och själva paketroten:

sync:
  paths:
    - ../common
    - .

En distribution av det här paketet resulterar i följande mappstruktur på arbetsytan:

common/
  common_file.txt
my_bundle/
  databricks.yml
  src/
    ...

Mål

Type: Map

Definierar distributionsmålkontexter för paketet. Varje mål är en unik samling artefakter, Azure Databricks-arbetsyteinställningar och ibland målspecifik resursinformation.

Mappningen targets består av en eller flera målmappningar, som var och en måste ha ett unikt programmatiskt (eller logiskt) namn. Den här mappningen är valfri men rekommenderas starkt.

Inställningarna i mappningen targets har företräde framför de inställningar som anges i arbetsytan på den översta nivån, artefakter och resursmappningar .

Ett mål kan också åsidosätta värdena för alla variabler på den översta nivån.

Har lagts till i Databricks CLI version 0.229.0

targets:
  <target-name>:
    <target-field-name>: <target-field-value>
Nyckel Typ Beskrivning
artifacts Karta Artefakterna som ska inkluderas i måldistributionen. Se artefakter.
Har lagts till i Databricks CLI version 0.229.0
bundle Karta Paketattributen vid distribution till det här målet. Se paket.
Har lagts till i Databricks CLI version 0.229.0
cluster_id Sträng ID:t för klustret som ska användas för det här målet.
Har lagts till i Databricks CLI version 0.229.0
compute_id Sträng Föråldrad. ID:t för den beräkning som ska användas för det här målet.
default Boolesk Om det här målet är standardmålet. Se mål.name.default.
Har lagts till i Databricks CLI version 0.229.0
git Karta Inställningarna för Git-versionskontroll för målet. Se git.
Har lagts till i Databricks CLI version 0.229.0
mode Sträng Deploymentsläget för målobjektet. Giltiga värden är development eller production. Se mål.distributionslägen för name.mode och Databricks Asset Bundle.
Har lagts till i Databricks CLI version 0.229.0
permissions Sekvens Behörigheter för att distribuera och köra paketet i målsystemet. Se behörigheter.
Har lagts till i Databricks CLI version 0.229.0
presets Karta Distributionsförinställningar för målet. Se mål.name.presets.
Har lagts till i Databricks CLI version 0.229.0
resources Karta Resursdefinitionerna för målet. Se resurser.
Har lagts till i Databricks CLI version 0.229.0
run_as Karta Identiteten som ska användas för att köra paketet. Se run_as och Ange en körningsidentitet för ett Databricks Asset Bundles-arbetsflöde.
Har lagts till i Databricks CLI version 0.229.0
sync Karta De lokala sökvägarna för att synkronisera till målarbetsytan när ett paket körs eller distribueras. Se synkronisera.
Har lagts till i Databricks CLI version 0.229.0
variables Karta De anpassade variabeldefinitionerna för målet. Se variabler.
Har lagts till i Databricks CLI version 0.229.0
workspace Karta Databricks-arbetsytan för målmiljön. Se arbetsyta.
Har lagts till i Databricks CLI version 0.229.0

Mål. name.default

Om du vill ange ett standardmål för paketkommandon anger du mappningen default till true. Det här målet med namnet dev är till exempel standardmålet:

targets:
  dev:
    default: true

Om ett standardmål inte har konfigurerats, eller om du vill verifiera, distribuera och köra jobb eller pipelines inom ett specifikt mål, använder -t du alternativet för paketkommandona.

Följande kommandon validerar, distribuerar och kör my_job inom målen dev och prod:

databricks bundle validate
databricks bundle deploy -t dev
databricks bundle run -t dev my_job
databricks bundle validate
databricks bundle deploy -t prod
databricks bundle run -t prod my_job

I följande exempel deklareras två mål. Det första målet har namnet dev och är standardmålet som används när inget mål har angetts för paketkommandon. Det andra målet har namnet prod och används endast när det här målet anges för paketkommandon.

targets:
  dev:
    default: true
  prod:
    workspace:
      host: https://<production-workspace-url>

Mål. name.mode

För att underlätta enkel utveckling och metodtips för CI/CD tillhandahåller Databricks Asset Bundles distributionslägen för mål som anger standardbeteenden för arbetsflöden för förproduktion och produktion. Vissa beteenden kan också konfigureras med hjälp av mål.name.presets.

Mer information finns i Distributionslägen för Databricks Asset Bundle.

Tips/Råd

Om du vill ange körningsidentiteter för paket kan du ange run_as för varje mål enligt beskrivningen i Ange en körningsidentitet för ett Databricks Asset Bundles-arbetsflöde.

Om du vill ange att ett mål ska behandlas som ett utvecklingsmål lägger du till mappningsuppsättningen mode i development. Om du vill ange att ett mål ska behandlas som ett produktionsmål lägger du till mappningsuppsättningen mode i production. Det här målet med namnet prod behandlas till exempel som ett produktionsmål:

targets:
  prod:
    mode: production

Mål. name.presets

Du kan anpassa vissa av måldistributionsbeteendena mode med hjälp av mappningen presets .

En lista över tillgängliga förinställningar finns i Anpassade förinställningar.

I följande exempel visas ett anpassat produktionsmål som prefix och taggar alla produktionsresurser:

targets:
  prod:
    mode: production
    presets:
      name_prefix: 'production_' # prefix all resource names with production_
      tags:
        prod: true

Variabler

Type: Map

Definierar en anpassad variabel för paketet. För varje variabel anger du en valfri beskrivning, standardvärde, om den anpassade variabeln är en komplex typ eller uppslag för att hämta ett ID-värde med följande format:

variables:
  <variable-name>:
    description: <variable-description>
    default: <optional-default-value>
    type: <optional-type-value> # "complex" is the only valid value
    lookup:
      <optional-object-type>: <optional-object-name>

Anmärkning

Variabler antas vara av typen string, såvida inte type är inställt på complex. Se Definiera en komplex variabel.

Om du vill referera till en anpassad variabel i paketkonfigurationen använder du ersättningen ${var.<variable_name>}.

Mer information om anpassade variabler och ersättningar finns i Substitutioner och variabler i Databricks-tillgångspaket.

Har lagts till i Databricks CLI version 0.229.0

Nyckel Typ Beskrivning
default Vilken som helst Standardvärdet för variabeln.
Har lagts till i Databricks CLI version 0.229.0
description Sträng Beskrivningen av variabeln.
Har lagts till i Databricks CLI version 0.229.0
lookup Karta Namnet på alert, cluster_policy, cluster, dashboard, instance_pool, job, metastore, pipeline, query, service_principaleller warehouse objekt som ett ID ska hämtas för. Se variabler.name.lookup.
Har lagts till i Databricks CLI version 0.229.0
type Sträng Typen av variabel, enkel eller komplex. Ange endast den här nyckeln om variabeln är komplex. Giltiga värden: complex.
Har lagts till i Databricks CLI version 0.229.0

Variabler. name.lookup

Type: Map

Namnet på aviseringen, cluster_policy, kluster, instrumentpanel, instance_pool, jobb, metaarkiv, pipeline, fråga, service_principal eller lagerobjekt som ett ID ska hämtas för. Information om hur du använder uppslag finns i Hämta ett objekts ID-värde.

Har lagts till i Databricks CLI version 0.229.0

Nyckel Typ Beskrivning
alert Sträng Namnet på aviseringen som du vill hämta ett ID för.
Har lagts till i Databricks CLI version 0.229.0
cluster Sträng Namnet på klustret som ett ID ska hämtas för.
Har lagts till i Databricks CLI version 0.229.0
cluster_policy Sträng Namnet på cluster_policy för vilket ett ID ska hämtas.
Har lagts till i Databricks CLI version 0.229.0
dashboard Sträng Namnet på instrumentpanelen som ett ID ska hämtas för.
Har lagts till i Databricks CLI version 0.229.0
instance_pool Sträng Namnet på instance_pool som ett ID ska hämtas för.
Har lagts till i Databricks CLI version 0.229.0
job Sträng Namnet på det jobb som ett ID ska hämtas för.
Har lagts till i Databricks CLI version 0.229.0
metastore Sträng Namnet på metaarkivet som ett ID ska hämtas för.
Har lagts till i Databricks CLI version 0.229.0
notification_destination Sträng Namnet på notification_destination som ett ID ska hämtas för.
Har lagts till i Databricks CLI version 0.236.0
pipeline Sträng Namnet på pipelinen för vilket ett ID ska hämtas.
Har lagts till i Databricks CLI version 0.229.0
query Sträng Namnet på frågan som ett ID ska hämtas för.
Har lagts till i Databricks CLI version 0.229.0
service_principal Sträng Namnet på den service_principal som ett ID ska hämtas för.
Har lagts till i Databricks CLI version 0.229.0
warehouse Sträng Namnet på det lager som ett ID ska hämtas för.
Har lagts till i Databricks CLI version 0.229.0

arbetsyta

Type: Map

Definierar Databricks-arbetsytan för paketet. Paketkonfigurationsfilen kan bara innehålla en mappning på den översta nivån workspace för att ange eventuella icke-standardinställningar för Azure Databricks-arbetsytor som ska användas.

Viktigt!

Giltiga sökvägar för Databricks-arbetsytor börjar antingen med /Workspace, eller /Volumes stöds också för artefakter. Anpassade arbetsytesökvägar prefixeras automatiskt med /Workspace, så om du använder någon ersättning för arbetsytesökväg ${workspace.file_path}, till exempel i din anpassade sökväg, behöver du inte lägga till /Workspace till sökvägen.

Har lagts till i Databricks CLI version 0.229.0

Nyckel Typ Beskrivning
artifact_path Sträng Artefaktsökvägen som ska användas på arbetsytan för både distributioner och arbetsflödeskörningar
Har lagts till i Databricks CLI version 0.229.0
auth_type Sträng Den autentiseringstyp som ska användas, särskilt viktig i fall där Databricks CLI härleder en oväntad autentiseringstyp. Se Auktorisera åtkomst till Azure Databricks-resurser.
Har lagts till i Databricks CLI version 0.229.0
azure_client_id Sträng Azure-klient-ID:t. Se Autentisering av arbetsyta.
Har lagts till i Databricks CLI version 0.229.0
azure_environment Sträng Azure-miljön. Se Autentisering av arbetsyta.
Har lagts till i Databricks CLI version 0.229.0
azure_login_app_id Sträng Azure-inloggningsappens ID. Se Autentisering av arbetsyta.
Har lagts till i Databricks CLI version 0.229.0
azure_tenant_id Sträng Azure-klient-ID Se Autentisering av arbetsyta.
Har lagts till i Databricks CLI version 0.229.0
azure_use_msi Boolesk Om du vill använda MSI för Azure. Se Autentisering av arbetsyta.
Har lagts till i Databricks CLI version 0.229.0
azure_workspace_resource_id Sträng Resurs-ID:t för Azure-arbetsytan. Se Autentisering av arbetsyta.
Har lagts till i Databricks CLI version 0.229.0
client_id Sträng Klient-ID för arbetsytan. Se Autentisering av arbetsyta.
Har lagts till i Databricks CLI version 0.229.0
file_path Sträng Filsökvägen som ska användas på arbetsytan för både distributioner och arbetsflödeskörningar. Se workspace.file_path.
Har lagts till i Databricks CLI version 0.229.0
google_service_account Sträng Namnet på Google-tjänstkontot. Se Autentisering av arbetsyta.
Har lagts till i Databricks CLI version 0.229.0
host Sträng Databricks-arbetsytans värd-URL. Se Namn på arbetsyteinstanser, URL:er och ID:er.
Om du anger mappningen host instrueras Databricks CLI att hitta en matchande profil i .databrickscfg filen och sedan använda profilens fält för att avgöra vilken Databricks-autentiseringstyp som ska användas. Om det finns flera profiler med ett matchande host fält i .databrickscfg filen måste du använda mappningen profile (eller kommandoradsalternativen --profile-p ) för att ange en profil.
Har lagts till i Databricks CLI version 0.229.0
profile Sträng Profilnamnet för Databricks-arbetsytan. Se workspace.profile.
Har lagts till i Databricks CLI version 0.229.0
resource_path Sträng Arbetsytans resurssökväg
Har lagts till i Databricks CLI version 0.230.0
root_path Sträng Rotsökvägen för Databricks-arbetsytan. Se workspace.root_path.
Har lagts till i Databricks CLI version 0.229.0
state_path Sträng Arbetsytans tillståndssökväg. Den här nyckeln är standardsökvägen ${workspace.root}/state för och representerar sökvägen i din arbetsyta för att lagra Terraform-tillståndsinformation om distributioner.
Har lagts till i Databricks CLI version 0.229.0

autentisering av arbetsyta

Mappningen av arbetsytan kan också innehålla mappningar för att ange den Databricks-autentiseringsmekanism som ska användas. Om de inte anges i mappningen på den översta nivån måste de anges i en arbetsytemappning som underordnad ett eller flera av målen i den översta målmappningen.

  • För OAuth-autentisering från dator till dator (M2M) används mappningen client_id . Du kan också ange det här värdet i den lokala miljövariabeln DATABRICKS_CLIENT_ID. Eller så kan du skapa en konfigurationsprofil med client_id värdet och sedan ange profilens namn med mappningen profile (eller genom att använda --profile alternativen eller -p när du kör paketet validera, distribuera, köra och förstöra kommandon med Databricks CLI). Se Auktorisera tjänstens huvudnamnsåtkomst till Azure Databricks med OAuth.

    Anmärkning

    Du kan inte ange ett hemligt Azure Databricks OAuth-värde i paketkonfigurationsfilen. Ange i stället den lokala miljövariabeln DATABRICKS_CLIENT_SECRET. Eller så kan du lägga till client_secret-värdet i en konfigurationsprofil och sedan ange profilens namn med profile-mappningen (eller genom att använda alternativen --profile eller -p när du kör kommandona validera, distribuera, köra, och förstöra i Databricks CLI).

  • För Azure CLI-autentisering används mappningen azure_workspace_resource_id . Du kan också ange det här värdet i den lokala miljövariabeln DATABRICKS_AZURE_RESOURCE_ID. Eller så kan du skapa en konfigurationsprofil med azure_workspace_resource_id värdet och sedan ange profilens namn med mappningen profile (eller genom att använda --profile alternativen eller -p när du kör paketet validera, distribuera, köra och förstöra kommandon med Databricks CLI). Se Autentisera med Azure CLI.

  • För Azure-klienthemlig autentisering med tjänstens huvudnamn används mappningarna azure_workspace_resource_id, azure_tenant_idoch azure_client_id . Du kan också ange dessa värden i de lokala miljövariablerna DATABRICKS_AZURE_RESOURCE_ID, ARM_TENANT_IDrespektive , och ARM_CLIENT_ID. Eller så kan du skapa en konfigurationsprofil med azure_workspace_resource_idvärdena , azure_tenant_idoch azure_client_id och sedan ange profilens namn med mappningen profile (eller genom att använda --profile alternativen eller -p när du kör paketet validera, distribuera, köra och förstöra kommandon med Databricks CLI). Se också Autentisera med Microsoft Entra-tjänstens huvudanvändare.

    Anmärkning

    Du kan inte ange ett Azure-klienthemlighetsvärde i paketkonfigurationsfilen. Ange i stället den lokala miljövariabeln ARM_CLIENT_SECRET. Eller så kan du lägga till azure_client_secret-värdet i en konfigurationsprofil och sedan ange profilens namn med profile-mappningen (eller genom att använda alternativen --profile eller -p när du kör kommandona validera, distribuera, köra, och förstöra i Databricks CLI).

  • För Azure-autentisering av hanterade identiteter används mappningarna azure_use_msi, azure_client_idoch azure_workspace_resource_id . Du kan också ange dessa värden i de lokala miljövariablerna ARM_USE_MSI, ARM_CLIENT_IDrespektive , och DATABRICKS_AZURE_RESOURCE_ID. Eller så kan du skapa en konfigurationsprofil med azure_use_msivärdena , azure_client_idoch azure_workspace_resource_id och sedan ange profilens namn med mappningen profile (eller genom att använda --profile alternativen eller -p när du kör paketet validera, distribuera, köra och förstöra kommandon med Databricks CLI). Se Autentisera med hanterade Azure-identiteter.

  • Mappningen azure_environment anger Azure-miljötypen (till exempel Public, UsGov, Kina och Tyskland) för en specifik uppsättning API-slutpunkter. Standardvärdet är PUBLIC. Du kan också ange det här värdet i den lokala miljövariabeln ARM_ENVIRONMENT. Eller så kan du lägga till azure_environment-värdet i en konfigurationsprofil och sedan ange profilens namn med profile-mappningen (eller genom att använda alternativen --profile eller -p när du kör kommandona validera, distribuera, köra, och förstöra i Databricks CLI).

  • Mappningen azure_login_app_id är inte i drift och är reserverad för intern användning.

workspace.root_path

Den här workspace mappningen kan innehålla en root_path mappning för att ange en icke-standardrotsökväg som ska användas på arbetsytan för både distributioner och körningar av arbetsflöden, till exempel:

workspace:
  root_path: /Workspace/Users/${workspace.current_user.userName}/.bundle/${bundle.name}/my-envs/${bundle.target}

Databricks CLI använder som standardinställning standardsökvägen root_path, som använder /Workspace/Users/${workspace.current_user.userName}/.bundle/${bundle.name}/${bundle.target}.

workspace.artifact_path

Den här workspace-mappningen kan också innehålla en artifact_path-mappning för att ange en icke-standardiserad artefaktsökväg att använda på arbetsytan för både distributioner och arbetsflödeskörningar, till exempel:

workspace:
  artifact_path: /Workspace/Users/${workspace.current_user.userName}/.bundle/${bundle.name}/my-envs/${bundle.target}/artifacts

Databricks CLI använder som standardinställning standardsökvägen artifact_path, som använder ${workspace.root}/artifacts.

Anmärkning

Mappningen artifact_path stöder inte DBFS-sökvägar (Databricks File System).

workspace.file_path

Den här workspace mappningen kan också innehålla en file_path mappning för att ange en icke-standardfilsökväg som ska användas på arbetsytan för både distributioner och arbetsflödeskörningar, till exempel:

workspace:
  file_path: /Workspace/Users/${workspace.current_user.userName}/.bundle/${bundle.name}/my-envs/${bundle.target}/files

Databricks CLI använder som standardinställning standardsökvägen file_path, som använder ${workspace.root}/files.

Viktigt!

Du kan inte ange anpassade variabler för dessa autentiseringsvärden med hjälp av syntaxen ${var.*} .

workspace.profile

Anmärkning

Databricks rekommenderar att du använder mappningen host (eller alternativen eller --profile-p när du kör paketet validerar, distribuerar, kör och förstör kommandon med Databricks CLI) i stället för mappningen profile , eftersom det gör paketkonfigurationsfilerna mer portabla.

Mappningen profile anger namnet på en konfigurationsprofil som ska användas för att autentisera till den här Azure Databricks-arbetsytan. Den här konfigurationsprofilen mappar till den som du skapade när du konfigurerade Databricks CLI.

Vanliga objekt

Git

Type: Map

Definierar information om git-versionskontroll. Detta är användbart för att sprida distributionsmetadata som kan användas senare för att identifiera resurser. Du kan till exempel spåra lagringsplatsens ursprung för ett jobb som distribueras av CI/CD.

När du kör ett bundle kommando som validate, deploy eller run, bundle fyller kommandots konfigurationsträd med följande standardinställningar:

Om du vill hämta eller åsidosätta Git-inställningar måste ditt paket finnas i en katalog som är associerad med en Git-lagringsplats, till exempel en lokal katalog som initieras genom att köra git clone kommandot. Om katalogen inte är associerad med en Git-lagringsplats är de här Git-inställningarna tomma.

Nyckel Typ Beskrivning
branch Sträng Det aktuella Git-grennamnet. Det här är samma värde som du skulle få om du körde kommandot git branch --show-current från din klonade lagringsplats. Du kan använda ersättningar för att referera till det här värdet med dina paketkonfigurationsfiler, som ${bundle.git.branch}.
origin_url Sträng Lagringsplatsens ursprungs-URL. Det här är samma värde som du skulle få om du körde kommandot git config --get remote.origin.url från din klonade lagringsplats. Du kan använda ersättningar för att referera till det här värdet med dina paketkonfigurationsfiler, som ${bundle.git.origin_url}.

Exempel

Du kan åsidosätta origin_url inställningarna och branch i mappningen git av din toppnivåmappning bundle om det behövs:

bundle:
  git:
    origin_url: <some-non-default-origin-url>
    branch: <some-non-current-branch-name>