Freigeben über


Konfigurationsreferenz

Dieser Artikel enthält eine Übersicht über Schlüssel, die von der Konfiguration der Databricks Asset Bundles (YAML) unterstützt werden. Weitere Informationen finden Sie unter Was sind Databricks-Ressourcenpakete?.

Vollständige Bundle-Beispiele finden Sie unter Bundle-Konfigurationsbeispiele und im GitHub-Repository bundle-examples.

Artefakte

Type: Map

Gibt die Artefakte an, die während Der Bundlebereitstellungen automatisch erstellt werden sollen, die später in Bundleausführungen verwendet werden können. Jeder Schlüssel ist der Name des Artefakts, und der Wert ist eine Karte, die die Artefaktbuildeinstellungen definiert.

Tipp

Sie können die Einstellungen für Artefakte in Bundles definieren, kombinieren und außer Kraft setzen, wie unter "Außerkraftsetzen mit Zieleinstellungen" beschrieben.

Hinzugefügt in Databricks CLI, Version 0.229.0

artifacts:
  <artifact-name>:
    <artifact-field-name>: <artifact-field-value>
Schlüssel Typ Beschreibung
build Zeichenfolge Ein optionaler Satz von Buildbefehlen, die vor der Bereitstellung lokal ausgeführt werden sollen. Bei Python-Wheel-Builds geht die Databricks CLI davon aus, dass sie eine lokale Installation des Python-wheel-Pakets zum Ausführen von Builds finden kann, und führt den Befehl python setup.py bdist_wheel standardmäßig während jeder Paketbereitstellung aus. Geben Sie mehrere Buildbefehle in separaten Zeilen an.
Hinzugefügt in Databricks CLI, Version 0.229.0
dynamic_version Boolescher Wert Gibt an, ob die Wheel-Version dynamisch basierend auf dem Zeitstempel der WHL-Datei gepatcht werden soll. Wenn dies auf true festgelegt ist, kann neuer Code bereitgestellt werden, ohne die Version in setup.py oder pyproject.toml aktualisieren zu müssen. Diese Einstellung ist nur gültig, wenn type auf whl festgelegt ist.
Hinzugefügt in Databricks CLI Version 0.245.0
executable Zeichenfolge Der ausführbare Typ. Gültige Werte sind bash, sh und cmd.
Hinzugefügt in Databricks CLI, Version 0.229.0
files Sequenz Der relative oder absolute Pfad zu den erstellten Artefaktdateien. Siehe Artefakte.name.files.
Hinzugefügt in Databricks CLI, Version 0.229.0
path Zeichenfolge Der lokale Pfad des Artefaktverzeichnisses. Pfade sind relativ zum Speicherort der Bundlekonfigurationsdatei. Bei Python-Wheel-Builds ist es der Pfad zur setup.py Datei der Python-Wheel-Datei. Falls path nicht enthalten ist, versucht die Databricks CLI, die Python-Wheel-Datei im Stammverzeichnis setup.py des Bundles zu finden.
Hinzugefügt in Databricks CLI, Version 0.229.0
type Zeichenfolge Erforderlich, wenn es sich bei dem Artefakt um ein Python-Rad handelt. Der Typ des Artefakts. Gültige Werte sind whl und jar. Diese Einstellung muss nicht angegeben werden, um andere Artefakte zu erstellen.
Hinzugefügt in Databricks CLI, Version 0.229.0

Beispiele

Die folgende Konfiguration erstellt ein Python-Rad mit Poesie:

artifacts:
  default:
    type: whl
    build: poetry build
    path: .

Die folgende Konfiguration führt Tests aus und erstellt ein Rad. Ein vollständiges Bundle-Lernprogramm, das zum Erstellen eines Rads verwendet artifacts wird, finden Sie unter Erstellen einer Python-Raddatei mit Databricks Asset Bundles.

artifacts:
  default:
    type: whl
    build: |-
      # run tests
      python -m pytest tests/ -v

      # build the actual artifact
      python setup.py bdist_wheel

    path: .

Eine Beispielkonfiguration, die einen JAR erstellt und in den Unity-Katalog hochlädt, finden Sie unter Bundle, das eine JAR-Datei in unity Cataloghochlädt.

Artefakte. name.files

Type: Sequence

Der relative oder absolute Pfad zu den erstellten Artefaktdateien. Wird source verwendet, um die erstellten Artefakte anzugeben. Pfade sind relativ zum Speicherort der Bundlekonfigurationsdatei.

Hinzugefügt in Databricks CLI, Version 0.229.0

Schlüssel Typ Beschreibung
source Zeichenfolge Erforderlich Die Artefaktquelldatei.
Hinzugefügt in Databricks CLI, Version 0.229.0

bundle

Type: Map

Paketattribute für Bereitstellungen in diesem Ziel.

Eine Bündelkonfigurationsdatei darf nur eine Zuordnung auf oberster Ebene bundle enthalten.

Diese bundle-Zuordnung muss eine name-Zuordnung enthalten, die einen programmgesteuerten (oder logischen) Namen für das Paket angibt. Im folgenden Beispiel wird ein Paket mit dem programmgesteuerten (oder logischen) Namen hello-bundle deklariert.

bundle:
  name: hello-bundle

Eine bundle-Zuordnung kann auch ein untergeordnetes Element eines oder mehrerer Ziele in der Zuordnung von Zielen der obersten Ebene sein. Jede dieser untergeordneten bundle-Zuordnungen gibt alle nicht standardmäßigen Überschreibungen auf Zielebene an.

Hinzugefügt in Databricks CLI, Version 0.229.0

Schlüssel Typ Beschreibung
cluster_id Zeichenfolge Die ID eines Clusters, der zum Ausführen des Bundles verwendet werden soll. Mit diesem Schlüssel können Sie die ID eines Clusters angeben, der als Außerkraftsetzung für Cluster verwendet werden soll, die an anderer Stelle in der Bundlekonfigurationsdatei definiert sind. Informationen zum Abrufen der ID eines Clusters finden Sie unter Compute-Ressourcen-URL und -ID.
Die cluster_id-Außerkraftsetzung ist für reine Entwicklungsszenarien vorgesehen und wird nur für das Ziel unterstützt, für das die mode-Zuordnung auf development festgelegt ist. Weitere Informationen zur target-Zuordnung finden Sie unter targets.
Hinzugefügt in Databricks CLI, Version 0.229.0
compute_id Zeichenfolge Veraltet. Zum Ausführen des Pakets zu verwendende Compute-ID.
Hinzugefügt in Databricks CLI, Version 0.229.0
databricks_cli_version Zeichenfolge Die Databricks CLI-Version, die für das Bundle verwendet werden soll. Siehe bundle.databricks_cli_version.
Hinzugefügt in Databricks CLI, Version 0.229.0
deployment Zuordnung Definition der Paketbereitstellung Unterstützte Attribute finden Sie unter Databricks Asset Bundle-Bereitstellungsmodi. Siehe bundle.deployment.
Hinzugefügt in Databricks CLI, Version 0.229.0
git Zuordnung Die Git-Versionskontrolldetails, die mit Ihrem Bundle verknüpft sind. Unterstützte Attribute finden Sie unter Git.
Hinzugefügt in Databricks CLI, Version 0.229.0
name Zeichenfolge Der Name des Bundles
Hinzugefügt in Databricks CLI, Version 0.229.0
uuid Zeichenfolge Reserviert Ein eindeutiger Bezeichner (UUID) für das Bundle, der das Bundle in internen Databricks-Systemen eindeutig identifiziert. Dieser wird generiert, wenn ein Bundle-Projekt mithilfe einer Databricks-Vorlage (mithilfe des Befehls databricks bundle init) initialisiert wird.
Hinzugefügt in Databricks CLI Version 0.236.0

bundle.databricks_cli_version

Die bundle-Zuordnung kann eine databricks_cli_version-Zuordnung enthalten, die die für das Paket erforderliche Databricks CLI-Version einschränkt. Dies kann Probleme verhindern, die durch die Verwendung von Zuordnungen verursacht werden, die in einer bestimmten Version der Databricks CLI nicht unterstützt werden.

Die Databricks CLI-Version folgt der semantischen Versionsverwaltung, und die databricks_cli_version-Zuordnung unterstützt die Angabe von Versionseinschränkungen. Wenn sich der aktuelle databricks --version Wert nicht innerhalb der Grenzen befindet, die in der Zuordnung des Bundles databricks_cli_version angegeben sind, tritt ein Fehler auf, wenn databricks bundle validate im Bundle ausgeführt wird. Die folgenden Beispiele veranschaulichen die allgemeine Syntax zur Versionseinschränkung:

bundle:
  name: hello-bundle
  databricks_cli_version: '0.218.0' # require Databricks CLI 0.218.0
bundle:
  name: hello-bundle
  databricks_cli_version: '0.218.*' # allow all patch versions of Databricks CLI 0.218
bundle:
  name: my-bundle
  databricks_cli_version: '>= 0.218.0' # allow any version of Databricks CLI 0.218.0 or higher
bundle:
  name: my-bundle
  databricks_cli_version: '>= 0.218.0, <= 1.0.0' # allow any Databricks CLI version between 0.218.0 and 1.0.0, inclusive

bundle.deployment

Type: Map

Definition der Paketbereitstellung

Hinzugefügt in Databricks CLI, Version 0.229.0

Schlüssel Typ Beschreibung
fail_on_active_runs Boolescher Wert Gibt an, ob aktive Ausführungen fehlschlagen sollen. Wenn dies auf "true" festgelegt ist, kann ein laufender Einsatz unterbrochen werden.
Hinzugefügt in Databricks CLI, Version 0.229.0
lock Zuordnung Bereitstellungssperrenattribute. Siehe bundle.deployment.lock.
Hinzugefügt in Databricks CLI, Version 0.229.0

bundle.deployment.lock

Type: Map

Bereitstellungssperrenattribute.

Hinzugefügt in Databricks CLI, Version 0.229.0

Schlüssel Typ Beschreibung
enabled Boolescher Wert Gibt an, ob diese Sperre aktiviert ist.
Hinzugefügt in Databricks CLI, Version 0.229.0
force Boolescher Wert Gibt an, ob diese Sperre erzwungen werden soll, wenn sie aktiviert ist.
Hinzugefügt in Databricks CLI, Version 0.229.0

experimentell

Type: Map

Definiert Attribute für experimentelle Features.

Hinzugefügt in Databricks CLI, Version 0.229.0

Schlüssel Typ Beschreibung
python Zuordnung Veraltet. Verwenden Sie stattdessen die Python-Zuordnung der obersten Ebene.
Hinzugefügt in Databricks CLI, Version 0.238.0
python_wheel_wrapper Boolescher Wert Gibt an, ob ein Python-Wheel-Wrapper verwendet werden soll.
Hinzugefügt in Databricks CLI, Version 0.229.0
scripts Zuordnung Auszuführende Befehle.
Hinzugefügt in Databricks CLI, Version 0.229.0
skip_artifact_cleanup Boolescher Wert Bestimmt, ob das Löschen des Ordners innerhalb .internaldes workspace.artifact_path Ordners übersprungen werden soll. Dieser Ordner wird standardmäßig gelöscht, bevor während der Bereitstellung neue Buildartefakte (z. B. Python-Räder) hochgeladen werden. Legen Sie fest, true dass vorhandene Artefakte in bereitstellungsübergreifenden Bereitstellungen beibehalten werden sollen.
Hinzugefügt in Databricks CLI Version 0.254.0
skip_name_prefix_for_schema Boolescher Wert Gibt an, ob das Hinzufügen des Präfixes (festgelegt presets.name_prefix oder berechnet, wenn mode: development) zu den Namen der im Bundle definierten Unity-Katalogschemas übersprungen werden soll.
Hinzugefügt in Databricks CLI Version 0.255.0
use_legacy_run_as Boolescher Wert Gibt an, ob das veraltete run_as-Verhalten verwendet werden soll.
Hinzugefügt in Databricks CLI, Version 0.229.0

include

Type: Sequence

Gibt eine Liste von Pfad-Globs an, die Konfigurationsdateien enthalten, die in das Bundle eingeschlossen werden sollen. Diese Pfadglobs sind relativ zum Speicherort der Paketkonfigurationsdatei, in der die Pfadglobs angegeben sind. Abgesehen davon databricks.ymlmüssen Sie das include Array verwenden, um alle Konfigurationsdateien anzugeben, die in das Bundle eingeschlossen werden sollen.

Tipp

Wenn Sie andere Dateien in das Bundle einschließen oder ausschließen möchten, verwenden Sie "Einschließen" und "Ausschließen".

Dieses include-Array kann nur als Zuordnung auf oberster Ebene erscheinen.

Hinzugefügt in Databricks CLI, Version 0.229.0

Die folgende Beispielkonfiguration enthält drei Konfigurationsdateien. Diese Dateien befinden sich im selben Ordner wie die Paketkonfigurationsdatei:

include:
  - 'bundle.artifacts.yml'
  - 'bundle.resources.yml'
  - 'bundle.targets.yml'

die folgende Beispielkonfiguration enthält alle Dateien mit Dateinamen, die mit bundle beginnen und mit .yml enden. Diese Dateien befinden sich im selben Ordner wie die Paketkonfigurationsdatei:

include:
  - 'bundle*.yml'

Berechtigungen

Type: Sequence

Definiert die Berechtigungen, die auf ressourcen angewendet werden sollen, die im Bundle definiert sind, wobei jedes Element in der Sequenz eine Berechtigung für eine bestimmte Entität ist. Weitere Informationen finden Sie unter "Berechtigungen für Ressourcen in Databricks Asset Bundles festlegen".

Zulässige Berechtigungsstufen auf oberster Ebene sind CAN_VIEW, CAN_MANAGE und CAN_RUN.

Wenn Sie Berechtigungen auf eine bestimmte Ressource anwenden möchten, lesen Sie Definieren von Berechtigungen für eine bestimmte Ressource.

Hinzugefügt in Databricks CLI, Version 0.229.0

Schlüssel Typ Beschreibung
group_name Zeichenfolge Name der Gruppe, für die die Berechtigung auf der Ebene aktiviert ist.
Hinzugefügt in Databricks CLI, Version 0.229.0
level Zeichenfolge Zulässige Berechtigung der für diese Berechtigung definierten Benutzer, Gruppe, Dienstprinzipale. Gültige Werte für diesen Schlüssel unterscheiden sich je nachdem, ob die Berechtigungen auf der obersten Ebene des Bündels oder für eine bestimmte Ressource definiert sind. Weitere Informationen finden Sie unter "Berechtigungen für Ressourcen in Databricks Asset Bundles festlegen".
Hinzugefügt in Databricks CLI, Version 0.229.0
service_principal_name Zeichenfolge Name des Dienstprinzipals, für den die Berechtigung auf dieser Ebene aktiviert ist.
Hinzugefügt in Databricks CLI, Version 0.229.0
user_name Zeichenfolge Name des Benutzers, für den die Berechtigung auf dieser Ebene aktiviert ist.
Hinzugefügt in Databricks CLI, Version 0.229.0

Beispiel

Die folgende Beispielkonfiguration definiert Berechtigungsstufen für einen Benutzer, eine Gruppe und einen Dienstprinzipal, die auf alle im resources Bundle definierten Ressourcen angewendet werden:

permissions:
  - level: CAN_VIEW
    group_name: test-group
  - level: CAN_MANAGE
    user_name: someone@example.com
  - level: CAN_RUN
    service_principal_name: 123456-abcdef

Voreinstellungen

Type: Map

Definiert Voreinstellungen für die Paketbereitstellung Weitere Informationen finden Sie unter benutzerdefinierte Voreinstellungen.

Es sei denn, eine Ausnahme wird für eine Voreinstellung angegeben, wenn beide mode festgelegt sind und presets festgelegt werden, überschreiben Voreinstellungen das Standardmodusverhalten und die Einstellungen einzelner Ressourcen die Voreinstellungen.

Hinzugefügt in Databricks CLI, Version 0.229.0

Voreinstellung Beschreibung
artifacts_dynamic_version Gibt an, ob die Version von whl Artefakten während der Bereitstellung dynamisch aktualisiert werden soll. Gültige Werte sind true und false. Wenn die artifacts.dynamic_version Konfigurationseinstellung der obersten Ebene angegeben ist, überschreibt sie diese Voreinstellung.
Hinzugefügt in Databricks CLI Version 0.256.0
jobs_max_concurrent_runs Die Anzahl der maximal zulässigen gleichzeitigen Ausführungen von Aufträgen.
Hinzugefügt in Databricks CLI, Version 0.229.0
name_prefix Die Präfixzeichenfolge, die Ressourcennamen vorangestellt werden soll.
Hinzugefügt in Databricks CLI, Version 0.229.0
pipelines_development Gibt an, ob Pipelinebereitstellungen im Entwicklungsmodus gesperrt werden sollen. Gültige Werte sind true und false.
Hinzugefügt in Databricks CLI, Version 0.229.0
source_linked_deployment Gibt an, ob Ressourcen, die während der Bereitstellung erstellt wurden, auf Quelldateien im Arbeitsbereich statt auf deren Kopien im Arbeitsbereich verweisen.
Hinzugefügt in Databricks CLI Version 0.236.0
tags Eine Reihe von Schlüssel-Wert-Tags, die für alle Ressourcen gelten, die Tags unterstützen, wozu Aufträge und Experimente gehören. Databricks Asset Bundles unterstützen keine Tags für die schema Ressource.
Hinzugefügt in Databricks CLI, Version 0.229.0
trigger_pause_status Ein Pausenstatus, der auf alle Trigger und Zeitpläne anzuwenden ist. Gültige Werte sind PAUSED und UNPAUSED.
Wenn mode auf development festgelegt ist, ist trigger_pause_status immer PAUSED.
Hinzugefügt in Databricks CLI, Version 0.229.0

Python

Type: Map

Konfiguriert das Laden von Python-Code, der mit dem Databricks-Bundles-Paket definiert ist. Weitere Informationen finden Sie unter Bundle-Konfiguration in Python.

Verschoben aus experimental Databricks CLI, Version 0.275.0

Schlüssel Typ Beschreibung
mutators Sequenz Mutatoren enthalten eine Liste vollständig qualifizierter Funktionspfade von Mutatorfunktionen, z. B. [my_project.mutators:add_default_cluster].
Hinzugefügt in Databricks CLI, Version 0.238.0
resources Sequenz Ressourcen enthalten eine Liste der vollqualifizierten Funktionspfade zum Laden von Ressourcen, die im Python-Code definiert sind, z. B. ["my_project.resources:load_resources"]
Hinzugefügt in Databricks CLI, Version 0.238.0
venv_path Zeichenfolge Der Pfad zur virtuellen Umgebung. Wenn diese Option aktiviert ist, wird Python-Code in dieser Umgebung ausgeführt. Wenn deaktiviert, wird standardmäßig der Python-Interpreter verwendet, der in der aktuellen Shell verfügbar ist.
Hinzugefügt in Databricks CLI, Version 0.238.0

Ressourcen

Type: Map

Definiert die Ressourcen für das Bundle, wobei jeder Schlüssel der Name der Ressource ist, und der Wert ist eine Zuordnung, die die Ressource definiert. Weitere Informationen zu den von Databricks-Ressourcenpaketen unterstützten Ressourcen sowie eine Ressourcendefinitionsreferenz finden Sie unter Ressourcen für Databricks-Ressourcenpakete.

Die resources Zuordnung kann als Zuordnung auf oberster Ebene angezeigt werden, oder sie kann ein untergeordnetes Element eines oder mehrerer Ziele in der Zuordnung der Ziele der obersten Ebene sein und enthält null oder einen der unterstützten Ressourcentypen. Jede Ressourcentypzuordnung enthält eine oder mehrere einzelne Ressourcendeklarationen, die jeweils einen eindeutigen Namen haben müssen. Diese einzelnen Ressourcendeklarationen verwenden die Anforderungsnutzlast der Erstellungsoperation des entsprechenden Objekts, ausgedrückt in YAML, um die Ressource zu definieren. Unterstützte Eigenschaften für eine Ressource sind die unterstützten Felder des entsprechenden Objekts.

Die Anforderungsnutzlasten des Erstellungsvorgangs sind in der Referenz zur Databricks-REST-API dokumentiert. Der databricks bundle schema-Befehl gibt alle unterstützten Objektschemas zurück. Darüber hinaus gibt der databricks bundle validate-Befehl Warnungen zurück, wenn unbekannte Ressourceneigenschaften in Paketkonfigurationsdateien gefunden werden.

Weitere Informationen zu Ressourcen, die in Bundles unterstützt werden, sowie allgemeine Konfigurationen und Beispiele finden Sie unter Databricks Asset Bundles-Ressourcen und Bundle-Konfigurationsbeispiele.

Hinzugefügt in Databricks CLI, Version 0.229.0

resources:
  <resource-type>:
    <resource-name>:
      <resource-field-name>: <resource-field-value>
Schlüssel Typ Beschreibung
alerts Zuordnung Die Warnungsdefinitionen (v2) für das Bundle, wobei jeder Schlüssel der Name der Warnung ist. Siehe Warnung.
Hinzugefügt in Databricks CLI, Version 0.279.0
apps Zuordnung Die Databricks-App-Definitionen für das Bundle, wobei jeder Schlüssel der Name der App ist. Weitere Informationen finden Sie unter app.
Hinzugefügt in Databricks CLI Version 0.239.0
catalogs Zuordnung Die Katalogdefinitionen (Unity-Katalog) für das Bundle, wobei jeder Schlüssel der Name eines Katalogs ist. Siehe Kataloge.
Hinzugefügt in Databricks CLI Version 0.287.0
clusters Zuordnung Die Clusterdefinitionen für das Bundle, wobei jeder Schlüssel der Name eines Clusters ist Siehe Cluster.
Hinzugefügt in Databricks CLI, Version 0.229.0
dashboards Zuordnung Die Dashboarddefinitionen für das Bundle, wobei jeder Schlüssel der Name des Dashboards ist. Siehe Dashboard.
Hinzugefügt in Databricks CLI Version 0.232.0
database_catalogs Zuordnung Die Datenbankkatalogdefinitionen für das Bundle, wobei jeder Schlüssel der Name des Datenbankkatalogs ist. Siehe database_catalog.
Hinzugefügt in Databricks CLI, Version 0.265.0
database_instances Zuordnung Die Datenbankinstanzdefinitionen für das Bundle, wobei jeder Schlüssel der Name der Datenbankinstanz ist. Siehe database_instance.
Hinzugefügt in Databricks CLI, Version 0.265.0
experiments Zuordnung Die Experimentdefinitionen für das Bündel, wobei jeder Schlüssel der Name des Experiments ist. Siehe Experiment.
Hinzugefügt in Databricks CLI, Version 0.229.0
jobs Zuordnung Die Auftragsdefinitionen für das Bundle, wobei jeder Schlüssel der Name des Auftrags ist Siehe job.
Hinzugefügt in Databricks CLI, Version 0.229.0
model_serving_endpoints Zuordnung Die Modellausführungs-Endpunktdefinitionen für das Bundle, wobei jeder Schlüssel der Name des Modellausführungsendpunkts ist. Siehe model_serving_endpoint.
Hinzugefügt in Databricks CLI, Version 0.229.0
models Zuordnung Die Modelldefinitionen für das Bundle, wobei jeder Schlüssel der Name des Modells ist. Siehe model (veraltet).
Hinzugefügt in Databricks CLI, Version 0.229.0
pipelines Zuordnung Die Pipelinedefinitionen für das Bundle, wobei jeder Schlüssel der Name der Pipeline ist Siehe Pipeline.
Hinzugefügt in Databricks CLI, Version 0.229.0
postgres_branches Zuordnung Die Zweigdefinitionen für das Bundle, wobei jeder Schlüssel der Name des Lakebase-Zweigs ist. Siehe postgres_branch.
Hinzugefügt in Databricks CLI Version 0.287.0
postgres_endpoints Zuordnung Die Postgres-Endpunktdefinitionen für das Bundle, wobei jeder Schlüssel der Name des Lakebase-Computeendpunkts ist. Siehe postgres_endpoint.
Hinzugefügt in Databricks CLI Version 0.287.0
postgres_projects Zuordnung Die Projektdefinitionen für das Bundle, wobei jeder Schlüssel der Name des Lakebase-Projekts ist. Siehe postgres_project.
Hinzugefügt in Databricks CLI Version 0.287.0
quality_monitors Zuordnung Die Definitionen der Qualitätsmonitore für das Bundle, wobei jeder Schlüssel der Name eines Qualitätsmonitors ist. Siehe quality_monitor (Unity-Katalog).
Hinzugefügt in Databricks CLI, Version 0.229.0
registered_models Zuordnung Die registrierten Modelldefinitionen für das Bundle, wobei jeder Schlüssel der Name des registrierten Unity Catalog-Modells ist. Siehe registered_model (Unity-Katalog).
Hinzugefügt in Databricks CLI, Version 0.229.0
schemas Zuordnung Die Schemadefinitionen für das Bundle, wobei jeder Schlüssel der Name des Schemas ist Siehe Schema (Unity-Katalog).
Hinzugefügt in Databricks CLI, Version 0.229.0
secret_scopes Zuordnung Die geheimen Bereichsdefinitionen für das Bundle, wobei jeder Schlüssel der Name des geheimen Bereichs ist. Siehe secret_scope.
Hinzugefügt in Databricks CLI, Version 0.252.0
sql_warehouses Zuordnung Die SQL Warehouse-Definitionen für das Bundle, wobei jeder Schlüssel der Name des SQL Warehouse ist. Siehe sql_warehouse.
Hinzugefügt in Databricks CLI Version 0.260.0
synced_database_tables Zuordnung Die synchronisierten Datenbanktabellendefinitionen für das Bundle, wobei jeder Schlüssel der Name der Datenbanktabelle ist. Siehe synced_database_table.
Hinzugefügt in Databricks CLI Version 0.266.0
volumes Zuordnung Volumedefinitionen für das Paket. Jeder Schlüssel gibt den Namen des Volumes an. Weitere Informationen finden Sie unter Volumen (Unity-Katalog).
Hinzugefügt in Databricks CLI Version 0.236.0

Beispiel

Die folgende Beispielkonfiguration definiert eine Auftragsressource:

resources:
  jobs:
    hello-job:
      name: hello-job
      tasks:
        - task_key: hello-task
          existing_cluster_id: 1234-567890-abcde123
          notebook_task:
            notebook_path: ./hello.py

run_as

Type: Map

Die Identität (user_name oder service_principal_name) zum Ausführen von Databricks Asset Bundles-Workflows. Sie bietet die Möglichkeit, die Identität, die zum Bereitstellen eines Bündelauftrags oder einer Pipeline verwendet wird, von derjenigen zu trennen, die zum Ausführen des Auftrags oder der Pipeline verwendet wird. Weitere Informationen finden Sie unter Angeben einer Ausführungsidentität für einen Databricks-Ressourcenbundle-Workflow.

Hinzugefügt in Databricks CLI, Version 0.229.0

Schlüssel Typ Beschreibung
service_principal_name Zeichenfolge Anwendungs-ID eines aktiven Dienstprinzipals. Das Festlegen dieses Felds erfordert die Rolle servicePrincipal/user.
Hinzugefügt in Databricks CLI, Version 0.229.0
user_name Zeichenfolge Die E-Mail-Adresse eines aktiven Arbeitsbereichsbenutzers. Benutzer, die keine Administratoren sind, können dieses Feld nur auf ihre eigene E-Mail-Adresse festlegen.
Hinzugefügt in Databricks CLI, Version 0.229.0

scripts

Type: Map

Die Skripts, die mit bundle runausgeführt werden können. Jedes benannte Skript in der scripts Zuordnung enthält Inhalte mit Befehlen. Siehe Ausführen von Skripts.

Hinzugefügt in Databricks CLI Version 0.259.0

scripts:
  <script-name>:
    <script-field-name>: <script-field-value>
Schlüssel Typ Beschreibung
content Zeichenfolge Auszuführende Befehle
Hinzugefügt in Databricks CLI Version 0.259.0

Beispiele

scripts:
  my_script:
    content: uv run pytest -m ${bundle.target}

Sync

Type: Map

Die Dateien und Dateipfade, die in das Bundle eingeschlossen oder davon ausgeschlossen werden sollen.

Hinzugefügt in Databricks CLI, Version 0.229.0

Schlüssel Typ Beschreibung
exclude Sequenz Eine Liste von Dateien oder Ordnern, die vom Bundle ausgeschlossen werden sollen. Siehe Einschließen und Ausschließen.
Hinzugefügt in Databricks CLI, Version 0.229.0
include Sequenz Eine Liste der Dateien oder Ordner, die in das Bundle aufgenommen werden sollen. Siehe Einschließen und Ausschließen.
Hinzugefügt in Databricks CLI, Version 0.229.0
paths Sequenz Lokale Ordnerpfade, die sich außerhalb des Paketstamms befinden können und zum Synchronisieren mit dem Arbeitsbereich verwenden werden, wenn das Paket bereitgestellt wird. Siehe sync.paths.
Hinzugefügt in Databricks CLI, Version 0.229.0

einschließen und ausschließen

Die Zuordnungen include und exclude innerhalb der sync-Zuordnung geben je nach den folgenden Regeln eine Liste von Dateien oder Ordnern an, die in die Paketbereitstellungen einbezogen oder von diesen ausgeschlossen werden sollen:

  • Basierend auf einer beliebigen Liste von Datei- und Pfad-Globs in einer .gitignore Datei im Stammverzeichnis des Bundles kann die include Zuordnung eine Liste von Dateiglobs, Pfad-Globs oder beides, relativ zum Stammverzeichnis des Bundles, enthalten, die explizit einbezogen werden sollen.
  • Basierend auf einer beliebigen Liste von Datei- und Pfad-Globs in einer .gitignore Datei im Stammverzeichnis des Bündels sowie der Liste der Datei- und Pfad-Globs in der include Zuordnung kann die exclude Zuordnung eine Liste von Datei-Globs, Pfad-Globs oder beides enthalten, relativ zum Stamm des Bundles, um explizit auszuschließen.

Alle Pfade zu angegebenen Ordnern und Dateien sind relativ zum Speicherort der Paketkonfigurationsdatei, in der diese Pfade angegeben werden.

Die Syntax für Datei- und Pfadmuster für include und exclude folgt der Standardmustersyntax .gitignore. Weitere Informationen finden Sie unter gitignore-Musterformat.

Beispiel, wenn die folgende .gitignore-Datei die folgenden Einträge enthält:

.databricks
my_package/dist

Außerdem enthält die Paketkonfigurationsdatei die folgende include-Zuordnung:

sync:
  include:
    - my_package/dist/*.whl

Dann sind alle Dateien im my_package/dist-Ordner mit der Dateierweiterung *.whl enthalten. Alle anderen Dateien im my_package/dist-Ordner sind nicht enthalten.

Wenn allerdings die Paketkonfigurationsdatei auch die folgende exclude-Zuordnung enthält:

sync:
  include:
    - my_package/dist/*.whl
  exclude:
    - my_package/dist/delete-me.whl

Dann sind alle Dateien im my_package/dist-Ordner mit der Dateierweiterung *.whl enthalten, mit Ausnahme der Datei namens delete-me.whl. Alle anderen Dateien im my_package/dist-Ordner sind ebenfalls nicht enthalten.

Die sync-Zuordnung kann auch in der targets-Zuordnung für ein bestimmtes Ziel angegeben werden. Alle in einem Ziel deklarierten sync-Zuordnungen werden mit sync-Zuordnungsdeklarationen der obersten Ebene zusammengeführt. Wenn Sie beispielsweise mit dem vorherigen Beispiel fortfahren, wird die folgende include-Zuordnung auf der targets-Ebene mit der include-Zuordnung in der sync-Zuordnung auf oberster Ebene zusammengeführt:

targets:
  dev:
    sync:
      include:
        - my_package/dist/delete-me.whl

sync.paths

Die sync-Zuordnung kann eine paths-Zuordnung enthalten, die lokale Pfade zum Synchronisieren mit dem Arbeitsbereich angibt. Die paths-Zuordnung ermöglicht Ihnen das paketübergreifende Freigeben gemeinsamer Dateien und kann zum Synchronisieren von Dateien außerhalb des Paketstamms verwendet werden. (Der Paketstamm ist der Speicherort der Datei „databricks.yml“.) Dies ist besonders nützlich, wenn Sie über ein einzelnes Repository verfügen, das mehrere Pakete hostet, und Bibliotheken, Codedateien oder Konfigurationen freigeben möchten.

Angegebene Pfade müssen relativ zu Dateien und Verzeichnissen sein, die in dem Ordner verankert sind, in dem die paths-Zuordnung festgelegt ist. Wenn ein oder mehrere Pfadwerte das Verzeichnis bis zu einem Vorgänger des Paketstamms durchlaufen, wird der Stammpfad dynamisch bestimmt, um sicherzustellen, dass die Ordnerstruktur intakt bleibt. Wenn der Paketstammordner z. B. my_bundle heißt, synchronisiert diese Konfiguration in databricks.yml den Ordner common auf einer Ebene oberhalb des Paketstamms und den Paketstamm selbst:

sync:
  paths:
    - ../common
    - .

Eine Bereitstellung dieses Pakets ergibt die folgende Ordnerstruktur im Arbeitsbereich:

common/
  common_file.txt
my_bundle/
  databricks.yml
  src/
    ...

Ziele

Type: Map

Definiert Bereitstellungszielkontexte für das Bundle. Jedes Ziel ist eine eindeutige Sammlung von Artefakten, Azure Databricks-Arbeitsbereichseinstellungen und manchmal zielspezifische Ressourcendetails.

Die targets-Zuordnung besteht aus mindestens einer Zielzuordnung, die jeweils über einen eindeutigen programmgesteuerten (oder logischen) Namen verfügen muss. Diese Zuordnung ist optional, aber dringend empfohlen.

Die Einstellungen innerhalb der targets Zuordnung haben Vorrang vor einstellungen, die im Arbeitsbereich der obersten Ebene, Artefakte und Ressourcenzuordnungen angegeben sind.

Ein Ziel kann auch die Werte aller Variablen der obersten Ebene überschreiben.

Hinzugefügt in Databricks CLI, Version 0.229.0

targets:
  <target-name>:
    <target-field-name>: <target-field-value>
Schlüssel Typ Beschreibung
artifacts Zuordnung Artefakte, die in die Zielbereitstellung aufgenommen werden sollen. Siehe Artefakte.
Hinzugefügt in Databricks CLI, Version 0.229.0
bundle Zuordnung Paketattribute für Bereitstellungen in diesem Ziel. Siehe Bundle.
Hinzugefügt in Databricks CLI, Version 0.229.0
cluster_id Zeichenfolge Die ID des Clusters, der für dieses Ziel verwendet werden soll.
Hinzugefügt in Databricks CLI, Version 0.229.0
compute_id Zeichenfolge Veraltet. Die ID des Computes, der für dieses Ziel verwendet werden soll.
default Boolescher Wert Gibt an, ob es sich bei diesem Ziel um das Standardziel handelt. Siehe Ziele.name.default.
Hinzugefügt in Databricks CLI, Version 0.229.0
git Zuordnung Die Git-Versionssteuerungseinstellungen für das Ziel Weitere Informationen finden Sie unter git.
Hinzugefügt in Databricks CLI, Version 0.229.0
mode Zeichenfolge Bereitstellungsmodus für das Ziel. Gültige Werte sind development und production. Siehe Ziele.name.mode und Databricks Asset Bundle-Bereitstellungsmodi.
Hinzugefügt in Databricks CLI, Version 0.229.0
permissions Sequenz Berechtigungen für die Bereitstellung und Ausführung des Pakets im Ziel. Weitere Informationen finden Sie unter Berechtigungen.
Hinzugefügt in Databricks CLI, Version 0.229.0
presets Zuordnung Bereitstellungsvoreinstellungen für das Ziel. Siehe Ziele.name.presets.
Hinzugefügt in Databricks CLI, Version 0.229.0
resources Zuordnung Die Ressourcendefinitionen für das Ziel. Siehe Ressourcen.
Hinzugefügt in Databricks CLI, Version 0.229.0
run_as Zuordnung Die Identität, die zum Ausführen des Bundles verwendet werden soll. Siehe run_as und Angeben einer Ausführungsidentität für einen Databricks Asset Bundles-Workflow.
Hinzugefügt in Databricks CLI, Version 0.229.0
sync Zuordnung Die lokalen Pfade, die mit dem Zielarbeitsbereich synchronisiert werden sollen, wenn ein Bundle ausgeführt oder bereitgestellt wird. Weitere Informationen finden Sie unter sync.
Hinzugefügt in Databricks CLI, Version 0.229.0
variables Zuordnung Die benutzerdefinierten Variablendefinitionen für das Ziel. Siehe variables.
Hinzugefügt in Databricks CLI, Version 0.229.0
workspace Zuordnung Databricks-Arbeitsbereich für das Ziel. Siehe workspace.
Hinzugefügt in Databricks CLI, Version 0.229.0

Ziele. name.default

Legen Sie zum Angeben eines Standardwerts für das Ziel für Paketbefehle die default-Zuordnung auf true fest. Dieses Ziel mit dem Namen dev ist beispielsweise das Standardziel:

targets:
  dev:
    default: true

Wenn kein Standardziel konfiguriert ist oder wenn Sie Aufträge oder Pipelines innerhalb eines bestimmten Ziels überprüfen, bereitstellen und ausführen möchten, verwenden Sie die Option -t der Paketbefehle.

Die folgenden Befehle dienen zum Überprüfen, Bereitstellen und Ausführen von my_job innerhalb der Ziele dev und prod:

databricks bundle validate
databricks bundle deploy -t dev
databricks bundle run -t dev my_job
databricks bundle validate
databricks bundle deploy -t prod
databricks bundle run -t prod my_job

Im folgenden Beispiel werden zwei Ziele deklariert. Das erste Ziel hat den Namen dev und ist das Standardziel, das verwendet wird, wenn für Paketbefehle kein Ziel angegeben wird. Das zweite Ziel hat den Namen prod und wird nur verwendet, wenn dieses Ziel für Paketbefehle angegeben wird.

targets:
  dev:
    default: true
  prod:
    workspace:
      host: https://<production-workspace-url>

Ziele. name.mode

Zur Vereinfachung der Entwicklung und als bewährte CI/CD-Methoden verfügen Databricks-Ressourcenpakete über Bereitstellungsmodi für Ziele, die Standardverhaltensweisen für Vorproduktions- und Produktionsworkflows festlegen. Einige Verhaltensweisen können auch mithilfe von Zielen konfiguriert werden.name.presets.

Ausführliche Informationen finden Sie unter Bereitstellungsmodi für Databricks-Ressourcenpakete.

Tipp

Sie können zum Festlegen von Ausführungsidentitäten für Pakete für jedes Ziel run_as angeben, wie unter Angeben einer Ausführungsidentität für einen Databricks-Ressourcenpaketworkflow beschrieben.

Um anzugeben, dass ein Ziel als Entwicklungsziel behandelt wird, fügen Sie die mode-Zuordnung hinzu, die auf development festgelegt ist. Um anzugeben, dass ein Ziel als Produktionsziel behandelt wird, fügen Sie die mode-Zuordnung hinzu, die auf production festgelegt ist. Beispielsweise wird dieses Ziel mit dem Namen prod als Produktionsziel behandelt:

targets:
  prod:
    mode: production

Ziele. name.presets

Sie können einige der Zielbereitstellungsverhalten mode mithilfe der presets Zuordnung anpassen.

Eine Liste der verfügbaren Voreinstellungen finden Sie unter Benutzerdefinierte Voreinstellungen.

Das folgende Beispiel zeigt ein angepasstes Produktionsziel, bei dem alle Produktionsressourcen mit Präfixen und Tags versehen werden:

targets:
  prod:
    mode: production
    presets:
      name_prefix: 'production_' # prefix all resource names with production_
      tags:
        prod: true

Variablen

Type: Map

Definiert eine benutzerdefinierte Variable für das Bundle. Legen Sie zum Abrufen eines ID-Werts für jede Variable eine optionale Beschreibung, einen Standardwert, oder einen Lookup fest, und geben Sie an, ob es sich bei der benutzerdefinierten Variable um einen komplexen Typ handelt. Verwenden Sie dazu das folgende Format:

variables:
  <variable-name>:
    description: <variable-description>
    default: <optional-default-value>
    type: <optional-type-value> # "complex" is the only valid value
    lookup:
      <optional-object-type>: <optional-object-name>

Hinweis

Bei Variablen wird davon ausgegangen, dass es sich um Variablen vom Typ string handelt, es sei denn, type wird auf complex festgelegt. Siehe Definieren einer komplexen Variablen.

Um auf eine benutzerdefinierte Variable innerhalb der Paketkonfiguration zu verweisen, verwenden Sie die Ersetzung ${var.<variable_name>}.

Weitere Informationen zu benutzerdefinierten Variablen und Ersetzungen finden Sie unter Ersetzungen und Variablen in Databricks-Ressourcenpaketen.

Hinzugefügt in Databricks CLI, Version 0.229.0

Schlüssel Typ Beschreibung
default Beliebig Der Standardwert für die Variable.
Hinzugefügt in Databricks CLI, Version 0.229.0
description Zeichenfolge Die Variablenbeschreibung
Hinzugefügt in Databricks CLI, Version 0.229.0
lookup Zuordnung Der Name des Objekts alert, cluster_policy, cluster, dashboard, instance_pool, job, metastore, pipeline, query, service_principal oder warehouse, für das eine ID abgerufen werden soll Siehe Variablen.name.lookup.
Hinzugefügt in Databricks CLI, Version 0.229.0
type Zeichenfolge Der Typ der Variablen, einfach oder komplex. Legen Sie diesen Schlüssel nur fest, wenn die Variable komplex ist. Gültige Werte: complex.
Hinzugefügt in Databricks CLI, Version 0.229.0

variables.name.lookup

Type: Map

Der Name von Warnung, cluster_policy, Cluster, Dashboard, instance_pool, Auftrag, Metastore, Pipeline, Abfrage, service_principal oder Warehouse-Objekt, für die/den/das eine ID abgerufen werden soll. Informationen zur Verwendung von Lookup finden Sie unter Abrufen des ID-Werts eines Objekts.

Hinzugefügt in Databricks CLI, Version 0.229.0

Schlüssel Typ Beschreibung
alert Zeichenfolge Der Name der Warnung, für die eine ID abgerufen werden soll.
Hinzugefügt in Databricks CLI, Version 0.229.0
cluster Zeichenfolge Der Name des Clusters, für den eine ID abgerufen werden soll.
Hinzugefügt in Databricks CLI, Version 0.229.0
cluster_policy Zeichenfolge Der Name der cluster_policy, für die eine ID abgerufen werden soll.
Hinzugefügt in Databricks CLI, Version 0.229.0
dashboard Zeichenfolge Der Name des Dashboards, für das eine ID abgerufen werden soll.
Hinzugefügt in Databricks CLI, Version 0.229.0
instance_pool Zeichenfolge Der Name der instance_pool, für die eine ID abgerufen werden soll.
Hinzugefügt in Databricks CLI, Version 0.229.0
job Zeichenfolge Der Name des Auftrags, für den eine ID abgerufen werden soll.
Hinzugefügt in Databricks CLI, Version 0.229.0
metastore Zeichenfolge Der Name des Metastores, für den eine ID abgerufen werden soll.
Hinzugefügt in Databricks CLI, Version 0.229.0
notification_destination Zeichenfolge Der Name der notification_destination, für die eine ID abgerufen werden soll.
Hinzugefügt in Databricks CLI Version 0.236.0
pipeline Zeichenfolge Name der Pipeline, für die eine ID abgerufen werden soll.
Hinzugefügt in Databricks CLI, Version 0.229.0
query Zeichenfolge Der Name der Abfrage, für die eine ID abgerufen werden soll.
Hinzugefügt in Databricks CLI, Version 0.229.0
service_principal Zeichenfolge Der Name des Service_Principal, für den eine ID abgerufen werden soll.
Hinzugefügt in Databricks CLI, Version 0.229.0
warehouse Zeichenfolge Der Name des Lagers, für das eine ID abgerufen werden soll.
Hinzugefügt in Databricks CLI, Version 0.229.0

Arbeitsbereich

Type: Map

Definiert den Databricks-Arbeitsbereich für das Bundle. Die Paketkonfigurationsdatei darf nur eine workspace-Zuordnung auf oberster Ebene enthalten, um alle nicht standardmäßigen Azure Databricks-Arbeitsbereichseinstellungen anzugeben, die verwendet werden sollen.

Von Bedeutung

Gültige Databricks-Arbeitsbereichspfade beginnen entweder mit /Workspace oder, im Fall von Artefakten, wird /Volumes ebenfalls unterstützt. Benutzerdefinierte Arbeitsbereichspfade werden automatisch mit dem Präfix /Workspace versehen. Wenn Sie eine Arbeitsbereichspfadersetzung in Ihrem benutzerdefinierten Pfad (etwa ${workspace.file_path}) verwenden, müssen Sie daher dem Pfad nicht /Workspace voranstellen.

Hinzugefügt in Databricks CLI, Version 0.229.0

Schlüssel Typ Beschreibung
artifact_path Zeichenfolge Artefaktpfad, der im Arbeitsbereich für Bereitstellungen und für Workflowausführungen zu verwenden ist
Hinzugefügt in Databricks CLI, Version 0.229.0
auth_type Zeichenfolge Der zu verwendende Authentifizierungstyp, insbesondere in Fällen, in denen die Databricks CLI einen unerwarteten Authentifizierungstyp ableiten kann. Weitere Informationen finden Sie unter Autorisieren des Zugriffs auf Azure Databricks-Ressourcen.
Hinzugefügt in Databricks CLI, Version 0.229.0
azure_client_id Zeichenfolge Die Azure-Client-ID. Siehe Arbeitsbereichauthentifizierung.
Hinzugefügt in Databricks CLI, Version 0.229.0
azure_environment Zeichenfolge Die Azure-Umgebung. Siehe Arbeitsbereichauthentifizierung.
Hinzugefügt in Databricks CLI, Version 0.229.0
azure_login_app_id Zeichenfolge Die Azure-Anmelde-App-ID. Siehe Arbeitsbereichauthentifizierung.
Hinzugefügt in Databricks CLI, Version 0.229.0
azure_tenant_id Zeichenfolge Die Azure-Mandanten-ID. Siehe Arbeitsbereichauthentifizierung.
Hinzugefügt in Databricks CLI, Version 0.229.0
azure_use_msi Boolescher Wert Gibt an, ob MSI für Azure verwendet werden soll. Siehe Arbeitsbereichauthentifizierung.
Hinzugefügt in Databricks CLI, Version 0.229.0
azure_workspace_resource_id Zeichenfolge Die Ressourcen-ID des Azure-Arbeitsbereichs. Siehe Arbeitsbereichauthentifizierung.
Hinzugefügt in Databricks CLI, Version 0.229.0
client_id Zeichenfolge Die Client-ID für den Arbeitsbereich. Siehe Arbeitsbereichauthentifizierung.
Hinzugefügt in Databricks CLI, Version 0.229.0
file_path Zeichenfolge Der Im Arbeitsbereich zu verwendende Dateipfad für Bereitstellungen und Workflows wird ausgeführt. Siehe workspace.file_path.
Hinzugefügt in Databricks CLI, Version 0.229.0
google_service_account Zeichenfolge Der Name des Google-Dienstkontos. Siehe Arbeitsbereichauthentifizierung.
Hinzugefügt in Databricks CLI, Version 0.229.0
host Zeichenfolge Die Host-URL des Databricks-Arbeitsbereichs. Weitere Informationen finden Sie unter Instanznamen, URLs und IDs von Arbeitsbereichen.
Wenn Sie die host-Zuordnung festlegen, weist dies die Databricks CLI an, ein übereinstimmendes Profil in Ihrer .databrickscfg-Datei zu finden und dann die Felder dieses Profils zu verwenden, um zu bestimmen, welcher Databricks-Authentifizierungstyp genutzt werden soll. Wenn mehrere Profile mit einem übereinstimmenden host Feld in Ihrer .databrickscfg Datei vorhanden sind, müssen Sie die profile Zuordnung (oder -p die --profile Befehlszeilenoptionen) verwenden, um ein Profil anzugeben.
Hinzugefügt in Databricks CLI, Version 0.229.0
profile Zeichenfolge Der Profilname des Databricks-Arbeitsbereichs. Siehe "workspace.profile".
Hinzugefügt in Databricks CLI, Version 0.229.0
resource_path Zeichenfolge Ressourcenpfad des Arbeitsbereichs
Hinzugefügt in Databricks CLI Version 0.230.0
root_path Zeichenfolge Der Stammpfad des Databricks-Arbeitsbereichs. Siehe workspace.root_path.
Hinzugefügt in Databricks CLI, Version 0.229.0
state_path Zeichenfolge Der Arbeitsbereichsstatuspfad. Dieser Schlüssel ist standardmäßig der Standardpfad von ${workspace.root}/state und stellt den Pfad innerhalb Ihres Arbeitsbereichs dar, um Terraform-Statusinformationen zu Bereitstellungen zu speichern.
Hinzugefügt in Databricks CLI, Version 0.229.0

Arbeitsbereichsauthentifizierung

Die Arbeitsbereichszuordnung kann auch Zuordnungen enthalten, um den zu verwendenden Databricks-Authentifizierungsmechanismus anzugeben. Wenn sie nicht innerhalb der Arbeitsbereichszuordnung der obersten Ebene angegeben werden, müssen sie in einer Arbeitsbereichszuordnung als untergeordnetes Element eines oder mehrerer Ziele in der Zuordnung der Obersten Ebene angegeben werden.

  • Für die OAuth-M2M-Authentifizierung (Machine-to-Machine, Computer-zu-Computer) wird die client_id-Zuordnung verwendet. Alternativ können Sie diesen Wert in der lokalen Umgebungsvariablen DATABRICKS_CLIENT_ID festlegen. Sie können auch ein Konfigurationsprofil mit dem client_id Wert erstellen und dann den Namen des Profils mit der profile Zuordnung angeben (oder indem Sie die Optionen --profile oder -p verwenden, wenn Sie die Befehle 'validate', 'deploy', 'run' und 'destroy' für das Bundle mit der Databricks CLI ausführen). Siehe Autorisieren des Dienstprinzipalzugriffs auf Azure Databricks mit OAuth.

    Hinweis

    Sie können keinen Wert für das Azure Databricks-OAuth-Geheimnis in der Paketkonfigurationsdatei angeben. Legen Sie stattdessen die lokale Umgebungsvariable DATABRICKS_CLIENT_SECRET fest. Oder Sie können den client_secret-Wert zu einem Konfigurationsprofil hinzufügen und anschließend den Namen des Profils mit der profile-Zuordnung angeben (oder indem Sie die Optionen --profile oder -p verwenden, wenn Sie Befehle zum Überprüfen, Bereitstellen, Ausführen und Zerstören mit der Databricks CLI ausführen).

  • Für die Azure CLI-Authentifizierung wird die azure_workspace_resource_id-Zuordnung verwendet. Alternativ können Sie diesen Wert in der lokalen Umgebungsvariablen DATABRICKS_AZURE_RESOURCE_ID festlegen. Sie können auch ein Konfigurationsprofil mit dem azure_workspace_resource_id Wert erstellen und dann den Namen des Profils mit der profile Zuordnung angeben (oder indem Sie die Optionen --profile oder -p verwenden, wenn Sie die Befehle 'validate', 'deploy', 'run' und 'destroy' für das Bundle mit der Databricks CLI ausführen). Siehe Authentifizieren mit der Azure CLI.

  • Für die Authentifizierung des Azure-Clientgeheimnisses mit Dienstprinzipalen werden die Zuordnungen azure_workspace_resource_id, azure_tenant_id und azure_client_id verwendet. Alternativ können Sie diese Werte in den lokalen Umgebungsvariablen DATABRICKS_AZURE_RESOURCE_ID, ARM_TENANT_ID bzw ARM_CLIENT_ID festlegen. Sie können auch ein Konfigurationsprofil mit den Werten azure_workspace_resource_id, azure_tenant_id und azure_client_id erstellen und dann den Namen des Profils mit der profile Zuordnung angeben (oder indem Sie die Optionen --profile oder -p verwenden, wenn Sie die Befehle "validate", "deploy", "run" und "destroy" mit dem Databricks CLI ausführen). Siehe Authentifizierung mit Microsoft Entra-Dienstprinzipalen.

    Hinweis

    Sie können keinen Wert für den geheimen Azure-Clientschlüssel in der Paketkonfigurationsdatei angeben. Legen Sie stattdessen die lokale Umgebungsvariable ARM_CLIENT_SECRET fest. Oder Sie können den azure_client_secret-Wert zu einem Konfigurationsprofil hinzufügen und anschließend den Namen des Profils mit der profile-Zuordnung angeben (oder indem Sie die Optionen --profile oder -p verwenden, wenn Sie Befehle zum Überprüfen, Bereitstellen, Ausführen und Zerstören mit der Databricks CLI ausführen).

  • Für die Authentifizierung mit von Azure verwalteten Identitäten werden die Zuordnungen azure_use_msi, azure_client_id und azure_workspace_resource_id verwendet. Alternativ können Sie diese Werte in den lokalen Umgebungsvariablen ARM_USE_MSI, ARM_CLIENT_ID bzw DATABRICKS_AZURE_RESOURCE_ID festlegen. Sie können auch ein Konfigurationsprofil mit den Werten azure_use_msi, azure_client_id und azure_workspace_resource_id erstellen und dann den Namen des Profils mit der profile Zuordnung angeben (oder indem Sie die Optionen --profile oder -p verwenden, wenn Sie die Befehle "validate", "deploy", "run" und "destroy" mit dem Databricks CLI ausführen). Siehe Authentifizieren mit von Azure verwalteten Identitäten.

  • Die azure_environment-Zuordnung gibt den Azure-Umgebungstyp (z. B. Öffentlich, UsGov, China und Deutschland) für eine bestimmte Gruppe von API-Endpunkten an. Der Standardwert ist PUBLIC. Alternativ können Sie diesen Wert in der lokalen Umgebungsvariablen ARM_ENVIRONMENT festlegen. Oder Sie können den azure_environment-Wert zu einem Konfigurationsprofil hinzufügen und anschließend den Namen des Profils mit der profile-Zuordnung angeben (oder indem Sie die Optionen --profile oder -p verwenden, wenn Sie Befehle zum Überprüfen, Bereitstellen, Ausführen und Zerstören mit der Databricks CLI ausführen).

  • Die azure_login_app_id-Zuordnung ist nicht betriebsbereit und für die interne Verwendung reserviert.

workspace.root_path

Diese workspace-Zuordnung kann eine root_path-Zuordnung enthalten, um einen nicht standardmäßigen Stammpfad anzugeben, der innerhalb des Arbeitsbereichs sowohl für Bereitstellungen als auch für Workflowausführungen verwendet werden soll, z. B.:

workspace:
  root_path: /Workspace/Users/${workspace.current_user.userName}/.bundle/${bundle.name}/my-envs/${bundle.target}

Standardmäßig verwendet die Databricks CLI für root_path den Standardpfad von /Workspace/Users/${workspace.current_user.userName}/.bundle/${bundle.name}/${bundle.target}, der Ersetzungen verwendet.

workspace.artifact_path

Diese workspace-Zuordnung kann auch eine artifact_path-Zuordnung enthalten, um einen nicht standardmäßigen Artefaktpfad anzugeben, der innerhalb des Arbeitsbereichs sowohl für Bereitstellungen als auch für Workflowausführungen verwendet werden soll, z. B.:

workspace:
  artifact_path: /Workspace/Users/${workspace.current_user.userName}/.bundle/${bundle.name}/my-envs/${bundle.target}/artifacts

Standardmäßig verwendet die Databricks CLI für artifact_path den Standardpfad von ${workspace.root}/artifacts, der Ersetzungen verwendet.

Hinweis

Die Zuordnung artifact_path unterstützt keine Databricks File System (DBFS) Pfade.

workspace.file_path

Diese workspace-Zuordnung kann auch eine file_path-Zuordnung enthalten, um einen nicht standardmäßigen Dateipfad anzugeben, der innerhalb des Arbeitsbereichs sowohl für Bereitstellungen als auch für Workflowausführungen verwendet werden soll, z. B.:

workspace:
  file_path: /Workspace/Users/${workspace.current_user.userName}/.bundle/${bundle.name}/my-envs/${bundle.target}/files

Standardmäßig verwendet die Databricks CLI für file_path den Standardpfad von ${workspace.root}/files, der Ersetzungen verwendet.

Von Bedeutung

Sie können keine benutzerdefinierten Variablen für diese Authentifizierungswerte mithilfe der ${var.*} Syntax angeben.

workspace.profile

Hinweis

Databricks empfiehlt, die host-Zuordnung (oder die Optionen --profile oder -p beim Ausführen der Befehle „bundle validate“, „bundle deploy“, „bundle run“ und „bundle destroy“ mit der Databricks-CLI) anstelle der profile-Zuordnung zu verwenden, da diese Ihre Paketkonfigurationsdateien portierbarer macht.

Die profile Zuordnung gibt den Namen eines Konfigurationsprofils an, das für die Authentifizierung bei diesem Azure Databricks-Arbeitsbereich verwendet werden soll. Dieses Konfigurationsprofil wird dem Profil zugeordnet, das Sie beim Einrichten der Databricks CLI erstellt haben.

Allgemeine Objekte

Git

Type: Map

Definiert Details zur Git-Versionssteuerung. Dies ist nützlich für die Verteilung von Bereitstellungsmetadaten, die später zum Identifizieren von Ressourcen verwendet werden können. Sie können z. B. den Repositoryursprung eines Auftrags nachverfolgen, der von CI/CD bereitgestellt wird.

Wenn Sie einen bundle-Befehl ausführen, wie z. B. validate, deploy oder run, füllt der bundle-Befehl die Konfigurationsstruktur des Befehls mit den folgenden Standardeinstellungen auf:

Zum Abrufen oder Überschreiben von Git-Einstellungen muss sich Ihr Paket in einem Verzeichnis befinden, das einem Git-Repository zugeordnet ist, z. B. einem lokalen Verzeichnis, das durch Ausführen des git clone-Befehls initialisiert wird. Wenn das Verzeichnis nicht einem Git-Repository zugeordnet ist, sind diese Git-Einstellungen leer.

Schlüssel Typ Beschreibung
branch Zeichenfolge Der aktuelle Git Branch-Name. Dies ist der gleiche Wert, den Sie erhalten würden, wenn Sie den Befehl git branch --show-current aus Ihrem geklonten Repository ausführen würden. Sie können Ersetzungen verwenden, um auf diesen Wert mit Ihren Paketkonfigurationsdateien zu verweisen, wie ${bundle.git.branch}.
origin_url Zeichenfolge Die Ursprungs-URL des Repositorys. Dies ist der gleiche Wert, den Sie erhalten würden, wenn Sie den Befehl git config --get remote.origin.url aus Ihrem geklonten Repository ausführen würden. Sie können Ersetzungen verwenden, um auf diesen Wert mit Ihren Paketkonfigurationsdateien zu verweisen, wie ${bundle.git.origin_url}.

Beispiele

Bei Bedarf können Sie die origin_url Einstellungen und branch Einstellungen in der git Zuordnung Ihrer Zuordnung auf oberster Ebene bundle außer Kraft setzen:

bundle:
  git:
    origin_url: <some-non-default-origin-url>
    branch: <some-non-current-branch-name>