Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Dieser Artikel enthält eine Übersicht über Schlüssel, die von der Konfiguration der Databricks Asset Bundles (YAML) unterstützt werden. Weitere Informationen finden Sie unter Was sind Databricks-Ressourcenpakete?.
Vollständige Bundle-Beispiele finden Sie unter Bundle-Konfigurationsbeispiele und im GitHub-Repository bundle-examples.
Artefakte
Type: Map
Gibt die Artefakte an, die während Der Bundlebereitstellungen automatisch erstellt werden sollen, die später in Bundleausführungen verwendet werden können. Jeder Schlüssel ist der Name des Artefakts, und der Wert ist eine Karte, die die Artefaktbuildeinstellungen definiert.
Tipp
Sie können die Einstellungen für Artefakte in Bundles definieren, kombinieren und außer Kraft setzen, wie unter "Außerkraftsetzen mit Zieleinstellungen" beschrieben.
Hinzugefügt in Databricks CLI, Version 0.229.0
artifacts:
<artifact-name>:
<artifact-field-name>: <artifact-field-value>
| Schlüssel | Typ | Beschreibung |
|---|---|---|
build |
Zeichenfolge | Ein optionaler Satz von Buildbefehlen, die vor der Bereitstellung lokal ausgeführt werden sollen. Bei Python-Wheel-Builds geht die Databricks CLI davon aus, dass sie eine lokale Installation des Python-wheel-Pakets zum Ausführen von Builds finden kann, und führt den Befehl python setup.py bdist_wheel standardmäßig während jeder Paketbereitstellung aus. Geben Sie mehrere Buildbefehle in separaten Zeilen an.Hinzugefügt in Databricks CLI, Version 0.229.0 |
dynamic_version |
Boolescher Wert | Gibt an, ob die Wheel-Version dynamisch basierend auf dem Zeitstempel der WHL-Datei gepatcht werden soll. Wenn dies auf true festgelegt ist, kann neuer Code bereitgestellt werden, ohne die Version in setup.py oder pyproject.toml aktualisieren zu müssen. Diese Einstellung ist nur gültig, wenn type auf whl festgelegt ist.Hinzugefügt in Databricks CLI Version 0.245.0 |
executable |
Zeichenfolge | Der ausführbare Typ. Gültige Werte sind bash, sh und cmd.Hinzugefügt in Databricks CLI, Version 0.229.0 |
files |
Sequenz | Der relative oder absolute Pfad zu den erstellten Artefaktdateien. Siehe Artefakte.name.files. Hinzugefügt in Databricks CLI, Version 0.229.0 |
path |
Zeichenfolge | Der lokale Pfad des Artefaktverzeichnisses. Pfade sind relativ zum Speicherort der Bundlekonfigurationsdatei. Bei Python-Wheel-Builds ist es der Pfad zur setup.py Datei der Python-Wheel-Datei. Falls path nicht enthalten ist, versucht die Databricks CLI, die Python-Wheel-Datei im Stammverzeichnis setup.py des Bundles zu finden.Hinzugefügt in Databricks CLI, Version 0.229.0 |
type |
Zeichenfolge | Erforderlich, wenn es sich bei dem Artefakt um ein Python-Rad handelt. Der Typ des Artefakts. Gültige Werte sind whl und jar. Diese Einstellung muss nicht angegeben werden, um andere Artefakte zu erstellen.Hinzugefügt in Databricks CLI, Version 0.229.0 |
Beispiele
Die folgende Konfiguration erstellt ein Python-Rad mit Poesie:
artifacts:
default:
type: whl
build: poetry build
path: .
Die folgende Konfiguration führt Tests aus und erstellt ein Rad. Ein vollständiges Bundle-Lernprogramm, das zum Erstellen eines Rads verwendet artifacts wird, finden Sie unter Erstellen einer Python-Raddatei mit Databricks Asset Bundles.
artifacts:
default:
type: whl
build: |-
# run tests
python -m pytest tests/ -v
# build the actual artifact
python setup.py bdist_wheel
path: .
Eine Beispielkonfiguration, die einen JAR erstellt und in den Unity-Katalog hochlädt, finden Sie unter Bundle, das eine JAR-Datei in unity Cataloghochlädt.
Artefakte. name.files
Type: Sequence
Der relative oder absolute Pfad zu den erstellten Artefaktdateien. Wird source verwendet, um die erstellten Artefakte anzugeben. Pfade sind relativ zum Speicherort der Bundlekonfigurationsdatei.
Hinzugefügt in Databricks CLI, Version 0.229.0
| Schlüssel | Typ | Beschreibung |
|---|---|---|
source |
Zeichenfolge | Erforderlich Die Artefaktquelldatei. Hinzugefügt in Databricks CLI, Version 0.229.0 |
bundle
Type: Map
Paketattribute für Bereitstellungen in diesem Ziel.
Eine Bündelkonfigurationsdatei darf nur eine Zuordnung auf oberster Ebene bundle enthalten.
Diese bundle-Zuordnung muss eine name-Zuordnung enthalten, die einen programmgesteuerten (oder logischen) Namen für das Paket angibt. Im folgenden Beispiel wird ein Paket mit dem programmgesteuerten (oder logischen) Namen hello-bundle deklariert.
bundle:
name: hello-bundle
Eine bundle-Zuordnung kann auch ein untergeordnetes Element eines oder mehrerer Ziele in der Zuordnung von Zielen der obersten Ebene sein. Jede dieser untergeordneten bundle-Zuordnungen gibt alle nicht standardmäßigen Überschreibungen auf Zielebene an.
Hinzugefügt in Databricks CLI, Version 0.229.0
| Schlüssel | Typ | Beschreibung |
|---|---|---|
cluster_id |
Zeichenfolge | Die ID eines Clusters, der zum Ausführen des Bundles verwendet werden soll. Mit diesem Schlüssel können Sie die ID eines Clusters angeben, der als Außerkraftsetzung für Cluster verwendet werden soll, die an anderer Stelle in der Bundlekonfigurationsdatei definiert sind. Informationen zum Abrufen der ID eines Clusters finden Sie unter Compute-Ressourcen-URL und -ID. Die cluster_id-Außerkraftsetzung ist für reine Entwicklungsszenarien vorgesehen und wird nur für das Ziel unterstützt, für das die mode-Zuordnung auf development festgelegt ist. Weitere Informationen zur target-Zuordnung finden Sie unter targets.Hinzugefügt in Databricks CLI, Version 0.229.0 |
compute_id |
Zeichenfolge | Veraltet. Zum Ausführen des Pakets zu verwendende Compute-ID. Hinzugefügt in Databricks CLI, Version 0.229.0 |
databricks_cli_version |
Zeichenfolge | Die Databricks CLI-Version, die für das Bundle verwendet werden soll. Siehe bundle.databricks_cli_version. Hinzugefügt in Databricks CLI, Version 0.229.0 |
deployment |
Zuordnung | Definition der Paketbereitstellung Unterstützte Attribute finden Sie unter Databricks Asset Bundle-Bereitstellungsmodi. Siehe bundle.deployment. Hinzugefügt in Databricks CLI, Version 0.229.0 |
git |
Zuordnung | Die Git-Versionskontrolldetails, die mit Ihrem Bundle verknüpft sind. Unterstützte Attribute finden Sie unter Git. Hinzugefügt in Databricks CLI, Version 0.229.0 |
name |
Zeichenfolge | Der Name des Bundles Hinzugefügt in Databricks CLI, Version 0.229.0 |
uuid |
Zeichenfolge | Reserviert Ein eindeutiger Bezeichner (UUID) für das Bundle, der das Bundle in internen Databricks-Systemen eindeutig identifiziert. Dieser wird generiert, wenn ein Bundle-Projekt mithilfe einer Databricks-Vorlage (mithilfe des Befehls databricks bundle init) initialisiert wird.Hinzugefügt in Databricks CLI Version 0.236.0 |
bundle.databricks_cli_version
Die bundle-Zuordnung kann eine databricks_cli_version-Zuordnung enthalten, die die für das Paket erforderliche Databricks CLI-Version einschränkt. Dies kann Probleme verhindern, die durch die Verwendung von Zuordnungen verursacht werden, die in einer bestimmten Version der Databricks CLI nicht unterstützt werden.
Die Databricks CLI-Version folgt der semantischen Versionsverwaltung, und die databricks_cli_version-Zuordnung unterstützt die Angabe von Versionseinschränkungen. Wenn sich der aktuelle databricks --version Wert nicht innerhalb der Grenzen befindet, die in der Zuordnung des Bundles databricks_cli_version angegeben sind, tritt ein Fehler auf, wenn databricks bundle validate im Bundle ausgeführt wird. Die folgenden Beispiele veranschaulichen die allgemeine Syntax zur Versionseinschränkung:
bundle:
name: hello-bundle
databricks_cli_version: '0.218.0' # require Databricks CLI 0.218.0
bundle:
name: hello-bundle
databricks_cli_version: '0.218.*' # allow all patch versions of Databricks CLI 0.218
bundle:
name: my-bundle
databricks_cli_version: '>= 0.218.0' # allow any version of Databricks CLI 0.218.0 or higher
bundle:
name: my-bundle
databricks_cli_version: '>= 0.218.0, <= 1.0.0' # allow any Databricks CLI version between 0.218.0 and 1.0.0, inclusive
bundle.deployment
Type: Map
Definition der Paketbereitstellung
Hinzugefügt in Databricks CLI, Version 0.229.0
| Schlüssel | Typ | Beschreibung |
|---|---|---|
fail_on_active_runs |
Boolescher Wert | Gibt an, ob aktive Ausführungen fehlschlagen sollen. Wenn dies auf "true" festgelegt ist, kann ein laufender Einsatz unterbrochen werden. Hinzugefügt in Databricks CLI, Version 0.229.0 |
lock |
Zuordnung | Bereitstellungssperrenattribute. Siehe bundle.deployment.lock. Hinzugefügt in Databricks CLI, Version 0.229.0 |
bundle.deployment.lock
Type: Map
Bereitstellungssperrenattribute.
Hinzugefügt in Databricks CLI, Version 0.229.0
| Schlüssel | Typ | Beschreibung |
|---|---|---|
enabled |
Boolescher Wert | Gibt an, ob diese Sperre aktiviert ist. Hinzugefügt in Databricks CLI, Version 0.229.0 |
force |
Boolescher Wert | Gibt an, ob diese Sperre erzwungen werden soll, wenn sie aktiviert ist. Hinzugefügt in Databricks CLI, Version 0.229.0 |
experimentell
Type: Map
Definiert Attribute für experimentelle Features.
Hinzugefügt in Databricks CLI, Version 0.229.0
| Schlüssel | Typ | Beschreibung |
|---|---|---|
python |
Zuordnung | Veraltet. Verwenden Sie stattdessen die Python-Zuordnung der obersten Ebene. Hinzugefügt in Databricks CLI, Version 0.238.0 |
python_wheel_wrapper |
Boolescher Wert | Gibt an, ob ein Python-Wheel-Wrapper verwendet werden soll. Hinzugefügt in Databricks CLI, Version 0.229.0 |
scripts |
Zuordnung | Auszuführende Befehle. Hinzugefügt in Databricks CLI, Version 0.229.0 |
skip_artifact_cleanup |
Boolescher Wert | Bestimmt, ob das Löschen des Ordners innerhalb .internaldes workspace.artifact_path Ordners übersprungen werden soll. Dieser Ordner wird standardmäßig gelöscht, bevor während der Bereitstellung neue Buildartefakte (z. B. Python-Räder) hochgeladen werden. Legen Sie fest, true dass vorhandene Artefakte in bereitstellungsübergreifenden Bereitstellungen beibehalten werden sollen.Hinzugefügt in Databricks CLI Version 0.254.0 |
skip_name_prefix_for_schema |
Boolescher Wert | Gibt an, ob das Hinzufügen des Präfixes (festgelegt presets.name_prefix oder berechnet, wenn mode: development) zu den Namen der im Bundle definierten Unity-Katalogschemas übersprungen werden soll.Hinzugefügt in Databricks CLI Version 0.255.0 |
use_legacy_run_as |
Boolescher Wert | Gibt an, ob das veraltete run_as-Verhalten verwendet werden soll. Hinzugefügt in Databricks CLI, Version 0.229.0 |
include
Type: Sequence
Gibt eine Liste von Pfad-Globs an, die Konfigurationsdateien enthalten, die in das Bundle eingeschlossen werden sollen. Diese Pfadglobs sind relativ zum Speicherort der Paketkonfigurationsdatei, in der die Pfadglobs angegeben sind. Abgesehen davon databricks.ymlmüssen Sie das include Array verwenden, um alle Konfigurationsdateien anzugeben, die in das Bundle eingeschlossen werden sollen.
Tipp
Wenn Sie andere Dateien in das Bundle einschließen oder ausschließen möchten, verwenden Sie "Einschließen" und "Ausschließen".
Dieses include-Array kann nur als Zuordnung auf oberster Ebene erscheinen.
Hinzugefügt in Databricks CLI, Version 0.229.0
Die folgende Beispielkonfiguration enthält drei Konfigurationsdateien. Diese Dateien befinden sich im selben Ordner wie die Paketkonfigurationsdatei:
include:
- 'bundle.artifacts.yml'
- 'bundle.resources.yml'
- 'bundle.targets.yml'
die folgende Beispielkonfiguration enthält alle Dateien mit Dateinamen, die mit bundle beginnen und mit .yml enden. Diese Dateien befinden sich im selben Ordner wie die Paketkonfigurationsdatei:
include:
- 'bundle*.yml'
Berechtigungen
Type: Sequence
Definiert die Berechtigungen, die auf ressourcen angewendet werden sollen, die im Bundle definiert sind, wobei jedes Element in der Sequenz eine Berechtigung für eine bestimmte Entität ist. Weitere Informationen finden Sie unter "Berechtigungen für Ressourcen in Databricks Asset Bundles festlegen".
Zulässige Berechtigungsstufen auf oberster Ebene sind CAN_VIEW, CAN_MANAGE und CAN_RUN.
Wenn Sie Berechtigungen auf eine bestimmte Ressource anwenden möchten, lesen Sie Definieren von Berechtigungen für eine bestimmte Ressource.
Hinzugefügt in Databricks CLI, Version 0.229.0
| Schlüssel | Typ | Beschreibung |
|---|---|---|
group_name |
Zeichenfolge | Name der Gruppe, für die die Berechtigung auf der Ebene aktiviert ist. Hinzugefügt in Databricks CLI, Version 0.229.0 |
level |
Zeichenfolge | Zulässige Berechtigung der für diese Berechtigung definierten Benutzer, Gruppe, Dienstprinzipale. Gültige Werte für diesen Schlüssel unterscheiden sich je nachdem, ob die Berechtigungen auf der obersten Ebene des Bündels oder für eine bestimmte Ressource definiert sind. Weitere Informationen finden Sie unter "Berechtigungen für Ressourcen in Databricks Asset Bundles festlegen". Hinzugefügt in Databricks CLI, Version 0.229.0 |
service_principal_name |
Zeichenfolge | Name des Dienstprinzipals, für den die Berechtigung auf dieser Ebene aktiviert ist. Hinzugefügt in Databricks CLI, Version 0.229.0 |
user_name |
Zeichenfolge | Name des Benutzers, für den die Berechtigung auf dieser Ebene aktiviert ist. Hinzugefügt in Databricks CLI, Version 0.229.0 |
Beispiel
Die folgende Beispielkonfiguration definiert Berechtigungsstufen für einen Benutzer, eine Gruppe und einen Dienstprinzipal, die auf alle im resources Bundle definierten Ressourcen angewendet werden:
permissions:
- level: CAN_VIEW
group_name: test-group
- level: CAN_MANAGE
user_name: someone@example.com
- level: CAN_RUN
service_principal_name: 123456-abcdef
Voreinstellungen
Type: Map
Definiert Voreinstellungen für die Paketbereitstellung Weitere Informationen finden Sie unter benutzerdefinierte Voreinstellungen.
Es sei denn, eine Ausnahme wird für eine Voreinstellung angegeben, wenn beide mode festgelegt sind und presets festgelegt werden, überschreiben Voreinstellungen das Standardmodusverhalten und die Einstellungen einzelner Ressourcen die Voreinstellungen.
Hinzugefügt in Databricks CLI, Version 0.229.0
| Voreinstellung | Beschreibung |
|---|---|
artifacts_dynamic_version |
Gibt an, ob die Version von whl Artefakten während der Bereitstellung dynamisch aktualisiert werden soll. Gültige Werte sind true und false. Wenn die artifacts.dynamic_version Konfigurationseinstellung der obersten Ebene angegeben ist, überschreibt sie diese Voreinstellung.Hinzugefügt in Databricks CLI Version 0.256.0 |
jobs_max_concurrent_runs |
Die Anzahl der maximal zulässigen gleichzeitigen Ausführungen von Aufträgen. Hinzugefügt in Databricks CLI, Version 0.229.0 |
name_prefix |
Die Präfixzeichenfolge, die Ressourcennamen vorangestellt werden soll. Hinzugefügt in Databricks CLI, Version 0.229.0 |
pipelines_development |
Gibt an, ob Pipelinebereitstellungen im Entwicklungsmodus gesperrt werden sollen. Gültige Werte sind true und false.Hinzugefügt in Databricks CLI, Version 0.229.0 |
source_linked_deployment |
Gibt an, ob Ressourcen, die während der Bereitstellung erstellt wurden, auf Quelldateien im Arbeitsbereich statt auf deren Kopien im Arbeitsbereich verweisen. Hinzugefügt in Databricks CLI Version 0.236.0 |
tags |
Eine Reihe von Schlüssel-Wert-Tags, die für alle Ressourcen gelten, die Tags unterstützen, wozu Aufträge und Experimente gehören. Databricks Asset Bundles unterstützen keine Tags für die schema Ressource.Hinzugefügt in Databricks CLI, Version 0.229.0 |
trigger_pause_status |
Ein Pausenstatus, der auf alle Trigger und Zeitpläne anzuwenden ist. Gültige Werte sind PAUSED und UNPAUSED.Wenn mode auf development festgelegt ist, ist trigger_pause_status immer PAUSED.Hinzugefügt in Databricks CLI, Version 0.229.0 |
Python
Type: Map
Konfiguriert das Laden von Python-Code, der mit dem Databricks-Bundles-Paket definiert ist. Weitere Informationen finden Sie unter Bundle-Konfiguration in Python.
Verschoben aus experimental Databricks CLI, Version 0.275.0
| Schlüssel | Typ | Beschreibung |
|---|---|---|
mutators |
Sequenz | Mutatoren enthalten eine Liste vollständig qualifizierter Funktionspfade von Mutatorfunktionen, z. B. [my_project.mutators:add_default_cluster].Hinzugefügt in Databricks CLI, Version 0.238.0 |
resources |
Sequenz | Ressourcen enthalten eine Liste der vollqualifizierten Funktionspfade zum Laden von Ressourcen, die im Python-Code definiert sind, z. B. ["my_project.resources:load_resources"]Hinzugefügt in Databricks CLI, Version 0.238.0 |
venv_path |
Zeichenfolge | Der Pfad zur virtuellen Umgebung. Wenn diese Option aktiviert ist, wird Python-Code in dieser Umgebung ausgeführt. Wenn deaktiviert, wird standardmäßig der Python-Interpreter verwendet, der in der aktuellen Shell verfügbar ist. Hinzugefügt in Databricks CLI, Version 0.238.0 |
Ressourcen
Type: Map
Definiert die Ressourcen für das Bundle, wobei jeder Schlüssel der Name der Ressource ist, und der Wert ist eine Zuordnung, die die Ressource definiert. Weitere Informationen zu den von Databricks-Ressourcenpaketen unterstützten Ressourcen sowie eine Ressourcendefinitionsreferenz finden Sie unter Ressourcen für Databricks-Ressourcenpakete.
Die resources Zuordnung kann als Zuordnung auf oberster Ebene angezeigt werden, oder sie kann ein untergeordnetes Element eines oder mehrerer Ziele in der Zuordnung der Ziele der obersten Ebene sein und enthält null oder einen der unterstützten Ressourcentypen. Jede Ressourcentypzuordnung enthält eine oder mehrere einzelne Ressourcendeklarationen, die jeweils einen eindeutigen Namen haben müssen. Diese einzelnen Ressourcendeklarationen verwenden die Anforderungsnutzlast der Erstellungsoperation des entsprechenden Objekts, ausgedrückt in YAML, um die Ressource zu definieren. Unterstützte Eigenschaften für eine Ressource sind die unterstützten Felder des entsprechenden Objekts.
Die Anforderungsnutzlasten des Erstellungsvorgangs sind in der Referenz zur Databricks-REST-API dokumentiert. Der databricks bundle schema-Befehl gibt alle unterstützten Objektschemas zurück. Darüber hinaus gibt der databricks bundle validate-Befehl Warnungen zurück, wenn unbekannte Ressourceneigenschaften in Paketkonfigurationsdateien gefunden werden.
Weitere Informationen zu Ressourcen, die in Bundles unterstützt werden, sowie allgemeine Konfigurationen und Beispiele finden Sie unter Databricks Asset Bundles-Ressourcen und Bundle-Konfigurationsbeispiele.
Hinzugefügt in Databricks CLI, Version 0.229.0
resources:
<resource-type>:
<resource-name>:
<resource-field-name>: <resource-field-value>
| Schlüssel | Typ | Beschreibung |
|---|---|---|
alerts |
Zuordnung | Die Warnungsdefinitionen (v2) für das Bundle, wobei jeder Schlüssel der Name der Warnung ist. Siehe Warnung. Hinzugefügt in Databricks CLI, Version 0.279.0 |
apps |
Zuordnung | Die Databricks-App-Definitionen für das Bundle, wobei jeder Schlüssel der Name der App ist. Weitere Informationen finden Sie unter app. Hinzugefügt in Databricks CLI Version 0.239.0 |
catalogs |
Zuordnung | Die Katalogdefinitionen (Unity-Katalog) für das Bundle, wobei jeder Schlüssel der Name eines Katalogs ist. Siehe Kataloge. Hinzugefügt in Databricks CLI Version 0.287.0 |
clusters |
Zuordnung | Die Clusterdefinitionen für das Bundle, wobei jeder Schlüssel der Name eines Clusters ist Siehe Cluster. Hinzugefügt in Databricks CLI, Version 0.229.0 |
dashboards |
Zuordnung | Die Dashboarddefinitionen für das Bundle, wobei jeder Schlüssel der Name des Dashboards ist. Siehe Dashboard. Hinzugefügt in Databricks CLI Version 0.232.0 |
database_catalogs |
Zuordnung | Die Datenbankkatalogdefinitionen für das Bundle, wobei jeder Schlüssel der Name des Datenbankkatalogs ist. Siehe database_catalog. Hinzugefügt in Databricks CLI, Version 0.265.0 |
database_instances |
Zuordnung | Die Datenbankinstanzdefinitionen für das Bundle, wobei jeder Schlüssel der Name der Datenbankinstanz ist. Siehe database_instance. Hinzugefügt in Databricks CLI, Version 0.265.0 |
experiments |
Zuordnung | Die Experimentdefinitionen für das Bündel, wobei jeder Schlüssel der Name des Experiments ist. Siehe Experiment. Hinzugefügt in Databricks CLI, Version 0.229.0 |
jobs |
Zuordnung | Die Auftragsdefinitionen für das Bundle, wobei jeder Schlüssel der Name des Auftrags ist Siehe job. Hinzugefügt in Databricks CLI, Version 0.229.0 |
model_serving_endpoints |
Zuordnung | Die Modellausführungs-Endpunktdefinitionen für das Bundle, wobei jeder Schlüssel der Name des Modellausführungsendpunkts ist. Siehe model_serving_endpoint. Hinzugefügt in Databricks CLI, Version 0.229.0 |
models |
Zuordnung | Die Modelldefinitionen für das Bundle, wobei jeder Schlüssel der Name des Modells ist. Siehe model (veraltet). Hinzugefügt in Databricks CLI, Version 0.229.0 |
pipelines |
Zuordnung | Die Pipelinedefinitionen für das Bundle, wobei jeder Schlüssel der Name der Pipeline ist Siehe Pipeline. Hinzugefügt in Databricks CLI, Version 0.229.0 |
postgres_branches |
Zuordnung | Die Zweigdefinitionen für das Bundle, wobei jeder Schlüssel der Name des Lakebase-Zweigs ist. Siehe postgres_branch. Hinzugefügt in Databricks CLI Version 0.287.0 |
postgres_endpoints |
Zuordnung | Die Postgres-Endpunktdefinitionen für das Bundle, wobei jeder Schlüssel der Name des Lakebase-Computeendpunkts ist. Siehe postgres_endpoint. Hinzugefügt in Databricks CLI Version 0.287.0 |
postgres_projects |
Zuordnung | Die Projektdefinitionen für das Bundle, wobei jeder Schlüssel der Name des Lakebase-Projekts ist. Siehe postgres_project. Hinzugefügt in Databricks CLI Version 0.287.0 |
quality_monitors |
Zuordnung | Die Definitionen der Qualitätsmonitore für das Bundle, wobei jeder Schlüssel der Name eines Qualitätsmonitors ist. Siehe quality_monitor (Unity-Katalog). Hinzugefügt in Databricks CLI, Version 0.229.0 |
registered_models |
Zuordnung | Die registrierten Modelldefinitionen für das Bundle, wobei jeder Schlüssel der Name des registrierten Unity Catalog-Modells ist. Siehe registered_model (Unity-Katalog). Hinzugefügt in Databricks CLI, Version 0.229.0 |
schemas |
Zuordnung | Die Schemadefinitionen für das Bundle, wobei jeder Schlüssel der Name des Schemas ist Siehe Schema (Unity-Katalog). Hinzugefügt in Databricks CLI, Version 0.229.0 |
secret_scopes |
Zuordnung | Die geheimen Bereichsdefinitionen für das Bundle, wobei jeder Schlüssel der Name des geheimen Bereichs ist. Siehe secret_scope. Hinzugefügt in Databricks CLI, Version 0.252.0 |
sql_warehouses |
Zuordnung | Die SQL Warehouse-Definitionen für das Bundle, wobei jeder Schlüssel der Name des SQL Warehouse ist. Siehe sql_warehouse. Hinzugefügt in Databricks CLI Version 0.260.0 |
synced_database_tables |
Zuordnung | Die synchronisierten Datenbanktabellendefinitionen für das Bundle, wobei jeder Schlüssel der Name der Datenbanktabelle ist. Siehe synced_database_table. Hinzugefügt in Databricks CLI Version 0.266.0 |
volumes |
Zuordnung | Volumedefinitionen für das Paket. Jeder Schlüssel gibt den Namen des Volumes an. Weitere Informationen finden Sie unter Volumen (Unity-Katalog). Hinzugefügt in Databricks CLI Version 0.236.0 |
Beispiel
Die folgende Beispielkonfiguration definiert eine Auftragsressource:
resources:
jobs:
hello-job:
name: hello-job
tasks:
- task_key: hello-task
existing_cluster_id: 1234-567890-abcde123
notebook_task:
notebook_path: ./hello.py
run_as
Type: Map
Die Identität (user_name oder service_principal_name) zum Ausführen von Databricks Asset Bundles-Workflows. Sie bietet die Möglichkeit, die Identität, die zum Bereitstellen eines Bündelauftrags oder einer Pipeline verwendet wird, von derjenigen zu trennen, die zum Ausführen des Auftrags oder der Pipeline verwendet wird. Weitere Informationen finden Sie unter Angeben einer Ausführungsidentität für einen Databricks-Ressourcenbundle-Workflow.
Hinzugefügt in Databricks CLI, Version 0.229.0
| Schlüssel | Typ | Beschreibung |
|---|---|---|
service_principal_name |
Zeichenfolge | Anwendungs-ID eines aktiven Dienstprinzipals. Das Festlegen dieses Felds erfordert die Rolle servicePrincipal/user.Hinzugefügt in Databricks CLI, Version 0.229.0 |
user_name |
Zeichenfolge | Die E-Mail-Adresse eines aktiven Arbeitsbereichsbenutzers. Benutzer, die keine Administratoren sind, können dieses Feld nur auf ihre eigene E-Mail-Adresse festlegen. Hinzugefügt in Databricks CLI, Version 0.229.0 |
scripts
Type: Map
Die Skripts, die mit bundle runausgeführt werden können. Jedes benannte Skript in der scripts Zuordnung enthält Inhalte mit Befehlen. Siehe Ausführen von Skripts.
Hinzugefügt in Databricks CLI Version 0.259.0
scripts:
<script-name>:
<script-field-name>: <script-field-value>
| Schlüssel | Typ | Beschreibung |
|---|---|---|
content |
Zeichenfolge | Auszuführende Befehle Hinzugefügt in Databricks CLI Version 0.259.0 |
Beispiele
scripts:
my_script:
content: uv run pytest -m ${bundle.target}
Sync
Type: Map
Die Dateien und Dateipfade, die in das Bundle eingeschlossen oder davon ausgeschlossen werden sollen.
Hinzugefügt in Databricks CLI, Version 0.229.0
| Schlüssel | Typ | Beschreibung |
|---|---|---|
exclude |
Sequenz | Eine Liste von Dateien oder Ordnern, die vom Bundle ausgeschlossen werden sollen. Siehe Einschließen und Ausschließen. Hinzugefügt in Databricks CLI, Version 0.229.0 |
include |
Sequenz | Eine Liste der Dateien oder Ordner, die in das Bundle aufgenommen werden sollen. Siehe Einschließen und Ausschließen. Hinzugefügt in Databricks CLI, Version 0.229.0 |
paths |
Sequenz | Lokale Ordnerpfade, die sich außerhalb des Paketstamms befinden können und zum Synchronisieren mit dem Arbeitsbereich verwenden werden, wenn das Paket bereitgestellt wird. Siehe sync.paths. Hinzugefügt in Databricks CLI, Version 0.229.0 |
einschließen und ausschließen
Die Zuordnungen include und exclude innerhalb der sync-Zuordnung geben je nach den folgenden Regeln eine Liste von Dateien oder Ordnern an, die in die Paketbereitstellungen einbezogen oder von diesen ausgeschlossen werden sollen:
- Basierend auf einer beliebigen Liste von Datei- und Pfad-Globs in einer
.gitignoreDatei im Stammverzeichnis des Bundles kann dieincludeZuordnung eine Liste von Dateiglobs, Pfad-Globs oder beides, relativ zum Stammverzeichnis des Bundles, enthalten, die explizit einbezogen werden sollen. - Basierend auf einer beliebigen Liste von Datei- und Pfad-Globs in einer
.gitignoreDatei im Stammverzeichnis des Bündels sowie der Liste der Datei- und Pfad-Globs in derincludeZuordnung kann dieexcludeZuordnung eine Liste von Datei-Globs, Pfad-Globs oder beides enthalten, relativ zum Stamm des Bundles, um explizit auszuschließen.
Alle Pfade zu angegebenen Ordnern und Dateien sind relativ zum Speicherort der Paketkonfigurationsdatei, in der diese Pfade angegeben werden.
Die Syntax für Datei- und Pfadmuster für include und exclude folgt der Standardmustersyntax .gitignore. Weitere Informationen finden Sie unter gitignore-Musterformat.
Beispiel, wenn die folgende .gitignore-Datei die folgenden Einträge enthält:
.databricks
my_package/dist
Außerdem enthält die Paketkonfigurationsdatei die folgende include-Zuordnung:
sync:
include:
- my_package/dist/*.whl
Dann sind alle Dateien im my_package/dist-Ordner mit der Dateierweiterung *.whl enthalten. Alle anderen Dateien im my_package/dist-Ordner sind nicht enthalten.
Wenn allerdings die Paketkonfigurationsdatei auch die folgende exclude-Zuordnung enthält:
sync:
include:
- my_package/dist/*.whl
exclude:
- my_package/dist/delete-me.whl
Dann sind alle Dateien im my_package/dist-Ordner mit der Dateierweiterung *.whl enthalten, mit Ausnahme der Datei namens delete-me.whl. Alle anderen Dateien im my_package/dist-Ordner sind ebenfalls nicht enthalten.
Die sync-Zuordnung kann auch in der targets-Zuordnung für ein bestimmtes Ziel angegeben werden. Alle in einem Ziel deklarierten sync-Zuordnungen werden mit sync-Zuordnungsdeklarationen der obersten Ebene zusammengeführt. Wenn Sie beispielsweise mit dem vorherigen Beispiel fortfahren, wird die folgende include-Zuordnung auf der targets-Ebene mit der include-Zuordnung in der sync-Zuordnung auf oberster Ebene zusammengeführt:
targets:
dev:
sync:
include:
- my_package/dist/delete-me.whl
sync.paths
Die sync-Zuordnung kann eine paths-Zuordnung enthalten, die lokale Pfade zum Synchronisieren mit dem Arbeitsbereich angibt. Die paths-Zuordnung ermöglicht Ihnen das paketübergreifende Freigeben gemeinsamer Dateien und kann zum Synchronisieren von Dateien außerhalb des Paketstamms verwendet werden. (Der Paketstamm ist der Speicherort der Datei „databricks.yml“.) Dies ist besonders nützlich, wenn Sie über ein einzelnes Repository verfügen, das mehrere Pakete hostet, und Bibliotheken, Codedateien oder Konfigurationen freigeben möchten.
Angegebene Pfade müssen relativ zu Dateien und Verzeichnissen sein, die in dem Ordner verankert sind, in dem die paths-Zuordnung festgelegt ist. Wenn ein oder mehrere Pfadwerte das Verzeichnis bis zu einem Vorgänger des Paketstamms durchlaufen, wird der Stammpfad dynamisch bestimmt, um sicherzustellen, dass die Ordnerstruktur intakt bleibt. Wenn der Paketstammordner z. B. my_bundle heißt, synchronisiert diese Konfiguration in databricks.yml den Ordner common auf einer Ebene oberhalb des Paketstamms und den Paketstamm selbst:
sync:
paths:
- ../common
- .
Eine Bereitstellung dieses Pakets ergibt die folgende Ordnerstruktur im Arbeitsbereich:
common/
common_file.txt
my_bundle/
databricks.yml
src/
...
Ziele
Type: Map
Definiert Bereitstellungszielkontexte für das Bundle. Jedes Ziel ist eine eindeutige Sammlung von Artefakten, Azure Databricks-Arbeitsbereichseinstellungen und manchmal zielspezifische Ressourcendetails.
Die targets-Zuordnung besteht aus mindestens einer Zielzuordnung, die jeweils über einen eindeutigen programmgesteuerten (oder logischen) Namen verfügen muss. Diese Zuordnung ist optional, aber dringend empfohlen.
Die Einstellungen innerhalb der targets Zuordnung haben Vorrang vor einstellungen, die im Arbeitsbereich der obersten Ebene, Artefakte und Ressourcenzuordnungen angegeben sind.
Ein Ziel kann auch die Werte aller Variablen der obersten Ebene überschreiben.
Hinzugefügt in Databricks CLI, Version 0.229.0
targets:
<target-name>:
<target-field-name>: <target-field-value>
| Schlüssel | Typ | Beschreibung |
|---|---|---|
artifacts |
Zuordnung | Artefakte, die in die Zielbereitstellung aufgenommen werden sollen. Siehe Artefakte. Hinzugefügt in Databricks CLI, Version 0.229.0 |
bundle |
Zuordnung | Paketattribute für Bereitstellungen in diesem Ziel. Siehe Bundle. Hinzugefügt in Databricks CLI, Version 0.229.0 |
cluster_id |
Zeichenfolge | Die ID des Clusters, der für dieses Ziel verwendet werden soll. Hinzugefügt in Databricks CLI, Version 0.229.0 |
compute_id |
Zeichenfolge | Veraltet. Die ID des Computes, der für dieses Ziel verwendet werden soll. |
default |
Boolescher Wert | Gibt an, ob es sich bei diesem Ziel um das Standardziel handelt. Siehe Ziele.name.default. Hinzugefügt in Databricks CLI, Version 0.229.0 |
git |
Zuordnung | Die Git-Versionssteuerungseinstellungen für das Ziel Weitere Informationen finden Sie unter git. Hinzugefügt in Databricks CLI, Version 0.229.0 |
mode |
Zeichenfolge | Bereitstellungsmodus für das Ziel. Gültige Werte sind development und production. Siehe Ziele.name.mode und Databricks Asset Bundle-Bereitstellungsmodi.Hinzugefügt in Databricks CLI, Version 0.229.0 |
permissions |
Sequenz | Berechtigungen für die Bereitstellung und Ausführung des Pakets im Ziel. Weitere Informationen finden Sie unter Berechtigungen. Hinzugefügt in Databricks CLI, Version 0.229.0 |
presets |
Zuordnung | Bereitstellungsvoreinstellungen für das Ziel. Siehe Ziele.name.presets. Hinzugefügt in Databricks CLI, Version 0.229.0 |
resources |
Zuordnung | Die Ressourcendefinitionen für das Ziel. Siehe Ressourcen. Hinzugefügt in Databricks CLI, Version 0.229.0 |
run_as |
Zuordnung | Die Identität, die zum Ausführen des Bundles verwendet werden soll. Siehe run_as und Angeben einer Ausführungsidentität für einen Databricks Asset Bundles-Workflow. Hinzugefügt in Databricks CLI, Version 0.229.0 |
sync |
Zuordnung | Die lokalen Pfade, die mit dem Zielarbeitsbereich synchronisiert werden sollen, wenn ein Bundle ausgeführt oder bereitgestellt wird. Weitere Informationen finden Sie unter sync. Hinzugefügt in Databricks CLI, Version 0.229.0 |
variables |
Zuordnung | Die benutzerdefinierten Variablendefinitionen für das Ziel. Siehe variables. Hinzugefügt in Databricks CLI, Version 0.229.0 |
workspace |
Zuordnung | Databricks-Arbeitsbereich für das Ziel. Siehe workspace. Hinzugefügt in Databricks CLI, Version 0.229.0 |
Ziele. name.default
Legen Sie zum Angeben eines Standardwerts für das Ziel für Paketbefehle die default-Zuordnung auf true fest. Dieses Ziel mit dem Namen dev ist beispielsweise das Standardziel:
targets:
dev:
default: true
Wenn kein Standardziel konfiguriert ist oder wenn Sie Aufträge oder Pipelines innerhalb eines bestimmten Ziels überprüfen, bereitstellen und ausführen möchten, verwenden Sie die Option -t der Paketbefehle.
Die folgenden Befehle dienen zum Überprüfen, Bereitstellen und Ausführen von my_job innerhalb der Ziele dev und prod:
databricks bundle validate
databricks bundle deploy -t dev
databricks bundle run -t dev my_job
databricks bundle validate
databricks bundle deploy -t prod
databricks bundle run -t prod my_job
Im folgenden Beispiel werden zwei Ziele deklariert. Das erste Ziel hat den Namen dev und ist das Standardziel, das verwendet wird, wenn für Paketbefehle kein Ziel angegeben wird. Das zweite Ziel hat den Namen prod und wird nur verwendet, wenn dieses Ziel für Paketbefehle angegeben wird.
targets:
dev:
default: true
prod:
workspace:
host: https://<production-workspace-url>
Ziele. name.mode
Zur Vereinfachung der Entwicklung und als bewährte CI/CD-Methoden verfügen Databricks-Ressourcenpakete über Bereitstellungsmodi für Ziele, die Standardverhaltensweisen für Vorproduktions- und Produktionsworkflows festlegen. Einige Verhaltensweisen können auch mithilfe von Zielen konfiguriert werden.name.presets.
Ausführliche Informationen finden Sie unter Bereitstellungsmodi für Databricks-Ressourcenpakete.
Tipp
Sie können zum Festlegen von Ausführungsidentitäten für Pakete für jedes Ziel run_as angeben, wie unter Angeben einer Ausführungsidentität für einen Databricks-Ressourcenpaketworkflow beschrieben.
Um anzugeben, dass ein Ziel als Entwicklungsziel behandelt wird, fügen Sie die mode-Zuordnung hinzu, die auf development festgelegt ist. Um anzugeben, dass ein Ziel als Produktionsziel behandelt wird, fügen Sie die mode-Zuordnung hinzu, die auf production festgelegt ist. Beispielsweise wird dieses Ziel mit dem Namen prod als Produktionsziel behandelt:
targets:
prod:
mode: production
Ziele. name.presets
Sie können einige der Zielbereitstellungsverhalten mode mithilfe der presets Zuordnung anpassen.
Eine Liste der verfügbaren Voreinstellungen finden Sie unter Benutzerdefinierte Voreinstellungen.
Das folgende Beispiel zeigt ein angepasstes Produktionsziel, bei dem alle Produktionsressourcen mit Präfixen und Tags versehen werden:
targets:
prod:
mode: production
presets:
name_prefix: 'production_' # prefix all resource names with production_
tags:
prod: true
Variablen
Type: Map
Definiert eine benutzerdefinierte Variable für das Bundle. Legen Sie zum Abrufen eines ID-Werts für jede Variable eine optionale Beschreibung, einen Standardwert, oder einen Lookup fest, und geben Sie an, ob es sich bei der benutzerdefinierten Variable um einen komplexen Typ handelt. Verwenden Sie dazu das folgende Format:
variables:
<variable-name>:
description: <variable-description>
default: <optional-default-value>
type: <optional-type-value> # "complex" is the only valid value
lookup:
<optional-object-type>: <optional-object-name>
Hinweis
Bei Variablen wird davon ausgegangen, dass es sich um Variablen vom Typ string handelt, es sei denn, type wird auf complex festgelegt. Siehe Definieren einer komplexen Variablen.
Um auf eine benutzerdefinierte Variable innerhalb der Paketkonfiguration zu verweisen, verwenden Sie die Ersetzung ${var.<variable_name>}.
Weitere Informationen zu benutzerdefinierten Variablen und Ersetzungen finden Sie unter Ersetzungen und Variablen in Databricks-Ressourcenpaketen.
Hinzugefügt in Databricks CLI, Version 0.229.0
| Schlüssel | Typ | Beschreibung |
|---|---|---|
default |
Beliebig | Der Standardwert für die Variable. Hinzugefügt in Databricks CLI, Version 0.229.0 |
description |
Zeichenfolge | Die Variablenbeschreibung Hinzugefügt in Databricks CLI, Version 0.229.0 |
lookup |
Zuordnung | Der Name des Objekts alert, cluster_policy, cluster, dashboard, instance_pool, job, metastore, pipeline, query, service_principal oder warehouse, für das eine ID abgerufen werden soll Siehe Variablen.name.lookup.Hinzugefügt in Databricks CLI, Version 0.229.0 |
type |
Zeichenfolge | Der Typ der Variablen, einfach oder komplex. Legen Sie diesen Schlüssel nur fest, wenn die Variable komplex ist. Gültige Werte: complex.Hinzugefügt in Databricks CLI, Version 0.229.0 |
variables.name.lookup
Type: Map
Der Name von Warnung, cluster_policy, Cluster, Dashboard, instance_pool, Auftrag, Metastore, Pipeline, Abfrage, service_principal oder Warehouse-Objekt, für die/den/das eine ID abgerufen werden soll. Informationen zur Verwendung von Lookup finden Sie unter Abrufen des ID-Werts eines Objekts.
Hinzugefügt in Databricks CLI, Version 0.229.0
| Schlüssel | Typ | Beschreibung |
|---|---|---|
alert |
Zeichenfolge | Der Name der Warnung, für die eine ID abgerufen werden soll. Hinzugefügt in Databricks CLI, Version 0.229.0 |
cluster |
Zeichenfolge | Der Name des Clusters, für den eine ID abgerufen werden soll. Hinzugefügt in Databricks CLI, Version 0.229.0 |
cluster_policy |
Zeichenfolge | Der Name der cluster_policy, für die eine ID abgerufen werden soll. Hinzugefügt in Databricks CLI, Version 0.229.0 |
dashboard |
Zeichenfolge | Der Name des Dashboards, für das eine ID abgerufen werden soll. Hinzugefügt in Databricks CLI, Version 0.229.0 |
instance_pool |
Zeichenfolge | Der Name der instance_pool, für die eine ID abgerufen werden soll. Hinzugefügt in Databricks CLI, Version 0.229.0 |
job |
Zeichenfolge | Der Name des Auftrags, für den eine ID abgerufen werden soll. Hinzugefügt in Databricks CLI, Version 0.229.0 |
metastore |
Zeichenfolge | Der Name des Metastores, für den eine ID abgerufen werden soll. Hinzugefügt in Databricks CLI, Version 0.229.0 |
notification_destination |
Zeichenfolge | Der Name der notification_destination, für die eine ID abgerufen werden soll. Hinzugefügt in Databricks CLI Version 0.236.0 |
pipeline |
Zeichenfolge | Name der Pipeline, für die eine ID abgerufen werden soll. Hinzugefügt in Databricks CLI, Version 0.229.0 |
query |
Zeichenfolge | Der Name der Abfrage, für die eine ID abgerufen werden soll. Hinzugefügt in Databricks CLI, Version 0.229.0 |
service_principal |
Zeichenfolge | Der Name des Service_Principal, für den eine ID abgerufen werden soll. Hinzugefügt in Databricks CLI, Version 0.229.0 |
warehouse |
Zeichenfolge | Der Name des Lagers, für das eine ID abgerufen werden soll. Hinzugefügt in Databricks CLI, Version 0.229.0 |
Arbeitsbereich
Type: Map
Definiert den Databricks-Arbeitsbereich für das Bundle. Die Paketkonfigurationsdatei darf nur eine workspace-Zuordnung auf oberster Ebene enthalten, um alle nicht standardmäßigen Azure Databricks-Arbeitsbereichseinstellungen anzugeben, die verwendet werden sollen.
Von Bedeutung
Gültige Databricks-Arbeitsbereichspfade beginnen entweder mit /Workspace oder, im Fall von Artefakten, wird /Volumes ebenfalls unterstützt. Benutzerdefinierte Arbeitsbereichspfade werden automatisch mit dem Präfix /Workspace versehen. Wenn Sie eine Arbeitsbereichspfadersetzung in Ihrem benutzerdefinierten Pfad (etwa ${workspace.file_path}) verwenden, müssen Sie daher dem Pfad nicht /Workspace voranstellen.
Hinzugefügt in Databricks CLI, Version 0.229.0
| Schlüssel | Typ | Beschreibung |
|---|---|---|
artifact_path |
Zeichenfolge | Artefaktpfad, der im Arbeitsbereich für Bereitstellungen und für Workflowausführungen zu verwenden ist Hinzugefügt in Databricks CLI, Version 0.229.0 |
auth_type |
Zeichenfolge | Der zu verwendende Authentifizierungstyp, insbesondere in Fällen, in denen die Databricks CLI einen unerwarteten Authentifizierungstyp ableiten kann. Weitere Informationen finden Sie unter Autorisieren des Zugriffs auf Azure Databricks-Ressourcen. Hinzugefügt in Databricks CLI, Version 0.229.0 |
azure_client_id |
Zeichenfolge | Die Azure-Client-ID. Siehe Arbeitsbereichauthentifizierung. Hinzugefügt in Databricks CLI, Version 0.229.0 |
azure_environment |
Zeichenfolge | Die Azure-Umgebung. Siehe Arbeitsbereichauthentifizierung. Hinzugefügt in Databricks CLI, Version 0.229.0 |
azure_login_app_id |
Zeichenfolge | Die Azure-Anmelde-App-ID. Siehe Arbeitsbereichauthentifizierung. Hinzugefügt in Databricks CLI, Version 0.229.0 |
azure_tenant_id |
Zeichenfolge | Die Azure-Mandanten-ID. Siehe Arbeitsbereichauthentifizierung. Hinzugefügt in Databricks CLI, Version 0.229.0 |
azure_use_msi |
Boolescher Wert | Gibt an, ob MSI für Azure verwendet werden soll. Siehe Arbeitsbereichauthentifizierung. Hinzugefügt in Databricks CLI, Version 0.229.0 |
azure_workspace_resource_id |
Zeichenfolge | Die Ressourcen-ID des Azure-Arbeitsbereichs. Siehe Arbeitsbereichauthentifizierung. Hinzugefügt in Databricks CLI, Version 0.229.0 |
client_id |
Zeichenfolge | Die Client-ID für den Arbeitsbereich. Siehe Arbeitsbereichauthentifizierung. Hinzugefügt in Databricks CLI, Version 0.229.0 |
file_path |
Zeichenfolge | Der Im Arbeitsbereich zu verwendende Dateipfad für Bereitstellungen und Workflows wird ausgeführt. Siehe workspace.file_path. Hinzugefügt in Databricks CLI, Version 0.229.0 |
google_service_account |
Zeichenfolge | Der Name des Google-Dienstkontos. Siehe Arbeitsbereichauthentifizierung. Hinzugefügt in Databricks CLI, Version 0.229.0 |
host |
Zeichenfolge | Die Host-URL des Databricks-Arbeitsbereichs. Weitere Informationen finden Sie unter Instanznamen, URLs und IDs von Arbeitsbereichen. Wenn Sie die host-Zuordnung festlegen, weist dies die Databricks CLI an, ein übereinstimmendes Profil in Ihrer .databrickscfg-Datei zu finden und dann die Felder dieses Profils zu verwenden, um zu bestimmen, welcher Databricks-Authentifizierungstyp genutzt werden soll. Wenn mehrere Profile mit einem übereinstimmenden host Feld in Ihrer .databrickscfg Datei vorhanden sind, müssen Sie die profile Zuordnung (oder -p die --profile Befehlszeilenoptionen) verwenden, um ein Profil anzugeben.Hinzugefügt in Databricks CLI, Version 0.229.0 |
profile |
Zeichenfolge | Der Profilname des Databricks-Arbeitsbereichs. Siehe "workspace.profile". Hinzugefügt in Databricks CLI, Version 0.229.0 |
resource_path |
Zeichenfolge | Ressourcenpfad des Arbeitsbereichs Hinzugefügt in Databricks CLI Version 0.230.0 |
root_path |
Zeichenfolge | Der Stammpfad des Databricks-Arbeitsbereichs. Siehe workspace.root_path. Hinzugefügt in Databricks CLI, Version 0.229.0 |
state_path |
Zeichenfolge | Der Arbeitsbereichsstatuspfad. Dieser Schlüssel ist standardmäßig der Standardpfad von ${workspace.root}/state und stellt den Pfad innerhalb Ihres Arbeitsbereichs dar, um Terraform-Statusinformationen zu Bereitstellungen zu speichern.Hinzugefügt in Databricks CLI, Version 0.229.0 |
Arbeitsbereichsauthentifizierung
Die Arbeitsbereichszuordnung kann auch Zuordnungen enthalten, um den zu verwendenden Databricks-Authentifizierungsmechanismus anzugeben. Wenn sie nicht innerhalb der Arbeitsbereichszuordnung der obersten Ebene angegeben werden, müssen sie in einer Arbeitsbereichszuordnung als untergeordnetes Element eines oder mehrerer Ziele in der Zuordnung der Obersten Ebene angegeben werden.
Für die OAuth-M2M-Authentifizierung (Machine-to-Machine, Computer-zu-Computer) wird die
client_id-Zuordnung verwendet. Alternativ können Sie diesen Wert in der lokalen UmgebungsvariablenDATABRICKS_CLIENT_IDfestlegen. Sie können auch ein Konfigurationsprofil mit demclient_idWert erstellen und dann den Namen des Profils mit derprofileZuordnung angeben (oder indem Sie die Optionen--profileoder-pverwenden, wenn Sie die Befehle 'validate', 'deploy', 'run' und 'destroy' für das Bundle mit der Databricks CLI ausführen). Siehe Autorisieren des Dienstprinzipalzugriffs auf Azure Databricks mit OAuth.Hinweis
Sie können keinen Wert für das Azure Databricks-OAuth-Geheimnis in der Paketkonfigurationsdatei angeben. Legen Sie stattdessen die lokale Umgebungsvariable
DATABRICKS_CLIENT_SECRETfest. Oder Sie können denclient_secret-Wert zu einem Konfigurationsprofil hinzufügen und anschließend den Namen des Profils mit derprofile-Zuordnung angeben (oder indem Sie die Optionen--profileoder-pverwenden, wenn Sie Befehle zum Überprüfen, Bereitstellen, Ausführen und Zerstören mit der Databricks CLI ausführen).Für die Azure CLI-Authentifizierung wird die
azure_workspace_resource_id-Zuordnung verwendet. Alternativ können Sie diesen Wert in der lokalen UmgebungsvariablenDATABRICKS_AZURE_RESOURCE_IDfestlegen. Sie können auch ein Konfigurationsprofil mit demazure_workspace_resource_idWert erstellen und dann den Namen des Profils mit derprofileZuordnung angeben (oder indem Sie die Optionen--profileoder-pverwenden, wenn Sie die Befehle 'validate', 'deploy', 'run' und 'destroy' für das Bundle mit der Databricks CLI ausführen). Siehe Authentifizieren mit der Azure CLI.Für die Authentifizierung des Azure-Clientgeheimnisses mit Dienstprinzipalen werden die Zuordnungen
azure_workspace_resource_id,azure_tenant_idundazure_client_idverwendet. Alternativ können Sie diese Werte in den lokalen UmgebungsvariablenDATABRICKS_AZURE_RESOURCE_ID,ARM_TENANT_IDbzwARM_CLIENT_IDfestlegen. Sie können auch ein Konfigurationsprofil mit den Wertenazure_workspace_resource_id,azure_tenant_idundazure_client_iderstellen und dann den Namen des Profils mit derprofileZuordnung angeben (oder indem Sie die Optionen--profileoder-pverwenden, wenn Sie die Befehle "validate", "deploy", "run" und "destroy" mit dem Databricks CLI ausführen). Siehe Authentifizierung mit Microsoft Entra-Dienstprinzipalen.Hinweis
Sie können keinen Wert für den geheimen Azure-Clientschlüssel in der Paketkonfigurationsdatei angeben. Legen Sie stattdessen die lokale Umgebungsvariable
ARM_CLIENT_SECRETfest. Oder Sie können denazure_client_secret-Wert zu einem Konfigurationsprofil hinzufügen und anschließend den Namen des Profils mit derprofile-Zuordnung angeben (oder indem Sie die Optionen--profileoder-pverwenden, wenn Sie Befehle zum Überprüfen, Bereitstellen, Ausführen und Zerstören mit der Databricks CLI ausführen).Für die Authentifizierung mit von Azure verwalteten Identitäten werden die Zuordnungen
azure_use_msi,azure_client_idundazure_workspace_resource_idverwendet. Alternativ können Sie diese Werte in den lokalen UmgebungsvariablenARM_USE_MSI,ARM_CLIENT_IDbzwDATABRICKS_AZURE_RESOURCE_IDfestlegen. Sie können auch ein Konfigurationsprofil mit den Wertenazure_use_msi,azure_client_idundazure_workspace_resource_iderstellen und dann den Namen des Profils mit derprofileZuordnung angeben (oder indem Sie die Optionen--profileoder-pverwenden, wenn Sie die Befehle "validate", "deploy", "run" und "destroy" mit dem Databricks CLI ausführen). Siehe Authentifizieren mit von Azure verwalteten Identitäten.Die
azure_environment-Zuordnung gibt den Azure-Umgebungstyp (z. B. Öffentlich, UsGov, China und Deutschland) für eine bestimmte Gruppe von API-Endpunkten an. Der Standardwert istPUBLIC. Alternativ können Sie diesen Wert in der lokalen UmgebungsvariablenARM_ENVIRONMENTfestlegen. Oder Sie können denazure_environment-Wert zu einem Konfigurationsprofil hinzufügen und anschließend den Namen des Profils mit derprofile-Zuordnung angeben (oder indem Sie die Optionen--profileoder-pverwenden, wenn Sie Befehle zum Überprüfen, Bereitstellen, Ausführen und Zerstören mit der Databricks CLI ausführen).Die
azure_login_app_id-Zuordnung ist nicht betriebsbereit und für die interne Verwendung reserviert.
workspace.root_path
Diese workspace-Zuordnung kann eine root_path-Zuordnung enthalten, um einen nicht standardmäßigen Stammpfad anzugeben, der innerhalb des Arbeitsbereichs sowohl für Bereitstellungen als auch für Workflowausführungen verwendet werden soll, z. B.:
workspace:
root_path: /Workspace/Users/${workspace.current_user.userName}/.bundle/${bundle.name}/my-envs/${bundle.target}
Standardmäßig verwendet die Databricks CLI für root_path den Standardpfad von /Workspace/Users/${workspace.current_user.userName}/.bundle/${bundle.name}/${bundle.target}, der Ersetzungen verwendet.
workspace.artifact_path
Diese workspace-Zuordnung kann auch eine artifact_path-Zuordnung enthalten, um einen nicht standardmäßigen Artefaktpfad anzugeben, der innerhalb des Arbeitsbereichs sowohl für Bereitstellungen als auch für Workflowausführungen verwendet werden soll, z. B.:
workspace:
artifact_path: /Workspace/Users/${workspace.current_user.userName}/.bundle/${bundle.name}/my-envs/${bundle.target}/artifacts
Standardmäßig verwendet die Databricks CLI für artifact_path den Standardpfad von ${workspace.root}/artifacts, der Ersetzungen verwendet.
Hinweis
Die Zuordnung artifact_path unterstützt keine Databricks File System (DBFS) Pfade.
workspace.file_path
Diese workspace-Zuordnung kann auch eine file_path-Zuordnung enthalten, um einen nicht standardmäßigen Dateipfad anzugeben, der innerhalb des Arbeitsbereichs sowohl für Bereitstellungen als auch für Workflowausführungen verwendet werden soll, z. B.:
workspace:
file_path: /Workspace/Users/${workspace.current_user.userName}/.bundle/${bundle.name}/my-envs/${bundle.target}/files
Standardmäßig verwendet die Databricks CLI für file_path den Standardpfad von ${workspace.root}/files, der Ersetzungen verwendet.
Von Bedeutung
Sie können keine benutzerdefinierten Variablen für diese Authentifizierungswerte mithilfe der ${var.*} Syntax angeben.
workspace.profile
Hinweis
Databricks empfiehlt, die host-Zuordnung (oder die Optionen --profile oder -p beim Ausführen der Befehle „bundle validate“, „bundle deploy“, „bundle run“ und „bundle destroy“ mit der Databricks-CLI) anstelle der profile-Zuordnung zu verwenden, da diese Ihre Paketkonfigurationsdateien portierbarer macht.
Die profile Zuordnung gibt den Namen eines Konfigurationsprofils an, das für die Authentifizierung bei diesem Azure Databricks-Arbeitsbereich verwendet werden soll. Dieses Konfigurationsprofil wird dem Profil zugeordnet, das Sie beim Einrichten der Databricks CLI erstellt haben.
Allgemeine Objekte
Git
Type: Map
Definiert Details zur Git-Versionssteuerung. Dies ist nützlich für die Verteilung von Bereitstellungsmetadaten, die später zum Identifizieren von Ressourcen verwendet werden können. Sie können z. B. den Repositoryursprung eines Auftrags nachverfolgen, der von CI/CD bereitgestellt wird.
Wenn Sie einen bundle-Befehl ausführen, wie z. B. validate, deploy oder run, füllt der bundle-Befehl die Konfigurationsstruktur des Befehls mit den folgenden Standardeinstellungen auf:
Zum Abrufen oder Überschreiben von Git-Einstellungen muss sich Ihr Paket in einem Verzeichnis befinden, das einem Git-Repository zugeordnet ist, z. B. einem lokalen Verzeichnis, das durch Ausführen des git clone-Befehls initialisiert wird. Wenn das Verzeichnis nicht einem Git-Repository zugeordnet ist, sind diese Git-Einstellungen leer.
| Schlüssel | Typ | Beschreibung |
|---|---|---|
branch |
Zeichenfolge | Der aktuelle Git Branch-Name. Dies ist der gleiche Wert, den Sie erhalten würden, wenn Sie den Befehl git branch --show-current aus Ihrem geklonten Repository ausführen würden. Sie können Ersetzungen verwenden, um auf diesen Wert mit Ihren Paketkonfigurationsdateien zu verweisen, wie ${bundle.git.branch}. |
origin_url |
Zeichenfolge | Die Ursprungs-URL des Repositorys. Dies ist der gleiche Wert, den Sie erhalten würden, wenn Sie den Befehl git config --get remote.origin.url aus Ihrem geklonten Repository ausführen würden. Sie können Ersetzungen verwenden, um auf diesen Wert mit Ihren Paketkonfigurationsdateien zu verweisen, wie ${bundle.git.origin_url}. |
Beispiele
Bei Bedarf können Sie die origin_url Einstellungen und branch Einstellungen in der git Zuordnung Ihrer Zuordnung auf oberster Ebene bundle außer Kraft setzen:
bundle:
git:
origin_url: <some-non-default-origin-url>
branch: <some-non-current-branch-name>