Udostępnij przez


Dokumentacja konfiguracji

Ten artykuł dostarcza odniesienia do kluczy obsługiwanych przez konfigurację pakietów zasobów Databricks (YAML). Zobacz Co to są pakiety zasobów Databricks?.

Aby zapoznać się z kompletnymi przykładami pakietów, zobacz przykłady konfiguracji pakietu i oraz repozytorium na GitHubie bundle-examples.

Artefakty

Type: Map

Określa artefakty do automatycznego kompilowania podczas wdrożeń pakietów, które mogą być używane później w uruchomieniu pakietu. Każdy klucz jest nazwą artefaktu, a wartość jest mapą, która definiuje ustawienia kompilacji artefaktu.

Porada

Ustawienia artefaktów w pakietach można definiować, łączyć i zastępować, jak opisano w Zastępowanie przy użyciu ustawień docelowych.

Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0

artifacts:
  <artifact-name>:
    <artifact-field-name>: <artifact-field-value>
Klawisz Typ Opis
build Struna Opcjonalny zestaw poleceń kompilacji do uruchamiania lokalnie przed wdrożeniem. W przypadku tworzenia pakietów wheel w języku Python, CLI usługi Databricks zakłada, że może znaleźć lokalnie zainstalowany pakiet Python wheel do uruchamiania kompilacji i domyślnie uruchamia polecenie python setup.py bdist_wheel podczas każdego wdrażania pakietu. Określ wiele poleceń kompilacji w oddzielnych wierszach.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
dynamic_version logiczny Czy zastosować poprawkę wersji koła dynamicznie na podstawie znacznika czasu pliku whl. Jeśli jest ustawiona wartość true, można wdrożyć nowy kod bez konieczności aktualizowania wersji w setup.py lub pyproject.toml. To ustawienie jest prawidłowe tylko wtedy, gdy type jest ustawione na whl.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.245.0
executable Struna Typ pliku wykonywalnego. Prawidłowe wartości to bash, shi cmd.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
files Kolejność Względna lub bezwzględna ścieżka do wygenerowanych plików artefaktów. Zobacz artefakty.name.files.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
path Struna Ścieżka lokalna katalogu artefaktu. Ścieżki są zależne od lokalizacji pliku konfiguracji pakietu. W przypadku kompilacji wheel w języku Python jest to ścieżka do pliku setup.py powiązanego z plikiem wheel w Pythonie. Jeśli path jest pominięty, CLI dla Databricks próbuje znaleźć plik wheel setup.py języka Python w katalogu głównym pakietu.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
type Struna Wymagane, jeśli artefakt jest kołem języka Python. Typ artefaktu. Prawidłowe wartości to whl i jar. To ustawienie nie musi być określone w celu skompilowania innych artefaktów.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0

Przykłady

Poniższa konfiguracja kompiluje koło języka Python przy użyciu poezji:

artifacts:
  default:
    type: whl
    build: poetry build
    path: .

Poniższa konfiguracja uruchamia testy i tworzy koło. Aby zapoznać się z kompletnym samouczkiem dotyczącym pakietu, który używa artifacts do budowy koła, zobacz Tworzenie pliku koła języka Python przy użyciu pakietów zasobów usługi Databricks.

artifacts:
  default:
    type: whl
    build: |-
      # run tests
      python -m pytest tests/ -v

      # build the actual artifact
      python setup.py bdist_wheel

    path: .

Dla przykładowej konfiguracji, która buduje plik JAR i wgrywa go do Unity Catalog, zobacz Pakiet, który wgrywa plik JAR do Unity Catalog.

Artefakty. name.files

Type: Sequence

Względna lub bezwzględna ścieżka do wygenerowanych plików artefaktów. Użyj source polecenia , aby określić utworzone artefakty. Ścieżki są zależne od lokalizacji pliku konfiguracji pakietu.

Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0

Klawisz Typ Opis
source Struna To jest wymagane. Plik źródłowy artefaktu.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0

pakiet

Type: Map

Atrybuty pakietu podczas wdrażania na tym docelowym środowisku.

Plik konfiguracji pakietu musi zawierać tylko jedno mapowanie najwyższego poziomu bundle .

To bundle mapowanie musi zawierać name mapowanie określające nazwę programową (lub logiczną) pakietu. Poniższy przykład deklaruje pakiet z nazwą hello-bundleprogramową (lub logiczną).

bundle:
  name: hello-bundle

bundle Mapowanie może być również elementem podrzędnym jednego lub więcej obiektów docelowych w mapowaniu najwyższego poziomu obiektów docelowych. Każde z tych mapowań podrzędnych bundle określa wszelkie przesłonięcia inne niż domyślne na poziomie docelowym.

Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0

Klawisz Typ Opis
cluster_id Struna Identyfikator klastra do uruchomienia pakietu. Ten klucz umożliwia określenie identyfikatora klastra do użycia jako przesłonięcia dla klastrów zdefiniowanych gdzie indziej w pliku konfiguracji pakietu. Aby uzyskać informacje na temat pobierania identyfikatora klastra, zobacz Compute resource URL and ID (Adres URL i identyfikator zasobu obliczeniowego).
Zastępowanie cluster_id jest przeznaczone wyłącznie do scenariuszy deweloperskich i jest obsługiwane tylko dla obiektu docelowego, który ma mapowanie mode ustawione na wartość development. Aby uzyskać więcej informacji na temat target mapowania, zobacz cele.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
compute_id Struna Przestarzałe. Identyfikator obliczeniowy używany do uruchamiania pakietu.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
databricks_cli_version Struna Wersja interfejsu wiersza polecenia usługi Databricks do użycia dla pakietu. Zobacz bundle.databricks_cli_version.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
deployment Mapa Definicja wdrożenia pakietu. Aby uzyskać informacje o obsługiwanych atrybutach, zobacz Tryby wdrażania pakietu zasobów usługi Databricks. Zobacz bundle.deployment.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
git Mapa Szczegóły kontroli wersji usługi Git skojarzone z Twoim pakietem. Aby uzyskać informacje o obsługiwanych atrybutach, zobacz git.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
name Struna Nazwa pakietu.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
uuid Struna Zastrzeżony. Uniwersalny unikatowy identyfikator (UUID) dla pakietu, który jednoznacznie identyfikuje pakiet w wewnętrznych systemach usługi Databricks. Jest to generowane, gdy projekt pakietu jest inicjowany przy użyciu szablonu usługi Databricks (przy użyciu polecenia databricks bundle init).
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.236.0

bundle.databricks_cli_version

Mapowanie bundle może zawierać databricks_cli_version mapowanie, które określa wersję interfejsu CLI Databricks wymaganą przez pakiet. Może to zapobiec problemom spowodowanym użyciem mapowań, które nie są obsługiwane w określonej wersji interfejsu wiersza polecenia usługi Databricks.

Wersja interfejsu wiersza polecenia usługi Databricks jest zgodna z wersjonowaniem semantycznym, a databricks_cli_version mapowanie obsługuje określanie ograniczeń wersji. Jeśli bieżąca databricks --version wartość nie znajduje się w zakresie określonym w mapowaniu pakietu databricks_cli_version, wystąpi błąd, gdy databricks bundle validate jest wykonywane na pakiecie. W poniższych przykładach pokazano niektóre typowe składnie ograniczeń wersji:

bundle:
  name: hello-bundle
  databricks_cli_version: '0.218.0' # require Databricks CLI 0.218.0
bundle:
  name: hello-bundle
  databricks_cli_version: '0.218.*' # allow all patch versions of Databricks CLI 0.218
bundle:
  name: my-bundle
  databricks_cli_version: '>= 0.218.0' # allow any version of Databricks CLI 0.218.0 or higher
bundle:
  name: my-bundle
  databricks_cli_version: '>= 0.218.0, <= 1.0.0' # allow any Databricks CLI version between 0.218.0 and 1.0.0, inclusive

bundle.deployment

Type: Map

Definicja wdrożenia pakietu

Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0

Klawisz Typ Opis
fail_on_active_runs logiczny Czy zakończyć niepowodzeniem aktywne przebiegi. W przypadku ustawienia wartości true wdrożenie, które jest uruchomione, może zostać przerwane.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
lock Mapa Atrybuty blokady wdrożenia. Zobacz bundle.deployment.lock.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0

bundle.deployment.lock

Type: Map

Atrybuty blokady wdrożenia.

Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0

Klawisz Typ Opis
enabled logiczny Czy ta blokada jest włączona.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
force logiczny Czy wymusić tę blokadę, jeśli jest włączona.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0

eksperymentalny

Type: Map

Definiuje atrybuty dla funkcji eksperymentalnych.

Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0

Klawisz Typ Opis
python Mapa Przestarzałe. Zamiast tego użyj mapowania języka Python najwyższego poziomu.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.238.0
python_wheel_wrapper logiczny Czy używać opakowania typu wheel dla języka Python?
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
scripts Mapa Polecenia do uruchomienia.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
skip_artifact_cleanup logiczny Określa, czy pominąć usuwanie .internal folderu w programie workspace.artifact_path. Domyślnie ten folder jest usuwany przed przekazaniem nowych artefaktów kompilacji (takich jak koła języka Python) podczas wdrażania. Ustaw wartość na , aby true zachować istniejące artefakty we wdrożeniach.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.254.0
skip_name_prefix_for_schema logiczny Czy pominąć dodawanie prefiksu (ustawionego w presets.name_prefix lub obliczonego, gdy mode: development) do nazw schematów wykazu aparatu Unity zdefiniowanych w pakiecie.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.255.0
use_legacy_run_as logiczny Czy używać starszego zachowania funkcji run_as.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0

zawierać

Type: Sequence

Określa listę wzorców ścieżek, które zawierają pliki konfiguracyjne do uwzględnienia w pakiecie. Te wzorce ścieżek są względne względem położenia pliku konfiguracyjnego, w którym określono wzorce ścieżek. databricks.ymlOprócz elementu należy użyć include tablicy, aby określić wszystkie pliki konfiguracji do uwzględnienia w pakiecie.

Porada

Aby dołączyć lub wykluczyć inne pliki w pakiecie, użyj funkcji dołączania i wykluczania.

Ta include tablica może być wyświetlana tylko jako mapowanie najwyższego poziomu.

Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0

Poniższa przykładowa konfiguracja obejmuje trzy pliki konfiguracji. Te pliki znajdują się w tym samym folderze co plik konfiguracji pakietu:

include:
  - 'bundle.artifacts.yml'
  - 'bundle.resources.yml'
  - 'bundle.targets.yml'

Poniższa przykładowa konfiguracja obejmuje wszystkie pliki, których nazwy plików rozpoczynają się od bundle i kończą na .yml. Te pliki znajdują się w tym samym folderze co plik konfiguracji pakietu:

include:
  - 'bundle*.yml'

uprawnienia

Type: Sequence

Definiuje uprawnienia do zastosowania do zasobów zdefiniowanych w pakiecie, gdzie każdy element w sekwencji jest uprawnieniem dla określonej jednostki. Zobacz Ustawianie uprawnień dla zasobów w pakietach zasobów usługi Databricks.

Dozwolone poziomy uprawnień najwyższego poziomu to CAN_VIEW, CAN_MANAGEi CAN_RUN.

Jeśli chcesz zastosować uprawnienia do określonego zasobu, zobacz Definiowanie uprawnień dla określonego zasobu.

Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0

Klawisz Typ Opis
group_name Struna Nazwa grupy, która ma uprawnienie ustawione na określonym poziomie.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
level Struna Dozwolone uprawnienie dla użytkownika, grupy, głównej jednostki usługi, zdefiniowane dla tego uprawnienia. Prawidłowe wartości tego klucza różnią się w zależności od tego, czy uprawnienia są zdefiniowane na najwyższym poziomie pakietu, czy dla określonego zasobu. Zobacz Ustawianie uprawnień dla zasobów w pakietach zasobów usługi Databricks.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
service_principal_name Struna Nazwa jednostki usługi, która ma uprawnienia ustawione na określonym poziomie.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
user_name Struna Nazwa użytkownika, który ma uprawnienia ustawione na poziomie.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0

Przykład

Poniższa przykładowa konfiguracja definiuje poziomy uprawnień dla użytkownika, grupy i jednostki usługi, które są stosowane do wszystkich zasobów zdefiniowanych w resources pakiecie:

permissions:
  - level: CAN_VIEW
    group_name: test-group
  - level: CAN_MANAGE
    user_name: someone@example.com
  - level: CAN_RUN
    service_principal_name: 123456-abcdef

Ustawień

Type: Map

Definiuje domyślne ustawienia wdrożenia pakietu. Aby uzyskać więcej informacji, zobacz Ustawienia wstępne niestandardowe.

O ile nie określono wyjątku dla ustawienia wstępnego, jeśli oba mode ustawienia i presets są ustawione, ustawienia wstępne zastępują zachowanie trybu domyślnego i ustawienia poszczególnych zasobów zastępują ustawienia wstępne.

Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0

Ustawienie wstępne Opis
artifacts_dynamic_version Czy dynamicznie aktualizować wersję artefaktów whl podczas wdrażania. Prawidłowe wartości to true lub false. Jeśli ustawienie konfiguracyjne najwyższego poziomu artifacts.dynamic_version jest określone, zastępuje ono to ustawienie wstępne.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.256.0
jobs_max_concurrent_runs Maksymalna liczba dozwolonych równoczesnych wykonań zadań.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
name_prefix Ciąg prefiksu, który ma być poprzedzony nazwami zasobów.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
pipelines_development Określa, czy wdrożenia potoków powinny być zablokowane w trybie programowania. Prawidłowe wartości to true lub false.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
source_linked_deployment Określa, czy zasoby utworzone podczas wdrażania wskazują na pliki źródłowe w obszarze roboczym zamiast na ich kopie w obszarze roboczym.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.236.0
tags Zestaw tagów key:value, które mają zastosowanie do wszystkich zasobów, które obsługują tagi, w tym zadania i eksperymenty. Pakiety zasobów usługi Databricks nie obsługują tagów dla schema zasobu.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
trigger_pause_status Stan wstrzymania, który ma być stosowany do wszystkich wyzwalaczy i harmonogramów. Prawidłowe wartości to PAUSED lub UNPAUSED.
Jeśli mode jest ustawione na development, trigger_pause_status zawsze wynosi PAUSED.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0

pyton

Type: Map

Konfiguruje ładowanie kodu języka Python zdefiniowanego za pomocą pakietu databricks-bundles. Aby uzyskać więcej informacji, zobacz Konfiguracja pakietu w języku Python.

Przeniesiono z experimental interfejsu wiersza polecenia usługi Databricks w wersji 0.275.0

Klawisz Typ Opis
mutators Kolejność Mutatory zawierają listę w pełni kwalifikowanych ścieżek funkcji do funkcji mutatora, takich jak [my_project.mutators:add_default_cluster].
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.238.0
resources Kolejność Zasoby zawierają listę w pełni kwalifikowanych ścieżek funkcji do ładowania zasobów zdefiniowanych w kodzie języka Python, takich jak ["my_project.resources:load_resources"]
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.238.0
venv_path Struna Ścieżka do środowiska wirtualnego. Jeśli to ustawienie jest włączone, kod języka Python jest wykonywany w tym środowisku. Jeśli to ustawienie jest wyłączone, domyślnie używa interpretera języka Python dostępnego w bieżącej powłoce.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.238.0

zasoby

Type: Map

Definiuje zasoby dla pakietu, w którym każdy klucz jest nazwą zasobu, a wartość jest mapą definiującą zasób. Aby uzyskać więcej informacji na temat zasobów obsługiwanych przez pakiety Databricks oraz dokumentacji definicji zasobów, zobacz zasoby pakietów Databricks.

Mapowanie resources może być wyświetlane jako mapowanie najwyższego poziomu lub może być elementem podrzędnym jednego lub większej liczby obiektów docelowych w mapowaniu obiektów docelowych najwyższego poziomu i zawiera zero lub jeden z obsługiwanych typów zasobów. Każde mapowanie typu zasobu zawiera co najmniej jedną pojedynczą deklarację zasobów, która musi mieć unikatową nazwę. Te deklaracje zasobów indywidualnych wykorzystują ładunek żądania operacji tworzenia odpowiedniego obiektu, wyrażony w YAML, do określenia zasobu. Obsługiwane właściwości zasobu to obsługiwane pola odpowiedniego obiektu.

Ładunki żądań operacji tworzenia są udokumentowane w dokumentacji interfejsu API REST usługi Databricks, a polecenie databricks bundle schema wyświetla wszystkie obsługiwane schematy obiektów. Ponadto polecenie databricks bundle validate zwraca ostrzeżenia, jeśli w plikach konfiguracji pakietu znajdują się nieznane właściwości zasobu.

Aby uzyskać więcej informacji na temat zasobów obsługiwanych w pakietach, a także typowych konfiguracji i przykładów, zobacz Zasoby pakietu zasobów usługi Databricks i przykłady konfiguracji pakietu.

Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0

resources:
  <resource-type>:
    <resource-name>:
      <resource-field-name>: <resource-field-value>
Klawisz Typ Opis
alerts Mapa Definicje alertu (wersja 2) dla pakietu, gdzie każdy klucz jest nazwą alertu. Zobacz alert.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.279.0
apps Mapa Definicje aplikacji Databricks dla pakietu, gdzie każdy klucz jest nazwą aplikacji. Zobacz aplikację.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.239.0
catalogs Mapa Definicje wykazu (wykazu aparatu Unity) dla pakietu, w których każdy klucz jest nazwą wykazu. Zobacz wykazy.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.287.0
clusters Mapa Definicje klastra dla pakietu, gdzie każdy klucz jest nazwą klastra. Zobacz klaster.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
dashboards Mapa Definicje pulpitu nawigacyjnego dla pakietu, w których każdy klucz jest nazwą pulpitu nawigacyjnego. Zobacz pulpit nawigacyjny.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.232.0
database_catalogs Mapa Definicje wykazu baz danych dla pakietu, w którym każdy klucz jest nazwą wykazu baz danych. Zobacz database_catalog.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.265.0
database_instances Mapa Definicje wystąpienia bazy danych dla pakietu, w którym każdy klucz jest nazwą wystąpienia bazy danych. Zobacz database_instance.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.265.0
experiments Mapa Definicje eksperymentów dla pakietu, w których każdy klucz jest nazwą eksperymentu. Zobacz eksperyment.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
jobs Mapa Definicje zadań dla pakietu, gdzie każdy klucz jest nazwą zadania. Zobacz zadanie.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
model_serving_endpoints Mapa Model obsługujący definicje punktów końcowych dla pakietu, w którym każdy klucz jest nazwą punktu końcowego obsługującego model. Zobacz model_serving_endpoint.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
models Mapa Definicje modelu dla pakietu, gdzie każdy klucz jest nazwą modelu. Zobacz model (starsza wersja).
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
pipelines Mapa Definicje przepływów pracy dla pakietu, gdzie każdy klucz jest nazwą przepływu pracy. Zobacz potok.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
postgres_branches Mapa Definicje gałęzi Postgres dla pakietu, gdzie każdy klucz jest nazwą gałęzi Lakebase. Zobacz postgres_branch.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.287.0
postgres_endpoints Mapa Definicje punktu końcowego bazy danych Postgres dla pakietu, gdzie każdy klucz jest nazwą punktu końcowego obliczeniowego usługi Lakebase. Zobacz postgres_endpoint.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.287.0
postgres_projects Mapa Definicje projektu Postgres dla pakietu, w którym każdy klucz jest nazwą projektu Lakebase. Zobacz postgres_project.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.287.0
quality_monitors Mapa Definicje monitora jakości dla pakietu, gdzie każdy klucz jest nazwą monitora jakości. Zobacz quality_monitor (Unity Catalog).
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
registered_models Mapa Zarejestrowane definicje modeli dla pakietu, gdzie każdy klucz to nazwa modelu zarejestrowanego w Unity Catalog. Zobacz registered_model (Unity Catalog).
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
schemas Mapa Definicje schematu dla pakietu, gdzie każdy klucz jest nazwą schematu. Zobacz schemat (Unity Catalog).
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
secret_scopes Mapa Definicje zakresów tajnych dla pakietu, gdzie każdy klucz jest nazwą zakresu tajnego. Zobacz secret_scope.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.252.0
sql_warehouses Mapa Definicje usługi SQL Warehouse dla pakietu, gdzie każdy klucz jest nazwą magazynu SQL. Zobacz sql_warehouse.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.260.0
synced_database_tables Mapa Zsynchronizowane definicje tabeli bazy danych dla pakietu, gdzie każdy klucz jest nazwą tabeli bazy danych. Zobacz synced_database_table.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.266.0
volumes Mapa Definicje woluminów dla pakietu, gdzie każdy klucz jest nazwą woluminu. Zobacz wolumin (Unity Catalog).
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.236.0

Przykład

Poniższa przykładowa konfiguracja definiuje zasób zadania:

resources:
  jobs:
    hello-job:
      name: hello-job
      tasks:
        - task_key: hello-task
          existing_cluster_id: 1234-567890-abcde123
          notebook_task:
            notebook_path: ./hello.py

uruchom jako

Type: Map

Tożsamość (user_name lub service_principal_name) używana do uruchamiania przepływów pracy pakietów zasobów usługi Databricks. Zapewnia możliwość oddzielenia tożsamości używanej do wdrożenia zadań pakietowych lub potoków od tożsamości używanej do ich uruchamiania. Zobacz Określ tożsamość przebiegu dla przepływu pracy pakietów zasobów usługi Databricks.

Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0

Klawisz Typ Opis
service_principal_name Struna Identyfikator aplikacji aktywnej jednostki usługi. Ustawienie tego pola wymaga roli servicePrincipal/user.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
user_name Struna Adres e-mail aktywnego użytkownika obszaru roboczego. Użytkownicy niebędący administratorami mogą ustawić to pole tylko na własną wiadomość e-mail.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0

Skrypty

Type: Map

Skrypty, które można uruchomić przy użyciu polecenia bundle run. Każdy nazwany skrypt w scripts mapowaniu zawiera treść z poleceniami. Zobacz Wykonywanie skryptów.

Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.259.0

scripts:
  <script-name>:
    <script-field-name>: <script-field-value>
Klawisz Typ Opis
content Struna Polecenia do uruchomienia
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.259.0

Przykłady

scripts:
  my_script:
    content: uv run pytest -m ${bundle.target}

synchroniczny

Type: Map

Pliki i ścieżki plików do uwzględnienia lub wykluczenia w pakiecie.

Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0

Klawisz Typ Opis
exclude Kolejność Lista plików lub folderów do wykluczenia z pakietu. Zobacz dołączanie i wykluczanie.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
include Kolejność Lista plików lub folderów do uwzględnienia w pakiecie. Zobacz dołączanie i wykluczanie.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
paths Kolejność Ścieżki folderów lokalnych, które mogą znajdować się poza głównym katalogiem pakietu, przeznaczone do synchronizacji z obszarem roboczym po wdrożeniu pakietu. Zobacz sync.paths.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0

dołączanie i wykluczanie

Mapowania include i exclude w ramach mapowania sync określają listę plików lub folderów do uwzględnienia w ramach wdrożeń pakietów lub ich wykluczania w zależności od następujących reguł:

  • Na podstawie dowolnej listy globów plików i ścieżek w pliku .gitignore w katalogu głównym pakietu, mapowanie include może zawierać listę globów plików, globów ścieżek lub obu, względem katalogu głównego pakietu, aby jawnie dołączyć.
  • Na podstawie dowolnej listy wzorców plików i ścieżek w pliku .gitignore znajdującym się w katalogu głównym pakietu oraz listy wzorców plików i ścieżek w mapowaniu include, mapowanie exclude może zawierać listę wzorców plików, wzorców ścieżek lub obu elementów, odnoszących się do katalogu głównego pakietu, które mają być jawnie wykluczone.

Wszystkie ścieżki do określonych plików i folderów są powiązane z lokalizacją pliku konfiguracji pakietu, w którym są określone.

Składnia wzorców plików include i wzorców ścieżek exclude jest zgodna ze standardową składnią .gitignore wzorca. Zobacz format wzorca gitignore.

Jeśli na przykład następujący .gitignore plik zawiera następujące wpisy:

.databricks
my_package/dist

Plik konfiguracji pakietu zawiera następujące include mapowanie:

sync:
  include:
    - my_package/dist/*.whl

Następnie uwzględniane są wszystkie pliki w folderze my_package/dist z rozszerzeniem pliku *.whl. Żadne inne pliki w folderze my_package/dist nie są uwzględniane.

Jeśli jednak plik konfiguracji pakietu zawiera również następujące exclude mapowanie:

sync:
  include:
    - my_package/dist/*.whl
  exclude:
    - my_package/dist/delete-me.whl

Następnie wszystkie pliki w folderze my_package/dist z rozszerzeniem *.whlpliku , z wyjątkiem pliku o nazwie delete-me.whl, są uwzględniane. Wszystkie inne pliki w folderze my_package/dist również nie są uwzględniane.

Mapowanie sync można również zadeklarować w targets dla określonego celu. Każde sync mapowanie zadeklarowane w miejscu docelowym jest scalane z wszelkimi deklaracjami mapowania najwyższego poziomu sync. Na przykład, kontynuując nawiązanie do wcześniejszego przykładu, następujące mapowanie na poziomie include łączy się z mapowaniem targets w nadrzędnym mapowaniu include:

targets:
  dev:
    sync:
      include:
        - my_package/dist/delete-me.whl

sync.paths

Mapowanie sync może zawierać mapowanie paths, które określa lokalne ścieżki do synchronizacji z obszarem roboczym. Mapowanie paths umożliwia udostępnianie wspólnych plików w pakietach i może służyć do synchronizowania plików znajdujących się poza katalogem głównym pakietu. (Katalog główny pakietu jest lokalizacją pliku databricks.yml). Jest to szczególnie przydatne, gdy masz jedno repozytorium, które hostuje wiele pakietów i chce udostępniać biblioteki, pliki kodu lub konfigurację.

Określone ścieżki muszą być względne w odniesieniu do plików i katalogów zakotwiczonych w folderze, w którym ustawiono mapowanie paths. Jeśli jedna lub więcej wartości ścieżki przechodzi w górę katalogu do przodka katalogu głównego pakietu, ścieżka główna jest dynamicznie ustalana, aby zapewnić, że struktura folderów pozostaje nienaruszona. Jeśli na przykład folder główny pakietu ma nazwę my_bundle, ta konfiguracja w databricks.yml synchronizuje folder common znajdujący się na jednym poziomie powyżej katalogu głównego pakietu oraz sam katalog główny pakietu:

sync:
  paths:
    - ../common
    - .

Wdrożenie tego pakietu powoduje następującą strukturę folderów w obszarze roboczym:

common/
  common_file.txt
my_bundle/
  databricks.yml
  src/
    ...

Cele

Type: Map

Definiuje konteksty docelowe wdrożenia dla pakietu. Każdy element docelowy to unikatowa kolekcja artefaktów, ustawień obszaru roboczego usługi Azure Databricks, a czasami szczegółów zasobów specyficznych dla elementu docelowego.

Mapowanie targets składa się z co najmniej jednego mapowania docelowego, które musi mieć unikatową nazwę programową (lub logiczną). To mapowanie jest opcjonalne, ale zdecydowanie zalecane.

Ustawienia w targets ramach mapowania mają pierwszeństwo przed ustawieniami określonymi w obszarze roboczym najwyższego poziomu, artefaktami i mapowaniami zasobów .

Obiekt docelowy może również zastąpić wartości dowolnych zmiennych najwyższego poziomu.

Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0

targets:
  <target-name>:
    <target-field-name>: <target-field-value>
Klawisz Typ Opis
artifacts Mapa Artefakty do uwzględnienia w wdrożeniu docelowym. Zobacz artefakty.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
bundle Mapa Atrybuty pakietu podczas wdrażania na tym docelowym środowisku. Zobacz pakiet.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
cluster_id Struna Identyfikator klastra do użycia dla tego obiektu docelowego.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
compute_id Struna Przestarzałe. Identyfikator zasobu obliczeniowego do użycia dla tego obiektu docelowego.
default logiczny Czy ten element jest domyślnym obiektem docelowym? Zobacz cele.name.default.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
git Mapa Ustawienia kontroli wersji usługi Git dla miejsca docelowego. Zobacz git.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
mode Struna Tryb wdrażania dla obiektu docelowego. Prawidłowe wartości to development lub production. Zobacz cele.name.mode i Tryby wdrażania pakietu zasobów usługi Databricks.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
permissions Kolejność Uprawnienia do wdrażania i uruchamiania pakietu w obiekcie docelowym. Zobacz uprawnienia.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
presets Mapa Ustawienia wstępne wdrożenia dla obiektu docelowego. Zobacz docelowe.name.presets.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
resources Mapa Definicje zasobów dla obiektu docelowego. Zobacz zasoby.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
run_as Mapa Tożsamość używana do uruchamiania pakietu. Zobacz run_as i Określ tożsamość przebiegu dla przepływu pracy pakietów zasobów usługi Databricks.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
sync Mapa Lokalne ścieżki do synchronizacji z docelową przestrzenią roboczą podczas uruchamiania lub wdrażania pakietu. Zobacz sync.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
variables Mapa Definicje zmiennych niestandardowych dla obiektu docelowego. Zobacz zmienne.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
workspace Mapa Obszar roboczy usługi Databricks dla obiektu docelowego. Zobacz obszar roboczy.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0

Cele. name.default

Aby określić domyślną wartość docelową dla poleceń pakietu, ustaw mapowanie default na wartość true. Na przykład ten obiekt docelowy o nazwie dev jest domyślnym obiektem docelowym:

targets:
  dev:
    default: true

Jeśli domyślny cel nie jest skonfigurowany lub chcesz zweryfikować, wdrożyć i uruchomić zadania lub potoki w określonym celu, użyj -t opcji poleceń pakietu.

Następujące polecenia weryfikują, wdrażają i uruchamiają my_job w obiektach dev i prod docelowych.

databricks bundle validate
databricks bundle deploy -t dev
databricks bundle run -t dev my_job
databricks bundle validate
databricks bundle deploy -t prod
databricks bundle run -t prod my_job

W poniższym przykładzie zadeklarowane są dwa cele. Pierwszy element docelowy ma nazwę dev i jest domyślnym elementem docelowym używanym, gdy dla poleceń pakietu nie określono żadnego elementu docelowego. Drugi element docelowy ma nazwę prod i jest używany tylko wtedy, gdy ten element docelowy jest określony dla poleceń pakietu.

targets:
  dev:
    default: true
  prod:
    workspace:
      host: https://<production-workspace-url>

Cele. name.mode

Aby ułatwić rozwój i stosowanie najlepszych praktyk CI/CD, pakiety zasobów Databricks oferują tryby wdrażania dla celów, które określają domyślne zachowania dla przepływów pracy przedprodukcyjnej i produkcyjnej. Niektóre zachowania można również konfigurować przy użyciu obiektów docelowych.name.presets.

Aby uzyskać szczegółowe informacje, zobacz Tryby wdrażania pakietu zasobów usługi Databricks.

Porada

Aby ustawić identyfikatory uruchomienia dla pakietów, można określić run_as dla każdego celu, zgodnie z opisem w temacie Określanie identyfikatora uruchomienia dla przepływu pracy pakietów zasobów Databricks.

Aby określić, że element docelowy jest traktowany jako cel rozwoju, dodaj mapowanie mode ustawione na development. Aby określić, że element docelowy jest traktowany jako cel produkcyjny, dodaj mapowanie mode ustawione na production. Na przykład, ten obiekt docelowy o nazwie prod jest traktowany jako cel produkcyjny:

targets:
  prod:
    mode: production

Cele. name.presets

Niektóre zachowania wdrożenia mode docelowego można dostosować przy użyciu presets mapowania.

Aby uzyskać listę dostępnych ustawień wstępnych, zobacz Niestandardowe ustawienia wstępne.

W poniższym przykładzie przedstawiono dostosowany cel produkcji, dodający prefiksy i tagujący wszystkie zasoby produkcyjne:

targets:
  prod:
    mode: production
    presets:
      name_prefix: 'production_' # prefix all resource names with production_
      tags:
        prod: true

Zmiennych

Type: Map

Definiuje zmienną niestandardową dla pakietu. Dla każdej zmiennej ustaw opcjonalny opis, wartość domyślną, czy zmienna niestandardowa jest typem złożonym, lub wyszukiwanie w celu pobrania wartości identyfikatora, przy użyciu następującego formatu:

variables:
  <variable-name>:
    description: <variable-description>
    default: <optional-default-value>
    type: <optional-type-value> # "complex" is the only valid value
    lookup:
      <optional-object-type>: <optional-object-name>

Uwaga / Notatka

Przyjmuje się, że zmienne mają być typu string, chyba że type jest ustawiona na wartość complex. Zobacz Definiowanie zmiennej złożonej.

Aby odnieść się do zmiennej niestandardowej w ramach konfiguracji pakietu, użyj zamiennika ${var.<variable_name>}.

Aby uzyskać więcej informacji na temat niestandardowych zmiennych i podstawień, zapoznaj się z Podstawianiem i zmiennymi w pakietach zasobów Databricks.

Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0

Klawisz Typ Opis
default Jakikolwiek Wartość domyślna zmiennej.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
description Struna Opis zmiennej.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
lookup Mapa Nazwa alert, cluster_policy, cluster, dashboard, instance_pool, job, metastore, pipeline, query, service_principallub obiektu warehouse, dla którego ma pobrać identyfikator. Zobacz zmienne.name.lookup.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
type Struna Typ zmiennej, prostej lub złożonej. Ustaw ten klucz tylko wtedy, gdy zmienna jest złożona. Prawidłowe wartości: complex.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0

Zmiennych. name.lookup

Type: Map

Nazwa alertu, polityki klastra, klastra, pulpitu nawigacyjnego, instance_pool, zadania, magazynu metadanych, potoku, zapytania, głównego serwisu lub obiektu magazynu, dla którego należy pobrać identyfikator. Aby uzyskać informacje o korzystaniu z wyszukiwania, zobacz Pobieranie wartości identyfikatora obiektu.

Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0

Klawisz Typ Opis
alert Struna Nazwa alertu, dla którego ma być pobrany identyfikator.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
cluster Struna Nazwa klastra, dla którego ma być pobierany identyfikator.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
cluster_policy Struna Nazwa cluster_policy, dla której ma zostać pobrane ID.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
dashboard Struna Nazwa pulpitu nawigacyjnego, dla którego ma być pobierany identyfikator.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
instance_pool Struna Nazwa instance_pool, dla której ma być pobierany identyfikator.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
job Struna Nazwa zadania, dla którego ma być pobierany identyfikator.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
metastore Struna Nazwa magazynu metadanych, dla którego ma być pobierany identyfikator.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
notification_destination Struna Nazwa celu powiadomienia, dla którego należy pobrać identyfikator.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.236.0
pipeline Struna Nazwa potoku, dla którego ma być pobierany identyfikator.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
query Struna Nazwa zapytania, dla którego ma być pobrany identyfikator.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
service_principal Struna Nazwa głównego obiektu usługi, dla którego należy uzyskać identyfikator.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
warehouse Struna Nazwa magazynu, dla którego ma być pobierany identyfikator.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0

obszar roboczy

Type: Map

Definiuje obszar roboczy usługi Databricks dla pakietu. Plik konfiguracji pakietu może zawierać tylko jedno mapowanie najwyższego poziomu workspace, aby określić wszelkie niestandardowe ustawienia obszaru roboczego usługi Azure Databricks do użycia.

Ważne

Prawidłowe ścieżki obszaru roboczego usługi Databricks rozpoczynają się od /Workspace, a dla artefaktów również obsługiwane jest /Volumes. Niestandardowe ścieżki obszaru roboczego są automatycznie poprzedzone prefiksem /Workspace, więc jeśli używasz podstawiania ścieżki obszaru roboczego w swojej niestandardowej ścieżce, takiej jak ${workspace.file_path}, nie musisz dodawać /Workspace na początku ścieżki.

Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0

Klawisz Typ Opis
artifact_path Struna Ścieżka artefaktu do użycia w obszarze roboczym zarówno dla wdrożeń, jak i przebiegów przepływu pracy
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
auth_type Struna Typ uwierzytelniania do użycia, szczególnie ważny w przypadkach, gdy interfejs wiersza polecenia usługi Databricks wnioskowa nieoczekiwany typ uwierzytelniania. Zobacz Autoryzowanie dostępu do zasobów usługi Azure Databricks.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
azure_client_id Struna Identyfikator klienta platformy Azure. Zobacz Uwierzytelnianie obszaru roboczego.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
azure_environment Struna Środowisko platformy Azure. Zobacz Uwierzytelnianie obszaru roboczego.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
azure_login_app_id Struna Identyfikator aplikacji logowania platformy Azure. Zobacz Uwierzytelnianie obszaru roboczego.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
azure_tenant_id Struna Identyfikator dzierżawcy platformy Azure. Zobacz Uwierzytelnianie obszaru roboczego.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
azure_use_msi logiczny Czy używać tożsamości usługi zarządzanej dla platformy Azure. Zobacz Uwierzytelnianie obszaru roboczego.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
azure_workspace_resource_id Struna Identyfikator zasobu obszaru roboczego platformy Azure. Zobacz Uwierzytelnianie obszaru roboczego.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
client_id Struna Identyfikator klienta dla obszaru roboczego. Zobacz Uwierzytelnianie obszaru roboczego.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
file_path Struna Ścieżka pliku do użycia w obszarze roboczym zarówno dla wdrożeń, jak i przebiegów przepływu pracy. Zobacz workspace.file_path.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
google_service_account Struna Nazwa konta usługi Google. Zobacz Uwierzytelnianie obszaru roboczego.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
host Struna Adres URL hosta obszaru roboczego usługi Databricks. Zobacz Nazwy wystąpień obszaru roboczego, adresy URL i identyfikatory.
Ustawienie mapowania powoduje, że Interfejs wiersza polecenia (CLI) usługi Databricks znajduje pasujący profil w pliku host, a następnie używa pól tego profilu do określenia, który typ uwierzytelniania usługi Databricks użyć. Jeśli w pliku istnieje .databrickscfg wiele profilów z pasującym host polem, musisz użyć profile mapowania (lub --profile-p opcji wiersza polecenia), aby określić profil.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
profile Struna Nazwa profilu obszaru roboczego usługi Databricks. Zobacz workspace.profile.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
resource_path Struna Ścieżka zasobu obszaru roboczego
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.230.0
root_path Struna Ścieżka główna obszaru roboczego usługi Databricks. Zobacz workspace.root_path.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
state_path Struna Ścieżka stanu obszaru roboczego. Ten klucz domyślnie określa domyślną ścieżkę ${workspace.root}/state i reprezentuje ścieżkę w obszarze roboczym, aby przechowywać informacje o stanie programu Terraform dotyczące wdrożeń.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0

Uwierzytelnianie obszaru roboczego

Mapowanie obszaru roboczego może również zawierać mapowania, aby określić mechanizm uwierzytelniania usługi Databricks do użycia. Jeśli nie są one określone w ramach mapowania obszaru roboczego najwyższego poziomu, muszą być określone w mapowaniu obszaru roboczego jako element podrzędny co najmniej jednego miejsca docelowego w mapowaniu obiektów docelowych najwyższego poziomu.

  • W przypadku uwierzytelniania maszyny-maszyny (M2M) protokołu OAuth jest używane mapowanie client_id . Alternatywnie można ustawić tę wartość w lokalnej zmiennej środowiskowej DATABRICKS_CLIENT_ID. Możesz też utworzyć profil konfiguracji z wartością client_id, a następnie określić nazwę profilu z mapowaniem profile (lub za pomocą opcji --profile lub -p podczas uruchamiania poleceń bundle validate, deploy, run i destroy za pomocą interfejsu wiersza polecenia Databricks). Zobacz Autoryzowanie dostępu jednostki usługi do usługi Azure Databricks przy użyciu protokołu OAuth.

    Uwaga / Notatka

    Nie można określić tajnej wartości OAuth usługi Azure Databricks w pliku konfiguracji pakietu. Zamiast tego ustaw lokalną zmienną środowiskową DATABRICKS_CLIENT_SECRET. Możesz też dodać wartość client_secret do profilu konfiguracji, a następnie określić nazwę profilu przy użyciu mapowania profile (lub używając opcji --profile lub -p podczas uruchamiania poleceń validate, deploy, run i destroy w interfejsie wiersza polecenia Databricks CLI).

  • W przypadku uwierzytelniania za pomocą Azure CLI używa się mapowania azure_workspace_resource_id. Alternatywnie można ustawić tę wartość w lokalnej zmiennej środowiskowej DATABRICKS_AZURE_RESOURCE_ID. Możesz też utworzyć profil konfiguracji z wartością azure_workspace_resource_id, a następnie określić nazwę profilu z mapowaniem profile (lub za pomocą opcji --profile lub -p podczas uruchamiania poleceń bundle validate, deploy, run i destroy za pomocą interfejsu wiersza polecenia Databricks). Zobacz Uwierzytelnianie przy użyciu interfejsu wiersza polecenia platformy Azure.

  • W przypadku uwierzytelniania sekretów klienta Azure za pomocą zasad usługi używane są mapowania azure_workspace_resource_id, azure_tenant_id, i azure_client_id. Alternatywnie można ustawić te wartości w lokalnych zmiennych środowiskowych DATABRICKS_AZURE_RESOURCE_ID, ARM_TENANT_IDi ARM_CLIENT_ID, odpowiednio. Możesz też utworzyć profil konfiguracji z wartościami azure_workspace_resource_id, azure_tenant_id i azure_client_id, a następnie określić nazwę profilu za pomocą mapowania profile (lub przy użyciu opcji --profile lub -p podczas uruchamiania pakietu przy użyciu poleceń validate, deploy, run i destroy za pomocą Databricks CLI). Zobacz Uwierzytelnianie za pomocą jednostek usługi Microsoft Entra.

    Uwaga / Notatka

    Nie można określić wartości tajnego klienta Azure w pliku konfiguracji pakietu. Zamiast tego ustaw lokalną zmienną środowiskową ARM_CLIENT_SECRET. Możesz też dodać wartość azure_client_secret do profilu konfiguracji, a następnie określić nazwę profilu przy użyciu mapowania profile (lub używając opcji --profile lub -p podczas uruchamiania poleceń validate, deploy, run i destroy w interfejsie wiersza polecenia Databricks CLI).

  • W przypadku uwierzytelniania tożsamości zarządzanych platformy Azure używane są mapowania azure_use_msi, azure_client_id, i azure_workspace_resource_id. Alternatywnie można ustawić te wartości w lokalnych zmiennych środowiskowych ARM_USE_MSI, ARM_CLIENT_IDi DATABRICKS_AZURE_RESOURCE_ID, odpowiednio. Możesz też utworzyć profil konfiguracji z wartościami azure_use_msi, azure_client_id i azure_workspace_resource_id, a następnie określić nazwę profilu za pomocą mapowania profile (lub przy użyciu opcji --profile lub -p podczas uruchamiania pakietu przy użyciu poleceń validate, deploy, run i destroy za pomocą Databricks CLI). Zobacz Uwierzytelnianie przy użyciu tożsamości zarządzanych platformy Azure.

  • Mapowanie azure_environment określa typ środowiska platformy Azure (na przykład Publiczny, UsGov, Chiny i Niemcy) dla określonego zestawu punktów końcowych interfejsu API. Domyślna wartość to PUBLIC. Alternatywnie można ustawić tę wartość w lokalnej zmiennej środowiskowej ARM_ENVIRONMENT. Możesz też dodać wartość azure_environment do profilu konfiguracji, a następnie określić nazwę profilu przy użyciu mapowania profile (lub używając opcji --profile lub -p podczas uruchamiania poleceń validate, deploy, run i destroy w interfejsie wiersza polecenia Databricks CLI).

  • Mapowanie azure_login_app_id nie działa i jest zarezerwowane do użytku wewnętrznego.

workspace.root_path

To mapowanie workspace może zawierać dodatkowe mapowanie root_path, aby określić nie-domyślną ścieżkę główną do zastosowania w obszarze roboczym zarówno dla wdrożeń, jak i przebiegów pracy, na przykład:

workspace:
  root_path: /Workspace/Users/${workspace.current_user.userName}/.bundle/${bundle.name}/my-envs/${bundle.target}

Domyślnie interfejs wiersza polecenia Databricks używa domyślnej ścieżki root_path, która wykorzystuje /Workspace/Users/${workspace.current_user.userName}/.bundle/${bundle.name}/${bundle.target}.

workspace.artifact_path

To mapowanie workspace może również zawierać mapowanie artifact_path określające niestandardową ścieżkę artefaktu do użycia w obszarze roboczym zarówno dla wdrożeń, jak i procesów przepływu pracy, na przykład:

workspace:
  artifact_path: /Workspace/Users/${workspace.current_user.userName}/.bundle/${bundle.name}/my-envs/${bundle.target}/artifacts

Domyślnie interfejs wiersza polecenia Databricks używa domyślnej ścieżki artifact_path, która wykorzystuje ${workspace.root}/artifacts.

Uwaga / Notatka

Mapowanie artifact_path nie obsługuje ścieżek systemu plików Databricks (DBFS).

workspace.file_path

To mapowanie workspace może również zawierać mapowanie file_path w celu określenia nie-domyślnej ścieżki pliku do użycia w obszarze roboczym dla wdrożeń i przebiegów przepływu pracy, na przykład:

workspace:
  file_path: /Workspace/Users/${workspace.current_user.userName}/.bundle/${bundle.name}/my-envs/${bundle.target}/files

Domyślnie interfejs wiersza polecenia Databricks używa domyślnej ścieżki file_path, która wykorzystuje ${workspace.root}/files.

Ważne

Nie można określić zmiennych niestandardowych dla tych wartości uwierzytelniania przy użyciu ${var.*} składni.

workspace.profile

Uwaga / Notatka

Usługa Databricks zaleca użycie mapowania host (lub opcji --profile i -p podczas uruchamiania poleceń walidowania, wdrażania, uruchamiania i niszczenia pakietu za pomocą interfejsu wiersza polecenia Databricks) zamiast mapowania profile, ponieważ sprawia to, że pliki konfiguracji pakietu są bardziej przenośne.

Mapowanie profile określa nazwę profilu konfiguracji, który ma być używany do uwierzytelniania w tym obszarze roboczym usługi Azure Databricks. Ten profil konfiguracji odpowiada temu, który został utworzony podczas konfigurowania Databricks CLI.

Typowe obiekty

Git

Type: Map

Definiuje szczegóły kontroli wersji usługi Git. Jest to przydatne w przypadku propagacji metadanych wdrożenia, które mogą być później używane do identyfikowania zasobów. Możesz na przykład śledzić pochodzenie repozytorium zadania wdrożonego przez CI/CD.

Za każdym razem, gdy uruchamiasz bundle polecenie, takie jak validate, deploy lub run, bundle polecenie wypełnia drzewo konfiguracji polecenia następującymi ustawieniami domyślnymi:

Aby pobrać lub zastąpić ustawienia usługi Git, pakiet musi znajdować się w katalogu skojarzonym z repozytorium Git, na przykład katalogiem lokalnym zainicjowanym przez uruchomienie git clone polecenia . Jeśli katalog nie jest skojarzony z repozytorium Git, te ustawienia usługi Git są puste.

Klawisz Typ Opis
branch Struna Bieżąca nazwa gałęzi usługi Git. Jest to ta sama wartość, którą można uzyskać po uruchomieniu polecenia git branch --show-current z sklonowanego repozytorium. Można użyć podstawiania do odwoływania się do tej wartości w plikach konfiguracyjnych pakietu, takich jak ${bundle.git.branch}.
origin_url Struna Adres URL źródła repozytorium. Jest to ta sama wartość, którą można uzyskać po uruchomieniu polecenia git config --get remote.origin.url z sklonowanego repozytorium. Można użyć podstawiania do odwoływania się do tej wartości w plikach konfiguracyjnych pakietu, takich jak ${bundle.git.origin_url}.

Przykłady

W razie potrzeby można zastąpić origin_url ustawienia i branch w git mapowaniu mapowania najwyższego poziomu bundle :

bundle:
  git:
    origin_url: <some-non-default-origin-url>
    branch: <some-non-current-branch-name>