Nuta
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować się zalogować lub zmienić katalog.
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować zmienić katalogi.
Ten artykuł dostarcza odniesienia do kluczy obsługiwanych przez konfigurację pakietów zasobów Databricks (YAML). Zobacz Co to są pakiety zasobów Databricks?.
Aby zapoznać się z kompletnymi przykładami pakietów, zobacz przykłady konfiguracji pakietu i oraz repozytorium na GitHubie bundle-examples.
Artefakty
Type: Map
Określa artefakty do automatycznego kompilowania podczas wdrożeń pakietów, które mogą być używane później w uruchomieniu pakietu. Każdy klucz jest nazwą artefaktu, a wartość jest mapą, która definiuje ustawienia kompilacji artefaktu.
Porada
Ustawienia artefaktów w pakietach można definiować, łączyć i zastępować, jak opisano w Zastępowanie przy użyciu ustawień docelowych.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
artifacts:
<artifact-name>:
<artifact-field-name>: <artifact-field-value>
| Klawisz | Typ | Opis |
|---|---|---|
build |
Struna | Opcjonalny zestaw poleceń kompilacji do uruchamiania lokalnie przed wdrożeniem. W przypadku tworzenia pakietów wheel w języku Python, CLI usługi Databricks zakłada, że może znaleźć lokalnie zainstalowany pakiet Python wheel do uruchamiania kompilacji i domyślnie uruchamia polecenie python setup.py bdist_wheel podczas każdego wdrażania pakietu. Określ wiele poleceń kompilacji w oddzielnych wierszach.Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
dynamic_version |
logiczny | Czy zastosować poprawkę wersji koła dynamicznie na podstawie znacznika czasu pliku whl. Jeśli jest ustawiona wartość true, można wdrożyć nowy kod bez konieczności aktualizowania wersji w setup.py lub pyproject.toml. To ustawienie jest prawidłowe tylko wtedy, gdy type jest ustawione na whl.Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.245.0 |
executable |
Struna | Typ pliku wykonywalnego. Prawidłowe wartości to bash, shi cmd.Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
files |
Kolejność | Względna lub bezwzględna ścieżka do wygenerowanych plików artefaktów. Zobacz artefakty.name.files. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
path |
Struna | Ścieżka lokalna katalogu artefaktu. Ścieżki są zależne od lokalizacji pliku konfiguracji pakietu. W przypadku kompilacji wheel w języku Python jest to ścieżka do pliku setup.py powiązanego z plikiem wheel w Pythonie. Jeśli path jest pominięty, CLI dla Databricks próbuje znaleźć plik wheel setup.py języka Python w katalogu głównym pakietu.Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
type |
Struna | Wymagane, jeśli artefakt jest kołem języka Python. Typ artefaktu. Prawidłowe wartości to whl i jar. To ustawienie nie musi być określone w celu skompilowania innych artefaktów.Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
Przykłady
Poniższa konfiguracja kompiluje koło języka Python przy użyciu poezji:
artifacts:
default:
type: whl
build: poetry build
path: .
Poniższa konfiguracja uruchamia testy i tworzy koło. Aby zapoznać się z kompletnym samouczkiem dotyczącym pakietu, który używa artifacts do budowy koła, zobacz Tworzenie pliku koła języka Python przy użyciu pakietów zasobów usługi Databricks.
artifacts:
default:
type: whl
build: |-
# run tests
python -m pytest tests/ -v
# build the actual artifact
python setup.py bdist_wheel
path: .
Dla przykładowej konfiguracji, która buduje plik JAR i wgrywa go do Unity Catalog, zobacz Pakiet, który wgrywa plik JAR do Unity Catalog.
Artefakty. name.files
Type: Sequence
Względna lub bezwzględna ścieżka do wygenerowanych plików artefaktów. Użyj source polecenia , aby określić utworzone artefakty. Ścieżki są zależne od lokalizacji pliku konfiguracji pakietu.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
| Klawisz | Typ | Opis |
|---|---|---|
source |
Struna | To jest wymagane. Plik źródłowy artefaktu. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
pakiet
Type: Map
Atrybuty pakietu podczas wdrażania na tym docelowym środowisku.
Plik konfiguracji pakietu musi zawierać tylko jedno mapowanie najwyższego poziomu bundle .
To bundle mapowanie musi zawierać name mapowanie określające nazwę programową (lub logiczną) pakietu. Poniższy przykład deklaruje pakiet z nazwą hello-bundleprogramową (lub logiczną).
bundle:
name: hello-bundle
bundle Mapowanie może być również elementem podrzędnym jednego lub więcej obiektów docelowych w mapowaniu najwyższego poziomu obiektów docelowych. Każde z tych mapowań podrzędnych bundle określa wszelkie przesłonięcia inne niż domyślne na poziomie docelowym.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
| Klawisz | Typ | Opis |
|---|---|---|
cluster_id |
Struna | Identyfikator klastra do uruchomienia pakietu. Ten klucz umożliwia określenie identyfikatora klastra do użycia jako przesłonięcia dla klastrów zdefiniowanych gdzie indziej w pliku konfiguracji pakietu. Aby uzyskać informacje na temat pobierania identyfikatora klastra, zobacz Compute resource URL and ID (Adres URL i identyfikator zasobu obliczeniowego). Zastępowanie cluster_id jest przeznaczone wyłącznie do scenariuszy deweloperskich i jest obsługiwane tylko dla obiektu docelowego, który ma mapowanie mode ustawione na wartość development. Aby uzyskać więcej informacji na temat target mapowania, zobacz cele.Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
compute_id |
Struna | Przestarzałe. Identyfikator obliczeniowy używany do uruchamiania pakietu. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
databricks_cli_version |
Struna | Wersja interfejsu wiersza polecenia usługi Databricks do użycia dla pakietu. Zobacz bundle.databricks_cli_version. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
deployment |
Mapa | Definicja wdrożenia pakietu. Aby uzyskać informacje o obsługiwanych atrybutach, zobacz Tryby wdrażania pakietu zasobów usługi Databricks. Zobacz bundle.deployment. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
git |
Mapa | Szczegóły kontroli wersji usługi Git skojarzone z Twoim pakietem. Aby uzyskać informacje o obsługiwanych atrybutach, zobacz git. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
name |
Struna | Nazwa pakietu. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
uuid |
Struna | Zastrzeżony. Uniwersalny unikatowy identyfikator (UUID) dla pakietu, który jednoznacznie identyfikuje pakiet w wewnętrznych systemach usługi Databricks. Jest to generowane, gdy projekt pakietu jest inicjowany przy użyciu szablonu usługi Databricks (przy użyciu polecenia databricks bundle init).Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.236.0 |
bundle.databricks_cli_version
Mapowanie bundle może zawierać databricks_cli_version mapowanie, które określa wersję interfejsu CLI Databricks wymaganą przez pakiet. Może to zapobiec problemom spowodowanym użyciem mapowań, które nie są obsługiwane w określonej wersji interfejsu wiersza polecenia usługi Databricks.
Wersja interfejsu wiersza polecenia usługi Databricks jest zgodna z wersjonowaniem semantycznym, a databricks_cli_version mapowanie obsługuje określanie ograniczeń wersji. Jeśli bieżąca databricks --version wartość nie znajduje się w zakresie określonym w mapowaniu pakietu databricks_cli_version, wystąpi błąd, gdy databricks bundle validate jest wykonywane na pakiecie. W poniższych przykładach pokazano niektóre typowe składnie ograniczeń wersji:
bundle:
name: hello-bundle
databricks_cli_version: '0.218.0' # require Databricks CLI 0.218.0
bundle:
name: hello-bundle
databricks_cli_version: '0.218.*' # allow all patch versions of Databricks CLI 0.218
bundle:
name: my-bundle
databricks_cli_version: '>= 0.218.0' # allow any version of Databricks CLI 0.218.0 or higher
bundle:
name: my-bundle
databricks_cli_version: '>= 0.218.0, <= 1.0.0' # allow any Databricks CLI version between 0.218.0 and 1.0.0, inclusive
bundle.deployment
Type: Map
Definicja wdrożenia pakietu
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
| Klawisz | Typ | Opis |
|---|---|---|
fail_on_active_runs |
logiczny | Czy zakończyć niepowodzeniem aktywne przebiegi. W przypadku ustawienia wartości true wdrożenie, które jest uruchomione, może zostać przerwane. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
lock |
Mapa | Atrybuty blokady wdrożenia. Zobacz bundle.deployment.lock. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
bundle.deployment.lock
Type: Map
Atrybuty blokady wdrożenia.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
| Klawisz | Typ | Opis |
|---|---|---|
enabled |
logiczny | Czy ta blokada jest włączona. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
force |
logiczny | Czy wymusić tę blokadę, jeśli jest włączona. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
eksperymentalny
Type: Map
Definiuje atrybuty dla funkcji eksperymentalnych.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
| Klawisz | Typ | Opis |
|---|---|---|
python |
Mapa | Przestarzałe. Zamiast tego użyj mapowania języka Python najwyższego poziomu. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.238.0 |
python_wheel_wrapper |
logiczny | Czy używać opakowania typu wheel dla języka Python? Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
scripts |
Mapa | Polecenia do uruchomienia. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
skip_artifact_cleanup |
logiczny | Określa, czy pominąć usuwanie .internal folderu w programie workspace.artifact_path. Domyślnie ten folder jest usuwany przed przekazaniem nowych artefaktów kompilacji (takich jak koła języka Python) podczas wdrażania. Ustaw wartość na , aby true zachować istniejące artefakty we wdrożeniach.Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.254.0 |
skip_name_prefix_for_schema |
logiczny | Czy pominąć dodawanie prefiksu (ustawionego w presets.name_prefix lub obliczonego, gdy mode: development) do nazw schematów wykazu aparatu Unity zdefiniowanych w pakiecie.Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.255.0 |
use_legacy_run_as |
logiczny | Czy używać starszego zachowania funkcji run_as. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
zawierać
Type: Sequence
Określa listę wzorców ścieżek, które zawierają pliki konfiguracyjne do uwzględnienia w pakiecie. Te wzorce ścieżek są względne względem położenia pliku konfiguracyjnego, w którym określono wzorce ścieżek.
databricks.ymlOprócz elementu należy użyć include tablicy, aby określić wszystkie pliki konfiguracji do uwzględnienia w pakiecie.
Porada
Aby dołączyć lub wykluczyć inne pliki w pakiecie, użyj funkcji dołączania i wykluczania.
Ta include tablica może być wyświetlana tylko jako mapowanie najwyższego poziomu.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
Poniższa przykładowa konfiguracja obejmuje trzy pliki konfiguracji. Te pliki znajdują się w tym samym folderze co plik konfiguracji pakietu:
include:
- 'bundle.artifacts.yml'
- 'bundle.resources.yml'
- 'bundle.targets.yml'
Poniższa przykładowa konfiguracja obejmuje wszystkie pliki, których nazwy plików rozpoczynają się od bundle i kończą na .yml. Te pliki znajdują się w tym samym folderze co plik konfiguracji pakietu:
include:
- 'bundle*.yml'
uprawnienia
Type: Sequence
Definiuje uprawnienia do zastosowania do zasobów zdefiniowanych w pakiecie, gdzie każdy element w sekwencji jest uprawnieniem dla określonej jednostki. Zobacz Ustawianie uprawnień dla zasobów w pakietach zasobów usługi Databricks.
Dozwolone poziomy uprawnień najwyższego poziomu to CAN_VIEW, CAN_MANAGEi CAN_RUN.
Jeśli chcesz zastosować uprawnienia do określonego zasobu, zobacz Definiowanie uprawnień dla określonego zasobu.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
| Klawisz | Typ | Opis |
|---|---|---|
group_name |
Struna | Nazwa grupy, która ma uprawnienie ustawione na określonym poziomie. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
level |
Struna | Dozwolone uprawnienie dla użytkownika, grupy, głównej jednostki usługi, zdefiniowane dla tego uprawnienia. Prawidłowe wartości tego klucza różnią się w zależności od tego, czy uprawnienia są zdefiniowane na najwyższym poziomie pakietu, czy dla określonego zasobu. Zobacz Ustawianie uprawnień dla zasobów w pakietach zasobów usługi Databricks. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
service_principal_name |
Struna | Nazwa jednostki usługi, która ma uprawnienia ustawione na określonym poziomie. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
user_name |
Struna | Nazwa użytkownika, który ma uprawnienia ustawione na poziomie. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
Przykład
Poniższa przykładowa konfiguracja definiuje poziomy uprawnień dla użytkownika, grupy i jednostki usługi, które są stosowane do wszystkich zasobów zdefiniowanych w resources pakiecie:
permissions:
- level: CAN_VIEW
group_name: test-group
- level: CAN_MANAGE
user_name: someone@example.com
- level: CAN_RUN
service_principal_name: 123456-abcdef
Ustawień
Type: Map
Definiuje domyślne ustawienia wdrożenia pakietu. Aby uzyskać więcej informacji, zobacz Ustawienia wstępne niestandardowe.
O ile nie określono wyjątku dla ustawienia wstępnego, jeśli oba mode ustawienia i presets są ustawione, ustawienia wstępne zastępują zachowanie trybu domyślnego i ustawienia poszczególnych zasobów zastępują ustawienia wstępne.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
| Ustawienie wstępne | Opis |
|---|---|
artifacts_dynamic_version |
Czy dynamicznie aktualizować wersję artefaktów whl podczas wdrażania. Prawidłowe wartości to true lub false. Jeśli ustawienie konfiguracyjne najwyższego poziomu artifacts.dynamic_version jest określone, zastępuje ono to ustawienie wstępne.Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.256.0 |
jobs_max_concurrent_runs |
Maksymalna liczba dozwolonych równoczesnych wykonań zadań. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
name_prefix |
Ciąg prefiksu, który ma być poprzedzony nazwami zasobów. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
pipelines_development |
Określa, czy wdrożenia potoków powinny być zablokowane w trybie programowania. Prawidłowe wartości to true lub false.Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
source_linked_deployment |
Określa, czy zasoby utworzone podczas wdrażania wskazują na pliki źródłowe w obszarze roboczym zamiast na ich kopie w obszarze roboczym. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.236.0 |
tags |
Zestaw tagów key:value, które mają zastosowanie do wszystkich zasobów, które obsługują tagi, w tym zadania i eksperymenty. Pakiety zasobów usługi Databricks nie obsługują tagów dla schema zasobu.Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
trigger_pause_status |
Stan wstrzymania, który ma być stosowany do wszystkich wyzwalaczy i harmonogramów. Prawidłowe wartości to PAUSED lub UNPAUSED.Jeśli mode jest ustawione na development, trigger_pause_status zawsze wynosi PAUSED.Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
pyton
Type: Map
Konfiguruje ładowanie kodu języka Python zdefiniowanego za pomocą pakietu databricks-bundles. Aby uzyskać więcej informacji, zobacz Konfiguracja pakietu w języku Python.
Przeniesiono z experimental interfejsu wiersza polecenia usługi Databricks w wersji 0.275.0
| Klawisz | Typ | Opis |
|---|---|---|
mutators |
Kolejność | Mutatory zawierają listę w pełni kwalifikowanych ścieżek funkcji do funkcji mutatora, takich jak [my_project.mutators:add_default_cluster].Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.238.0 |
resources |
Kolejność | Zasoby zawierają listę w pełni kwalifikowanych ścieżek funkcji do ładowania zasobów zdefiniowanych w kodzie języka Python, takich jak ["my_project.resources:load_resources"]Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.238.0 |
venv_path |
Struna | Ścieżka do środowiska wirtualnego. Jeśli to ustawienie jest włączone, kod języka Python jest wykonywany w tym środowisku. Jeśli to ustawienie jest wyłączone, domyślnie używa interpretera języka Python dostępnego w bieżącej powłoce. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.238.0 |
zasoby
Type: Map
Definiuje zasoby dla pakietu, w którym każdy klucz jest nazwą zasobu, a wartość jest mapą definiującą zasób. Aby uzyskać więcej informacji na temat zasobów obsługiwanych przez pakiety Databricks oraz dokumentacji definicji zasobów, zobacz zasoby pakietów Databricks.
Mapowanie resources może być wyświetlane jako mapowanie najwyższego poziomu lub może być elementem podrzędnym jednego lub większej liczby obiektów docelowych w mapowaniu obiektów docelowych najwyższego poziomu i zawiera zero lub jeden z obsługiwanych typów zasobów. Każde mapowanie typu zasobu zawiera co najmniej jedną pojedynczą deklarację zasobów, która musi mieć unikatową nazwę. Te deklaracje zasobów indywidualnych wykorzystują ładunek żądania operacji tworzenia odpowiedniego obiektu, wyrażony w YAML, do określenia zasobu. Obsługiwane właściwości zasobu to obsługiwane pola odpowiedniego obiektu.
Ładunki żądań operacji tworzenia są udokumentowane w dokumentacji interfejsu API REST usługi Databricks, a polecenie databricks bundle schema wyświetla wszystkie obsługiwane schematy obiektów. Ponadto polecenie databricks bundle validate zwraca ostrzeżenia, jeśli w plikach konfiguracji pakietu znajdują się nieznane właściwości zasobu.
Aby uzyskać więcej informacji na temat zasobów obsługiwanych w pakietach, a także typowych konfiguracji i przykładów, zobacz Zasoby pakietu zasobów usługi Databricks i przykłady konfiguracji pakietu.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
resources:
<resource-type>:
<resource-name>:
<resource-field-name>: <resource-field-value>
| Klawisz | Typ | Opis |
|---|---|---|
alerts |
Mapa | Definicje alertu (wersja 2) dla pakietu, gdzie każdy klucz jest nazwą alertu. Zobacz alert. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.279.0 |
apps |
Mapa | Definicje aplikacji Databricks dla pakietu, gdzie każdy klucz jest nazwą aplikacji. Zobacz aplikację. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.239.0 |
catalogs |
Mapa | Definicje wykazu (wykazu aparatu Unity) dla pakietu, w których każdy klucz jest nazwą wykazu. Zobacz wykazy. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.287.0 |
clusters |
Mapa | Definicje klastra dla pakietu, gdzie każdy klucz jest nazwą klastra. Zobacz klaster. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
dashboards |
Mapa | Definicje pulpitu nawigacyjnego dla pakietu, w których każdy klucz jest nazwą pulpitu nawigacyjnego. Zobacz pulpit nawigacyjny. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.232.0 |
database_catalogs |
Mapa | Definicje wykazu baz danych dla pakietu, w którym każdy klucz jest nazwą wykazu baz danych. Zobacz database_catalog. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.265.0 |
database_instances |
Mapa | Definicje wystąpienia bazy danych dla pakietu, w którym każdy klucz jest nazwą wystąpienia bazy danych. Zobacz database_instance. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.265.0 |
experiments |
Mapa | Definicje eksperymentów dla pakietu, w których każdy klucz jest nazwą eksperymentu. Zobacz eksperyment. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
jobs |
Mapa | Definicje zadań dla pakietu, gdzie każdy klucz jest nazwą zadania. Zobacz zadanie. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
model_serving_endpoints |
Mapa | Model obsługujący definicje punktów końcowych dla pakietu, w którym każdy klucz jest nazwą punktu końcowego obsługującego model. Zobacz model_serving_endpoint. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
models |
Mapa | Definicje modelu dla pakietu, gdzie każdy klucz jest nazwą modelu. Zobacz model (starsza wersja). Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
pipelines |
Mapa | Definicje przepływów pracy dla pakietu, gdzie każdy klucz jest nazwą przepływu pracy. Zobacz potok. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
postgres_branches |
Mapa | Definicje gałęzi Postgres dla pakietu, gdzie każdy klucz jest nazwą gałęzi Lakebase. Zobacz postgres_branch. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.287.0 |
postgres_endpoints |
Mapa | Definicje punktu końcowego bazy danych Postgres dla pakietu, gdzie każdy klucz jest nazwą punktu końcowego obliczeniowego usługi Lakebase. Zobacz postgres_endpoint. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.287.0 |
postgres_projects |
Mapa | Definicje projektu Postgres dla pakietu, w którym każdy klucz jest nazwą projektu Lakebase. Zobacz postgres_project. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.287.0 |
quality_monitors |
Mapa | Definicje monitora jakości dla pakietu, gdzie każdy klucz jest nazwą monitora jakości. Zobacz quality_monitor (Unity Catalog). Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
registered_models |
Mapa | Zarejestrowane definicje modeli dla pakietu, gdzie każdy klucz to nazwa modelu zarejestrowanego w Unity Catalog. Zobacz registered_model (Unity Catalog). Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
schemas |
Mapa | Definicje schematu dla pakietu, gdzie każdy klucz jest nazwą schematu. Zobacz schemat (Unity Catalog). Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
secret_scopes |
Mapa | Definicje zakresów tajnych dla pakietu, gdzie każdy klucz jest nazwą zakresu tajnego. Zobacz secret_scope. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.252.0 |
sql_warehouses |
Mapa | Definicje usługi SQL Warehouse dla pakietu, gdzie każdy klucz jest nazwą magazynu SQL. Zobacz sql_warehouse. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.260.0 |
synced_database_tables |
Mapa | Zsynchronizowane definicje tabeli bazy danych dla pakietu, gdzie każdy klucz jest nazwą tabeli bazy danych. Zobacz synced_database_table. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.266.0 |
volumes |
Mapa | Definicje woluminów dla pakietu, gdzie każdy klucz jest nazwą woluminu. Zobacz wolumin (Unity Catalog). Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.236.0 |
Przykład
Poniższa przykładowa konfiguracja definiuje zasób zadania:
resources:
jobs:
hello-job:
name: hello-job
tasks:
- task_key: hello-task
existing_cluster_id: 1234-567890-abcde123
notebook_task:
notebook_path: ./hello.py
uruchom jako
Type: Map
Tożsamość (user_name lub service_principal_name) używana do uruchamiania przepływów pracy pakietów zasobów usługi Databricks. Zapewnia możliwość oddzielenia tożsamości używanej do wdrożenia zadań pakietowych lub potoków od tożsamości używanej do ich uruchamiania. Zobacz Określ tożsamość przebiegu dla przepływu pracy pakietów zasobów usługi Databricks.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
| Klawisz | Typ | Opis |
|---|---|---|
service_principal_name |
Struna | Identyfikator aplikacji aktywnej jednostki usługi. Ustawienie tego pola wymaga roli servicePrincipal/user.Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
user_name |
Struna | Adres e-mail aktywnego użytkownika obszaru roboczego. Użytkownicy niebędący administratorami mogą ustawić to pole tylko na własną wiadomość e-mail. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
Skrypty
Type: Map
Skrypty, które można uruchomić przy użyciu polecenia bundle run. Każdy nazwany skrypt w scripts mapowaniu zawiera treść z poleceniami. Zobacz Wykonywanie skryptów.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.259.0
scripts:
<script-name>:
<script-field-name>: <script-field-value>
| Klawisz | Typ | Opis |
|---|---|---|
content |
Struna | Polecenia do uruchomienia Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.259.0 |
Przykłady
scripts:
my_script:
content: uv run pytest -m ${bundle.target}
synchroniczny
Type: Map
Pliki i ścieżki plików do uwzględnienia lub wykluczenia w pakiecie.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
| Klawisz | Typ | Opis |
|---|---|---|
exclude |
Kolejność | Lista plików lub folderów do wykluczenia z pakietu. Zobacz dołączanie i wykluczanie. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
include |
Kolejność | Lista plików lub folderów do uwzględnienia w pakiecie. Zobacz dołączanie i wykluczanie. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
paths |
Kolejność | Ścieżki folderów lokalnych, które mogą znajdować się poza głównym katalogiem pakietu, przeznaczone do synchronizacji z obszarem roboczym po wdrożeniu pakietu. Zobacz sync.paths. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
dołączanie i wykluczanie
Mapowania include i exclude w ramach mapowania sync określają listę plików lub folderów do uwzględnienia w ramach wdrożeń pakietów lub ich wykluczania w zależności od następujących reguł:
- Na podstawie dowolnej listy globów plików i ścieżek w pliku
.gitignorew katalogu głównym pakietu, mapowanieincludemoże zawierać listę globów plików, globów ścieżek lub obu, względem katalogu głównego pakietu, aby jawnie dołączyć. - Na podstawie dowolnej listy wzorców plików i ścieżek w pliku
.gitignoreznajdującym się w katalogu głównym pakietu oraz listy wzorców plików i ścieżek w mapowaniuinclude, mapowanieexcludemoże zawierać listę wzorców plików, wzorców ścieżek lub obu elementów, odnoszących się do katalogu głównego pakietu, które mają być jawnie wykluczone.
Wszystkie ścieżki do określonych plików i folderów są powiązane z lokalizacją pliku konfiguracji pakietu, w którym są określone.
Składnia wzorców plików include i wzorców ścieżek exclude jest zgodna ze standardową składnią .gitignore wzorca. Zobacz format wzorca gitignore.
Jeśli na przykład następujący .gitignore plik zawiera następujące wpisy:
.databricks
my_package/dist
Plik konfiguracji pakietu zawiera następujące include mapowanie:
sync:
include:
- my_package/dist/*.whl
Następnie uwzględniane są wszystkie pliki w folderze my_package/dist z rozszerzeniem pliku *.whl. Żadne inne pliki w folderze my_package/dist nie są uwzględniane.
Jeśli jednak plik konfiguracji pakietu zawiera również następujące exclude mapowanie:
sync:
include:
- my_package/dist/*.whl
exclude:
- my_package/dist/delete-me.whl
Następnie wszystkie pliki w folderze my_package/dist z rozszerzeniem *.whlpliku , z wyjątkiem pliku o nazwie delete-me.whl, są uwzględniane. Wszystkie inne pliki w folderze my_package/dist również nie są uwzględniane.
Mapowanie sync można również zadeklarować w targets dla określonego celu. Każde sync mapowanie zadeklarowane w miejscu docelowym jest scalane z wszelkimi deklaracjami mapowania najwyższego poziomu sync. Na przykład, kontynuując nawiązanie do wcześniejszego przykładu, następujące mapowanie na poziomie include łączy się z mapowaniem targets w nadrzędnym mapowaniu include:
targets:
dev:
sync:
include:
- my_package/dist/delete-me.whl
sync.paths
Mapowanie sync może zawierać mapowanie paths, które określa lokalne ścieżki do synchronizacji z obszarem roboczym. Mapowanie paths umożliwia udostępnianie wspólnych plików w pakietach i może służyć do synchronizowania plików znajdujących się poza katalogem głównym pakietu. (Katalog główny pakietu jest lokalizacją pliku databricks.yml). Jest to szczególnie przydatne, gdy masz jedno repozytorium, które hostuje wiele pakietów i chce udostępniać biblioteki, pliki kodu lub konfigurację.
Określone ścieżki muszą być względne w odniesieniu do plików i katalogów zakotwiczonych w folderze, w którym ustawiono mapowanie paths. Jeśli jedna lub więcej wartości ścieżki przechodzi w górę katalogu do przodka katalogu głównego pakietu, ścieżka główna jest dynamicznie ustalana, aby zapewnić, że struktura folderów pozostaje nienaruszona. Jeśli na przykład folder główny pakietu ma nazwę my_bundle, ta konfiguracja w databricks.yml synchronizuje folder common znajdujący się na jednym poziomie powyżej katalogu głównego pakietu oraz sam katalog główny pakietu:
sync:
paths:
- ../common
- .
Wdrożenie tego pakietu powoduje następującą strukturę folderów w obszarze roboczym:
common/
common_file.txt
my_bundle/
databricks.yml
src/
...
Cele
Type: Map
Definiuje konteksty docelowe wdrożenia dla pakietu. Każdy element docelowy to unikatowa kolekcja artefaktów, ustawień obszaru roboczego usługi Azure Databricks, a czasami szczegółów zasobów specyficznych dla elementu docelowego.
Mapowanie targets składa się z co najmniej jednego mapowania docelowego, które musi mieć unikatową nazwę programową (lub logiczną). To mapowanie jest opcjonalne, ale zdecydowanie zalecane.
Ustawienia w targets ramach mapowania mają pierwszeństwo przed ustawieniami określonymi w obszarze roboczym najwyższego poziomu, artefaktami i mapowaniami zasobów .
Obiekt docelowy może również zastąpić wartości dowolnych zmiennych najwyższego poziomu.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
targets:
<target-name>:
<target-field-name>: <target-field-value>
| Klawisz | Typ | Opis |
|---|---|---|
artifacts |
Mapa | Artefakty do uwzględnienia w wdrożeniu docelowym. Zobacz artefakty. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
bundle |
Mapa | Atrybuty pakietu podczas wdrażania na tym docelowym środowisku. Zobacz pakiet. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
cluster_id |
Struna | Identyfikator klastra do użycia dla tego obiektu docelowego. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
compute_id |
Struna | Przestarzałe. Identyfikator zasobu obliczeniowego do użycia dla tego obiektu docelowego. |
default |
logiczny | Czy ten element jest domyślnym obiektem docelowym? Zobacz cele.name.default. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
git |
Mapa | Ustawienia kontroli wersji usługi Git dla miejsca docelowego. Zobacz git. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
mode |
Struna | Tryb wdrażania dla obiektu docelowego. Prawidłowe wartości to development lub production. Zobacz cele.name.mode i Tryby wdrażania pakietu zasobów usługi Databricks.Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
permissions |
Kolejność | Uprawnienia do wdrażania i uruchamiania pakietu w obiekcie docelowym. Zobacz uprawnienia. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
presets |
Mapa | Ustawienia wstępne wdrożenia dla obiektu docelowego. Zobacz docelowe.name.presets. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
resources |
Mapa | Definicje zasobów dla obiektu docelowego. Zobacz zasoby. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
run_as |
Mapa | Tożsamość używana do uruchamiania pakietu. Zobacz run_as i Określ tożsamość przebiegu dla przepływu pracy pakietów zasobów usługi Databricks. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
sync |
Mapa | Lokalne ścieżki do synchronizacji z docelową przestrzenią roboczą podczas uruchamiania lub wdrażania pakietu. Zobacz sync. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
variables |
Mapa | Definicje zmiennych niestandardowych dla obiektu docelowego. Zobacz zmienne. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
workspace |
Mapa | Obszar roboczy usługi Databricks dla obiektu docelowego. Zobacz obszar roboczy. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
Cele. name.default
Aby określić domyślną wartość docelową dla poleceń pakietu, ustaw mapowanie default na wartość true. Na przykład ten obiekt docelowy o nazwie dev jest domyślnym obiektem docelowym:
targets:
dev:
default: true
Jeśli domyślny cel nie jest skonfigurowany lub chcesz zweryfikować, wdrożyć i uruchomić zadania lub potoki w określonym celu, użyj -t opcji poleceń pakietu.
Następujące polecenia weryfikują, wdrażają i uruchamiają my_job w obiektach dev i prod docelowych.
databricks bundle validate
databricks bundle deploy -t dev
databricks bundle run -t dev my_job
databricks bundle validate
databricks bundle deploy -t prod
databricks bundle run -t prod my_job
W poniższym przykładzie zadeklarowane są dwa cele. Pierwszy element docelowy ma nazwę dev i jest domyślnym elementem docelowym używanym, gdy dla poleceń pakietu nie określono żadnego elementu docelowego. Drugi element docelowy ma nazwę prod i jest używany tylko wtedy, gdy ten element docelowy jest określony dla poleceń pakietu.
targets:
dev:
default: true
prod:
workspace:
host: https://<production-workspace-url>
Cele. name.mode
Aby ułatwić rozwój i stosowanie najlepszych praktyk CI/CD, pakiety zasobów Databricks oferują tryby wdrażania dla celów, które określają domyślne zachowania dla przepływów pracy przedprodukcyjnej i produkcyjnej. Niektóre zachowania można również konfigurować przy użyciu obiektów docelowych.name.presets.
Aby uzyskać szczegółowe informacje, zobacz Tryby wdrażania pakietu zasobów usługi Databricks.
Porada
Aby ustawić identyfikatory uruchomienia dla pakietów, można określić run_as dla każdego celu, zgodnie z opisem w temacie Określanie identyfikatora uruchomienia dla przepływu pracy pakietów zasobów Databricks.
Aby określić, że element docelowy jest traktowany jako cel rozwoju, dodaj mapowanie mode ustawione na development. Aby określić, że element docelowy jest traktowany jako cel produkcyjny, dodaj mapowanie mode ustawione na production. Na przykład, ten obiekt docelowy o nazwie prod jest traktowany jako cel produkcyjny:
targets:
prod:
mode: production
Cele. name.presets
Niektóre zachowania wdrożenia mode docelowego można dostosować przy użyciu presets mapowania.
Aby uzyskać listę dostępnych ustawień wstępnych, zobacz Niestandardowe ustawienia wstępne.
W poniższym przykładzie przedstawiono dostosowany cel produkcji, dodający prefiksy i tagujący wszystkie zasoby produkcyjne:
targets:
prod:
mode: production
presets:
name_prefix: 'production_' # prefix all resource names with production_
tags:
prod: true
Zmiennych
Type: Map
Definiuje zmienną niestandardową dla pakietu. Dla każdej zmiennej ustaw opcjonalny opis, wartość domyślną, czy zmienna niestandardowa jest typem złożonym, lub wyszukiwanie w celu pobrania wartości identyfikatora, przy użyciu następującego formatu:
variables:
<variable-name>:
description: <variable-description>
default: <optional-default-value>
type: <optional-type-value> # "complex" is the only valid value
lookup:
<optional-object-type>: <optional-object-name>
Uwaga / Notatka
Przyjmuje się, że zmienne mają być typu string, chyba że type jest ustawiona na wartość complex. Zobacz Definiowanie zmiennej złożonej.
Aby odnieść się do zmiennej niestandardowej w ramach konfiguracji pakietu, użyj zamiennika ${var.<variable_name>}.
Aby uzyskać więcej informacji na temat niestandardowych zmiennych i podstawień, zapoznaj się z Podstawianiem i zmiennymi w pakietach zasobów Databricks.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
| Klawisz | Typ | Opis |
|---|---|---|
default |
Jakikolwiek | Wartość domyślna zmiennej. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
description |
Struna | Opis zmiennej. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
lookup |
Mapa | Nazwa alert, cluster_policy, cluster, dashboard, instance_pool, job, metastore, pipeline, query, service_principallub obiektu warehouse, dla którego ma pobrać identyfikator. Zobacz zmienne.name.lookup.Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
type |
Struna | Typ zmiennej, prostej lub złożonej. Ustaw ten klucz tylko wtedy, gdy zmienna jest złożona. Prawidłowe wartości: complex.Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
Zmiennych. name.lookup
Type: Map
Nazwa alertu, polityki klastra, klastra, pulpitu nawigacyjnego, instance_pool, zadania, magazynu metadanych, potoku, zapytania, głównego serwisu lub obiektu magazynu, dla którego należy pobrać identyfikator. Aby uzyskać informacje o korzystaniu z wyszukiwania, zobacz Pobieranie wartości identyfikatora obiektu.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
| Klawisz | Typ | Opis |
|---|---|---|
alert |
Struna | Nazwa alertu, dla którego ma być pobrany identyfikator. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
cluster |
Struna | Nazwa klastra, dla którego ma być pobierany identyfikator. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
cluster_policy |
Struna | Nazwa cluster_policy, dla której ma zostać pobrane ID. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
dashboard |
Struna | Nazwa pulpitu nawigacyjnego, dla którego ma być pobierany identyfikator. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
instance_pool |
Struna | Nazwa instance_pool, dla której ma być pobierany identyfikator. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
job |
Struna | Nazwa zadania, dla którego ma być pobierany identyfikator. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
metastore |
Struna | Nazwa magazynu metadanych, dla którego ma być pobierany identyfikator. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
notification_destination |
Struna | Nazwa celu powiadomienia, dla którego należy pobrać identyfikator. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.236.0 |
pipeline |
Struna | Nazwa potoku, dla którego ma być pobierany identyfikator. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
query |
Struna | Nazwa zapytania, dla którego ma być pobrany identyfikator. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
service_principal |
Struna | Nazwa głównego obiektu usługi, dla którego należy uzyskać identyfikator. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
warehouse |
Struna | Nazwa magazynu, dla którego ma być pobierany identyfikator. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
obszar roboczy
Type: Map
Definiuje obszar roboczy usługi Databricks dla pakietu. Plik konfiguracji pakietu może zawierać tylko jedno mapowanie najwyższego poziomu workspace, aby określić wszelkie niestandardowe ustawienia obszaru roboczego usługi Azure Databricks do użycia.
Ważne
Prawidłowe ścieżki obszaru roboczego usługi Databricks rozpoczynają się od /Workspace, a dla artefaktów również obsługiwane jest /Volumes. Niestandardowe ścieżki obszaru roboczego są automatycznie poprzedzone prefiksem /Workspace, więc jeśli używasz podstawiania ścieżki obszaru roboczego w swojej niestandardowej ścieżce, takiej jak ${workspace.file_path}, nie musisz dodawać /Workspace na początku ścieżki.
Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0
| Klawisz | Typ | Opis |
|---|---|---|
artifact_path |
Struna | Ścieżka artefaktu do użycia w obszarze roboczym zarówno dla wdrożeń, jak i przebiegów przepływu pracy Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
auth_type |
Struna | Typ uwierzytelniania do użycia, szczególnie ważny w przypadkach, gdy interfejs wiersza polecenia usługi Databricks wnioskowa nieoczekiwany typ uwierzytelniania. Zobacz Autoryzowanie dostępu do zasobów usługi Azure Databricks. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
azure_client_id |
Struna | Identyfikator klienta platformy Azure. Zobacz Uwierzytelnianie obszaru roboczego. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
azure_environment |
Struna | Środowisko platformy Azure. Zobacz Uwierzytelnianie obszaru roboczego. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
azure_login_app_id |
Struna | Identyfikator aplikacji logowania platformy Azure. Zobacz Uwierzytelnianie obszaru roboczego. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
azure_tenant_id |
Struna | Identyfikator dzierżawcy platformy Azure. Zobacz Uwierzytelnianie obszaru roboczego. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
azure_use_msi |
logiczny | Czy używać tożsamości usługi zarządzanej dla platformy Azure. Zobacz Uwierzytelnianie obszaru roboczego. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
azure_workspace_resource_id |
Struna | Identyfikator zasobu obszaru roboczego platformy Azure. Zobacz Uwierzytelnianie obszaru roboczego. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
client_id |
Struna | Identyfikator klienta dla obszaru roboczego. Zobacz Uwierzytelnianie obszaru roboczego. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
file_path |
Struna | Ścieżka pliku do użycia w obszarze roboczym zarówno dla wdrożeń, jak i przebiegów przepływu pracy. Zobacz workspace.file_path. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
google_service_account |
Struna | Nazwa konta usługi Google. Zobacz Uwierzytelnianie obszaru roboczego. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
host |
Struna | Adres URL hosta obszaru roboczego usługi Databricks. Zobacz Nazwy wystąpień obszaru roboczego, adresy URL i identyfikatory. Ustawienie mapowania powoduje, że Interfejs wiersza polecenia (CLI) usługi Databricks znajduje pasujący profil w pliku host, a następnie używa pól tego profilu do określenia, który typ uwierzytelniania usługi Databricks użyć. Jeśli w pliku istnieje .databrickscfg wiele profilów z pasującym host polem, musisz użyć profile mapowania (lub --profile-p opcji wiersza polecenia), aby określić profil.Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
profile |
Struna | Nazwa profilu obszaru roboczego usługi Databricks. Zobacz workspace.profile. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
resource_path |
Struna | Ścieżka zasobu obszaru roboczego Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.230.0 |
root_path |
Struna | Ścieżka główna obszaru roboczego usługi Databricks. Zobacz workspace.root_path. Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
state_path |
Struna | Ścieżka stanu obszaru roboczego. Ten klucz domyślnie określa domyślną ścieżkę ${workspace.root}/state i reprezentuje ścieżkę w obszarze roboczym, aby przechowywać informacje o stanie programu Terraform dotyczące wdrożeń.Dodano interfejs wiersza polecenia usługi Databricks w wersji 0.229.0 |
Uwierzytelnianie obszaru roboczego
Mapowanie obszaru roboczego może również zawierać mapowania, aby określić mechanizm uwierzytelniania usługi Databricks do użycia. Jeśli nie są one określone w ramach mapowania obszaru roboczego najwyższego poziomu, muszą być określone w mapowaniu obszaru roboczego jako element podrzędny co najmniej jednego miejsca docelowego w mapowaniu obiektów docelowych najwyższego poziomu.
W przypadku uwierzytelniania maszyny-maszyny (M2M) protokołu OAuth jest używane mapowanie
client_id. Alternatywnie można ustawić tę wartość w lokalnej zmiennej środowiskowejDATABRICKS_CLIENT_ID. Możesz też utworzyć profil konfiguracji z wartościąclient_id, a następnie określić nazwę profilu z mapowaniemprofile(lub za pomocą opcji--profilelub-ppodczas uruchamiania poleceń bundle validate, deploy, run i destroy za pomocą interfejsu wiersza polecenia Databricks). Zobacz Autoryzowanie dostępu jednostki usługi do usługi Azure Databricks przy użyciu protokołu OAuth.Uwaga / Notatka
Nie można określić tajnej wartości OAuth usługi Azure Databricks w pliku konfiguracji pakietu. Zamiast tego ustaw lokalną zmienną środowiskową
DATABRICKS_CLIENT_SECRET. Możesz też dodać wartośćclient_secretdo profilu konfiguracji, a następnie określić nazwę profilu przy użyciu mapowaniaprofile(lub używając opcji--profilelub-ppodczas uruchamiania poleceń validate, deploy, run i destroy w interfejsie wiersza polecenia Databricks CLI).W przypadku uwierzytelniania za pomocą Azure CLI używa się mapowania
azure_workspace_resource_id. Alternatywnie można ustawić tę wartość w lokalnej zmiennej środowiskowejDATABRICKS_AZURE_RESOURCE_ID. Możesz też utworzyć profil konfiguracji z wartościąazure_workspace_resource_id, a następnie określić nazwę profilu z mapowaniemprofile(lub za pomocą opcji--profilelub-ppodczas uruchamiania poleceń bundle validate, deploy, run i destroy za pomocą interfejsu wiersza polecenia Databricks). Zobacz Uwierzytelnianie przy użyciu interfejsu wiersza polecenia platformy Azure.W przypadku uwierzytelniania sekretów klienta Azure za pomocą zasad usługi używane są mapowania
azure_workspace_resource_id,azure_tenant_id, iazure_client_id. Alternatywnie można ustawić te wartości w lokalnych zmiennych środowiskowychDATABRICKS_AZURE_RESOURCE_ID,ARM_TENANT_IDiARM_CLIENT_ID, odpowiednio. Możesz też utworzyć profil konfiguracji z wartościamiazure_workspace_resource_id,azure_tenant_idiazure_client_id, a następnie określić nazwę profilu za pomocą mapowaniaprofile(lub przy użyciu opcji--profilelub-ppodczas uruchamiania pakietu przy użyciu poleceń validate, deploy, run i destroy za pomocą Databricks CLI). Zobacz Uwierzytelnianie za pomocą jednostek usługi Microsoft Entra.Uwaga / Notatka
Nie można określić wartości tajnego klienta Azure w pliku konfiguracji pakietu. Zamiast tego ustaw lokalną zmienną środowiskową
ARM_CLIENT_SECRET. Możesz też dodać wartośćazure_client_secretdo profilu konfiguracji, a następnie określić nazwę profilu przy użyciu mapowaniaprofile(lub używając opcji--profilelub-ppodczas uruchamiania poleceń validate, deploy, run i destroy w interfejsie wiersza polecenia Databricks CLI).W przypadku uwierzytelniania tożsamości zarządzanych platformy Azure używane są mapowania
azure_use_msi,azure_client_id, iazure_workspace_resource_id. Alternatywnie można ustawić te wartości w lokalnych zmiennych środowiskowychARM_USE_MSI,ARM_CLIENT_IDiDATABRICKS_AZURE_RESOURCE_ID, odpowiednio. Możesz też utworzyć profil konfiguracji z wartościamiazure_use_msi,azure_client_idiazure_workspace_resource_id, a następnie określić nazwę profilu za pomocą mapowaniaprofile(lub przy użyciu opcji--profilelub-ppodczas uruchamiania pakietu przy użyciu poleceń validate, deploy, run i destroy za pomocą Databricks CLI). Zobacz Uwierzytelnianie przy użyciu tożsamości zarządzanych platformy Azure.Mapowanie
azure_environmentokreśla typ środowiska platformy Azure (na przykład Publiczny, UsGov, Chiny i Niemcy) dla określonego zestawu punktów końcowych interfejsu API. Domyślna wartość toPUBLIC. Alternatywnie można ustawić tę wartość w lokalnej zmiennej środowiskowejARM_ENVIRONMENT. Możesz też dodać wartośćazure_environmentdo profilu konfiguracji, a następnie określić nazwę profilu przy użyciu mapowaniaprofile(lub używając opcji--profilelub-ppodczas uruchamiania poleceń validate, deploy, run i destroy w interfejsie wiersza polecenia Databricks CLI).Mapowanie
azure_login_app_idnie działa i jest zarezerwowane do użytku wewnętrznego.
workspace.root_path
To mapowanie workspace może zawierać dodatkowe mapowanie root_path, aby określić nie-domyślną ścieżkę główną do zastosowania w obszarze roboczym zarówno dla wdrożeń, jak i przebiegów pracy, na przykład:
workspace:
root_path: /Workspace/Users/${workspace.current_user.userName}/.bundle/${bundle.name}/my-envs/${bundle.target}
Domyślnie interfejs wiersza polecenia Databricks używa domyślnej ścieżki root_path, która wykorzystuje /Workspace/Users/${workspace.current_user.userName}/.bundle/${bundle.name}/${bundle.target}.
workspace.artifact_path
To mapowanie workspace może również zawierać mapowanie artifact_path określające niestandardową ścieżkę artefaktu do użycia w obszarze roboczym zarówno dla wdrożeń, jak i procesów przepływu pracy, na przykład:
workspace:
artifact_path: /Workspace/Users/${workspace.current_user.userName}/.bundle/${bundle.name}/my-envs/${bundle.target}/artifacts
Domyślnie interfejs wiersza polecenia Databricks używa domyślnej ścieżki artifact_path, która wykorzystuje ${workspace.root}/artifacts.
Uwaga / Notatka
Mapowanie artifact_path nie obsługuje ścieżek systemu plików Databricks (DBFS).
workspace.file_path
To mapowanie workspace może również zawierać mapowanie file_path w celu określenia nie-domyślnej ścieżki pliku do użycia w obszarze roboczym dla wdrożeń i przebiegów przepływu pracy, na przykład:
workspace:
file_path: /Workspace/Users/${workspace.current_user.userName}/.bundle/${bundle.name}/my-envs/${bundle.target}/files
Domyślnie interfejs wiersza polecenia Databricks używa domyślnej ścieżki file_path, która wykorzystuje ${workspace.root}/files.
Ważne
Nie można określić zmiennych niestandardowych dla tych wartości uwierzytelniania przy użyciu ${var.*} składni.
workspace.profile
Uwaga / Notatka
Usługa Databricks zaleca użycie mapowania host (lub opcji --profile i -p podczas uruchamiania poleceń walidowania, wdrażania, uruchamiania i niszczenia pakietu za pomocą interfejsu wiersza polecenia Databricks) zamiast mapowania profile, ponieważ sprawia to, że pliki konfiguracji pakietu są bardziej przenośne.
Mapowanie profile określa nazwę profilu konfiguracji, który ma być używany do uwierzytelniania w tym obszarze roboczym usługi Azure Databricks. Ten profil konfiguracji odpowiada temu, który został utworzony podczas konfigurowania Databricks CLI.
Typowe obiekty
Git
Type: Map
Definiuje szczegóły kontroli wersji usługi Git. Jest to przydatne w przypadku propagacji metadanych wdrożenia, które mogą być później używane do identyfikowania zasobów. Możesz na przykład śledzić pochodzenie repozytorium zadania wdrożonego przez CI/CD.
Za każdym razem, gdy uruchamiasz bundle polecenie, takie jak validate, deploy lub run, bundle polecenie wypełnia drzewo konfiguracji polecenia następującymi ustawieniami domyślnymi:
Aby pobrać lub zastąpić ustawienia usługi Git, pakiet musi znajdować się w katalogu skojarzonym z repozytorium Git, na przykład katalogiem lokalnym zainicjowanym przez uruchomienie git clone polecenia . Jeśli katalog nie jest skojarzony z repozytorium Git, te ustawienia usługi Git są puste.
| Klawisz | Typ | Opis |
|---|---|---|
branch |
Struna | Bieżąca nazwa gałęzi usługi Git. Jest to ta sama wartość, którą można uzyskać po uruchomieniu polecenia git branch --show-current z sklonowanego repozytorium. Można użyć podstawiania do odwoływania się do tej wartości w plikach konfiguracyjnych pakietu, takich jak ${bundle.git.branch}. |
origin_url |
Struna | Adres URL źródła repozytorium. Jest to ta sama wartość, którą można uzyskać po uruchomieniu polecenia git config --get remote.origin.url z sklonowanego repozytorium. Można użyć podstawiania do odwoływania się do tej wartości w plikach konfiguracyjnych pakietu, takich jak ${bundle.git.origin_url}. |
Przykłady
W razie potrzeby można zastąpić origin_url ustawienia i branch w git mapowaniu mapowania najwyższego poziomu bundle :
bundle:
git:
origin_url: <some-non-default-origin-url>
branch: <some-non-current-branch-name>