Poznámka:
Přístup k této stránce vyžaduje autorizaci. Můžete se zkusit přihlásit nebo změnit adresáře.
Přístup k této stránce vyžaduje autorizaci. Můžete zkusit změnit adresáře.
Note
Tyto informace platí pro Databricks CLI verze 0.205 a vyšší. Rozhraní příkazového řádku Databricks je ve veřejné ukázce.
Použití rozhraní příkazového řádku Databricks podléhá licenci Databricks a oznámení o ochraně osobních údajů Databricks, včetně všech ustanovení o využití.
Skupina bundle příkazů v rozhraní příkazového řádku Databricks obsahuje příkazy pro správu sad prostředků Databricks. Sady prostředků Databricks umožňují vyjádřit projekty jako kód a programově ověřovat, nasazovat a spouštět pracovní postupy Azure Databricks, jako jsou úlohy Azure Databricks, deklarativní kanály Sparku Lakeflow a zásobníky MLOps . Podívejte se na vysvětlení, co jsou balíčky prostředků Databricks.
Note
Příkazy balíčku používají nastavení databricks.yml pro ověřování, když jsou spuštěny ze složky balíčku. Pokud chcete spouštět příkazy balíčku s jiným ověřováním ve složce balíčku, zadejte konfigurační profil pomocí příznaku --profile (nebo -p) a nezadávejte --target.
Případně spusťte příkazy mimo složku balíčku, které nepotřebují stejné ověřování jako balíček.
Nasazení sady databricks
Nasaďte sadu do vzdáleného pracovního prostoru.
databricks bundle deploy [flags]
Cíl balíčku a identita
Pokud chcete sadu nasadit do konkrétního cíle, nastavte -t možnost (nebo --target) společně s názvem cíle deklarovaným v konfiguračních souborech sady. Pokud nejsou zadány žádné možnosti příkazu, použije se výchozí cíl deklarovaný v konfiguračních souborech sady. Například pro cíl deklarovaný s názvem dev:
databricks bundle deploy -t dev
Sadu je možné nasadit do několika pracovních prostorů, jako je vývoj, příprava a produkční pracovní prostory. V zásadě, vlastnost root_path určuje jedinečnou identitu balíčku, která má výchozí hodnotu ~/.bundle/${bundle.name}/${bundle.target}. Ve výchozím nastavení se proto identita sady skládá z identity deployeru, názvu sady a cílového názvu sady. Pokud jsou stejné napříč různými sadami, nasazení těchto sad bude vzájemně kolidovat.
Nasazení sady navíc sleduje prostředky, které vytvoří v cílovém pracovním prostoru, podle jejich ID jako stavu, který je uložen v systému souborů pracovního prostoru. Názvy prostředků se nepoužívají ke korelaci mezi nasazením sady prostředků a instancí prostředků, takže:
- V případě, že prostředek v konfiguraci balíčku neexistuje v cílovém pracovním prostoru, je vytvořen.
- Pokud prostředek v konfiguraci sady existuje v cílovém pracovním prostoru, aktualizuje se v pracovním prostoru.
- Pokud se prostředek odebere z konfigurace sady prostředků, odebere se z cílového pracovního prostoru, pokud byl dříve nasazený.
- Přidružení prostředku k sadě je možné zapomenout pouze v případě, že změníte název sady, cíl sady nebo pracovní prostor. Pomocí spuštění
bundle validatemůžete vytvořit souhrn obsahující tyto hodnoty.
Možnosti
--auto-approve
Přeskočte interaktivní schválení, která můžou být nutná pro nasazení.
-c, --cluster-id string
Přepište cluster v nasazení s daným ID clusteru.
--fail-on-active-runs
Selhání, pokud jsou v nasazení spuštěné úlohy nebo kanály.
--force
Vynucené přepsání ověření větve Git
--force-lock
Vynucení získání zámku nasazení
Příklady
Následující příklad nasadí sadu s použitím konkrétního ID clusteru:
databricks bundle deploy --cluster-id 0123-456789-abcdef
Nasazení sady databricks
Příkazy související s nasazením
databricks bundle deployment [command]
Dostupné příkazy
-
bind– Vytvoření vazby prostředku definovaného sadou k existujícímu prostředku ve vzdáleném pracovním prostoru. -
migrate– Migrujte balíček tak, aby využíval přímý nasazovací systém. -
unbind– Zrušení vazby prostředku definovaného sadou ze vzdáleného prostředku
Vazba nasazení sady databricks
Propojte prostředky definované sadou prostředků s existujícími prostředky v pracovním prostoru Azure Databricks, aby se staly spravovanými sadami prostředků Databricks. Pokud svážete prostředek, stávající prostředek Azure Databricks v pracovním prostoru se aktualizuje podle konfigurace definované v balíčku, ke kterému je vázán, po dalším bundle deploy.
databricks bundle deployment bind KEY RESOURCE_ID [flags]
Vazba znovu nevytváří data. Pokud například byl použit kanál s daty v katalogu, můžete ho nasadit bez ztráty existujících dat. Kromě toho nemusíte například přepočítat materializované zobrazení, takže se kanály nemusí znovu spouštět.
Příkaz bind by měl být použit s příznakem --target . Vytvořte například spojení mezi produkčním nasazením a produkčním kanálem pomocí databricks bundle deployment bind --target prod my_pipeline 7668611149d5709ac9-2906-1229-9956-586a9zed8929.
Tip
Před spuštěním vazby je vhodné ověřit prostředek v pracovním prostoru.
Funkce 'Vazba' je podporována pro následující zdroje:
- app
- cluster
- dashboard
- job
- model_serving_endpoint
- pipeline
- quality_monitor
- registered_model
- schema
- volume
U prostředků podporovaných příkazem bundle generate automaticky svázat prostředek po jeho generování pomocí této možnosti --bind.
Argumenty
KEY
Klíč prostředku pro vytvoření vazby
RESOURCE_ID
ID existujícího prostředku, ke které se má vytvořit vazba
Možnosti
--auto-approve
Automaticky schválit vazbu místo výzvy
--force-lock
Vynucení získání zámku nasazení
Příklady
Příkaz přiřazuje prostředek hello_job jeho vzdálenému protějšku na pracovní ploše. Příkaz vypíše rozdíl a umožňuje odepřít vazbu prostředků, ale pokud je potvrzeno, všechny aktualizace definice úlohy v balíčku se použijí na odpovídající vzdálenou úlohu při dalším nasazení balíčku.
databricks bundle deployment bind hello_job 6565621249
Migrace nasazení sady databricks
Important
Tato funkce je experimentální.
Migrujte balíček z nasazovacího modulu Terraform na přímý nasazovací modul. Viz Migrace do přímého modulu nasazení. K dokončení migrace je nutné sadu nasadit.
Spuštěním příkazu databricks bundle planmůžete ověřit, že migrace proběhla úspěšně. Podívejte se na plán balíčku Databricks.
databricks bundle deployment migrate [flags]
Argumenty
None
Možnosti
Příklady
Následující příklad migruje aktuální balíček pro použití modulu přímého nasazení:
databricks bundle deployment migrate
Zrušení vazby nasazení sady databricks
Odeberte propojení mezi prostředkem v sadě a jeho vzdáleným protějškem v pracovním prostoru.
databricks bundle deployment unbind KEY [flags]
Argumenty
KEY
Klíč prostředku k zrušení vazby
Možnosti
--force-lock
Vynucení získání zámku nasazení
Příklady
Následující příklad zruší vazbu hello_job prostředku:
databricks bundle deployment unbind hello_job
Zničení sady databricks
Warning
Zničení sady trvale vymaže dříve nasazené úlohy, pipeline a artefakty v rámci sady. Tuto akci nejde vrátit zpátky.
Odstraňte úlohy, kanály, další prostředky a artefakty, které byly dříve nasazeny.
databricks bundle destroy [flags]
Note
Identita sady se skládá z názvu sady, cíle sady a pracovního prostoru. Pokud jste některou z těchto možností změnili a pokusíte se před nasazením zničit sadu, dojde k chybě.
Ve výchozím nastavení budete vyzváni k potvrzení trvalého odstranění dříve nasazených úloh, potrubí a artefaktů. Pokud chcete tyto výzvy přeskočit a provést automatické trvalé odstranění, přidejte --auto-approve do bundle destroy příkazu možnost.
Možnosti
--auto-approve
Přeskočení interaktivních schválení pro odstraňování prostředků a souborů
--force-lock
Vynucení získání zámku nasazení
Příklady
Následující příkaz odstraní všechny dříve nasazené prostředky a artefakty definované v konfiguračních souborech sady:
databricks bundle destroy
Vygenerování sady databricks
Vygenerujte konfiguraci sady prostředků, které už v pracovním prostoru Databricks existují. Podporují se následující zdroje informací: aplikace, řídicí panel, úloha, kanál.
Ve výchozím nastavení tento příkaz vygeneruje *.yml soubor pro prostředek ve resources složce projektu balíčku a stáhne také všechny soubory, jako jsou poznámkové bloky, které jsou zmíněny v konfiguraci.
Important
Tento bundle generate příkaz je poskytován pro snadné automatické generování konfigurace prostředků. Pokud ale vaše sada obsahuje konfiguraci prostředků a nasadíte ji, Azure Databricks vytvoří nový prostředek místo aktualizace existujícího prostředku. Pokud chcete místo toho aktualizovat stávající prostředek, musíte buď použít příznak --bind s bundle generate, nebo spustit bundle deployment bind před nasazením. Podívejte se na vazbu nasazení sady databricks.
databricks bundle generate [command]
Dostupné příkazy
-
app– Vygenerujte konfiguraci sady pro aplikaci Databricks. -
dashboard– Vygenerujte konfiguraci pro řídicí panel. -
job– Vygenerujte konfiguraci sady pro úlohu. -
pipeline– Vygenerujte konfiguraci sady pro kanál.
Možnosti
--key string
Klíč prostředku, který se má použít pro vygenerovanou konfiguraci
Vygenerování aplikace v sadě databricks
Vygenerujte konfiguraci sady pro existující aplikaci Databricks v pracovním prostoru.
databricks bundle generate app [flags]
Možnosti
--bind
Automaticky svázat vytvořený prostředek s existujícím prostředkem v pracovním prostoru.
-d, --config-dir string
Cesta k adresáři, kde se uloží konfigurace výstupní sady prostředků (výchozí prostředky)
--existing-app-name string
Název aplikace pro vygenerování konfigurace pro
-f, --force
Vynucení přepsání existujících souborů ve výstupním adresáři
-s, --source-dir string
Cesta k adresáři, kde se budou ukládat soubory aplikace (výchozí "src/app")
Příklady
Následující příklad vygeneruje konfiguraci pro existující aplikaci s názvem my-app. Název aplikace můžete získat z karty Compute>Apps v rozhraní pracovního prostoru.
databricks bundle generate app --existing-app-name my-app
Následující příkaz vygeneruje nový hello_world.app.yml soubor ve resources složce projektu sady a stáhne soubory kódu aplikace, jako je konfigurační soubor app.yaml příkazu aplikace a hlavní app.py. Ve výchozím nastavení se soubory kódu zkopírují do složky sady src .
databricks bundle generate app --existing-app-name "hello_world"
# This is the contents of the resulting /resources/hello-world.app.yml file.
resources:
apps:
hello_world:
name: hello-world
description: A basic starter application.
source_code_path: ../src/app
Vygenerování řídicího panelu v sadě databricks
Vygenerujte konfiguraci existujícího řídicího panelu v pracovním prostoru.
databricks bundle generate dashboard [flags]
Tip
Pokud chcete po nasazení řídicího panelu aktualizovat .lvdash.json soubor, použijte možnost --resource při spuštění bundle generate dashboard, abyste vygenerovali tento soubor pro existující prostředek řídicího panelu. Pokud chcete průběžně dotazovat a načítat aktualizace řídicího panelu, použijte možnosti --force a --watch.
Možnosti
--bind
Automaticky svázat vytvořený prostředek s existujícím prostředkem v pracovním prostoru.
-s, --dashboard-dir string
Adresář pro zápis reprezentace řídicího panelu do (výchozí "src")
--existing-id string
ID řídicího panelu pro vygenerování konfigurace pro
--existing-path string
Cesta pracovního prostoru řídicího panelu ke generování konfigurace pro
-f, --force
Vynucení přepsání existujících souborů ve výstupním adresáři
--resource string
Klíč prostředku řídicího panelu pro sledování změn
-d, --resource-dir string
Adresář pro zápis konfigurace do (výchozích "prostředků")
--watch
Sledujte změny řídicího panelu a aktualizujte konfiguraci.
Příklady
Následující příklad vygeneruje konfiguraci existujícím ID řídicího panelu:
databricks bundle generate dashboard --existing-id abc123
Konfiguraci existujícího řídicího panelu můžete také vygenerovat podle cesty pracovního prostoru. Zkopírujte cestu pracovního prostoru pro řídicí panel z uživatelského rozhraní pracovního prostoru.
Například následující příkaz vygeneruje nový baby_gender_by_county.dashboard.yml soubor ve resources složce projektu sady obsahující níže uvedený YAML a stáhne baby_gender_by_county.lvdash.json soubor do src složky projektu.
databricks bundle generate dashboard --existing-path "/Workspace/Users/someone@example.com/baby_gender_by_county.lvdash.json"
# This is the contents of the resulting baby_gender_by_county.dashboard.yml file.
resources:
dashboards:
baby_gender_by_county:
display_name: 'Baby gender by county'
warehouse_id: aae11o8e6fe9zz79
file_path: ../src/baby_gender_by_county.lvdash.json
Vygenerování úlohy v sadě databricks
Vygenerujte konfiguraci sady pro úlohu.
Note
Tento příkaz v současné době podporuje jenom úlohy s úkoly poznámkového bloku.
databricks bundle generate job [flags]
Možnosti
--bind
Automaticky svázat vytvořený prostředek s existujícím prostředkem v pracovním prostoru.
-d, --config-dir string
Cesta Dir, kde bude uložena výstupní konfigurace (výchozí "prostředky")
--existing-job-id int
ID úlohy pro vygenerování konfigurace pro
-f, --force
Vynucení přepsání existujících souborů ve výstupním adresáři
-s, --source-dir string
Cesta Dir, kde budou stažené soubory uloženy (výchozí "src")
Příklady
Následující příklad vygeneruje nový hello_job.yml soubor ve resources složce projektu sady obsahující níže uvedený YAML a stáhne ho simple_notebook.pysrc do složky projektu. Také propojí vygenerovaný prostředek s existující úlohou v rámci pracovního prostoru.
databricks bundle generate job --existing-job-id 6565621249 --bind
# This is the contents of the resulting hello_job.yml file.
resources:
jobs:
hello_job:
name: 'Hello Job'
tasks:
- task_key: run_notebook
email_notifications: {}
notebook_task:
notebook_path: ../src/simple_notebook.py
source: WORKSPACE
run_if: ALL_SUCCESS
max_concurrent_runs: 1
Generování kanálu v sadě databricks
Vygenerujte konfiguraci sady pro kanál.
databricks bundle generate pipeline [flags]
Možnosti
--bind
Automaticky svázat vytvořený prostředek s existujícím prostředkem v pracovním prostoru.
-d, --config-dir string
Cesta Dir, kde bude uložena výstupní konfigurace (výchozí "prostředky")
--existing-pipeline-id string
ID kanálu pro vygenerování konfigurace pro
-f, --force
Vynucení přepsání existujících souborů ve výstupním adresáři
-s, --source-dir string
Cesta Dir, kde budou stažené soubory uloženy (výchozí "src")
Příklady
Následující příklad vygeneruje konfiguraci pro existující kanál:
databricks bundle generate pipeline --existing-pipeline-id abc-123-def
Init sady databricks
Inicializace nové sady pomocí šablony sady Šablony je možné nakonfigurovat tak, aby uživatele vyzve k zadání hodnot. Viz šablony projektů Databricks Asset Bundle.
databricks bundle init [TEMPLATE_PATH] [flags]
Argumenty
TEMPLATE_PATH
Šablona, která se má použít pro inicializaci (volitelné)
Možnosti
--branch string
Větev Gitu, která se má použít pro inicializaci šablon
--config-file string
Soubor JSON obsahující páry klíč-hodnota vstupních parametrů požadovaných pro inicializaci šablony
--output-dir string
Adresář pro zápis inicializované šablony do.
--tag string
Značka Git, která se má použít pro inicializaci šablon
--template-dir string
Cesta k adresáři v úložišti Git, které obsahuje šablonu.
Příklady
Následující příklad zobrazí výzvu se seznamem výchozích šablon sad, ze kterých si můžete vybrat:
databricks bundle init
Následující příklad inicializuje sadu pomocí výchozí šablony Pythonu:
databricks bundle init default-python
Pokud chcete vytvořit sadu prostředků Databricks pomocí vlastní šablony sady prostředků Databricks, zadejte cestu k vlastní šabloně:
databricks bundle init <project-template-local-path-or-url> \
--project-dir="</local/path/to/project/template/output>"
Následující příklad inicializuje sadu z úložiště Git:
databricks bundle init https://github.com/my/repository
Následující příklad inicializuje s konkrétní větví:
databricks bundle init --branch main
Otevřená sada databricks
V pracovním prostoru přejděte k prostředku sady prostředků a zadejte prostředek, který se má otevřít. Pokud není zadaný klíč prostředku, tento příkaz vypíše seznam prostředků sady, ze kterých se má vybrat.
databricks bundle open [flags]
Možnosti
--force-pull
Přeskočení místní mezipaměti a načtení stavu ze vzdáleného pracovního prostoru
Příklady
Následující příklad spustí prohlížeč a přejde na baby_gender_by_county řídicí panel v sadě v pracovním prostoru Databricks, který je nakonfigurovaný pro tuto sadu:
databricks bundle open baby_gender_by_county
Plán sady databricks
Zobrazí plán nasazení pro aktuální konfiguraci sady prostředků.
Tento příkaz sestaví sadu a zobrazí akce, které se budou provádět s prostředky, které se nasadí, bez provedení jakýchkoli změn. To vám umožní zobrazit náhled změn před spuštěním bundle deploy.
databricks bundle plan [flags]
Možnosti
-c, --cluster-id string
Přepište cluster v nasazení s daným ID clusteru.
--force
Vynucené přepsání ověření větve Git
Příklady
Následující příklad vypíše plán nasazení pro sadu, která sestaví kolo Pythonu, a definuje úlohu a kanál:
databricks bundle plan
Building python_artifact...
create jobs.my_bundle_job
create pipelines.my_bundle_pipeline
Spuštění sady databricks
Spusťte úlohu, kanál nebo skript. Pokud prostředek nezadáte, příkaz zobrazí nabídku s definovanými úlohami, pipelinami a skripty, ze kterých můžete vybrat. Případně můžete zadat název úlohy nebo klíče kanálu nebo skriptu deklarovaný v konfiguračních souborech sady.
databricks bundle run [flags] [KEY]
Ověření potrubí
Pokud chcete provést ověření pipeline, použijte možnost --validate-only, jak ukazuje následující příklad:
databricks bundle run --validate-only my_pipeline
Předání parametrů úlohy
Pokud chcete předat parametry úlohy, použijte volbu --params, za kterou následují dvojice klíč-hodnota oddělené čárkami, kde klíč je názvem parametru. Například následující příkaz nastaví parametr s názvem messageHelloWorld pro úlohu hello_job:
databricks bundle run --params message=HelloWorld hello_job
Note
Jak je znázorněno v následujících příkladech, můžete předat parametry úkolům úlohy pomocí možností úlohy, ale tato --params možnost je doporučenou metodou pro předávání parametrů úlohy. Dojde k chybě, pokud jsou pro úlohu zadány parametry, které nejsou definovány, nebo pokud jsou pro úlohu s definovanými parametry zadány parametry úkolu.
Můžete také zadat klíčové slovo nebo poziční argumenty. Pokud zadaná úloha používá parametry úlohy nebo má úlohu poznámkového bloku s parametry, názvy příznaků se mapují na názvy parametrů:
databricks bundle run hello_job -- --key1 value1 --key2 value2
Nebo pokud zadaná úloha nepoužívá parametry úlohy a úloha má úlohu souboru Pythonu nebo úlohu kolečka Pythonu:
databricks bundle run my_job -- value1 value2 value3
Ukázkovou definici úlohy s parametry najdete v části Úloha s parametry.
Spouštění skriptů
Pokud chcete spouštět skripty, jako jsou integrační testy s nakonfigurovanými přihlašovacími údaji ověřování sady, můžete spustit skripty vložené nebo spustit skript definovaný v konfiguraci sady. Skripty se spouští pomocí stejného kontextu ověřování nakonfigurovaného v sadě.
Připojte dvojitý spojovník (
--) zabundle runpro spuštění skriptů inline. Například následující příkaz vypíše aktuální pracovní adresář aktuálního uživatele:databricks bundle run -- python3 -c 'import os; print(os.getcwd())'Případně definujte skript v rámci
scriptsmapování v konfiguraci bundle, a pak použijtebundle runke spuštění skriptu.scripts: my_script: content: python3 -c 'import os; print(os.getcwd())'databricks bundle run my_scriptDalší informace o konfiguraci najdete ve
scriptsskriptech a skriptech.
Ověřovací informace sady se předávají podřízeným procesům pomocí proměnných prostředí. Viz jednotné ověřování Databricks.
Argumenty
KEY
Jedinečný identifikátor prostředku, který se má spustit (volitelné)
Možnosti
--no-wait
Nečekejte na dokončení spuštění.
--restart
Pokud už je spuštěný, restartujte spuštění.
Příznaky úloh
Následující příznaky jsou příznaky parametrů na úrovni úlohy. Viz Konfigurace parametrů úlohy.
--params stringToString
Čárka oddělená k=v páry pro parametry úlohy (výchozí [])
Příznaky úkolu úlohy
Následující příznaky jsou příznaky parametrů na úrovni úlohy. Viz Konfigurace parametrů úkolu. Databricks doporučuje používat parametry na úrovni úlohy (--params) nad parametry na úrovni úkolu.
--dbt-commands strings
Seznam příkazů, které se mají spouštět pro úlohy s úlohami DBT
--jar-params strings
Seznam parametrů pro úlohy s úlohami Spark JAR
--notebook-params stringToString
Mapa z klíčů na hodnoty pro úlohy s úkoly poznámkového bloku (výchozí [])
--pipeline-params stringToString
Mapa z klíčů na hodnoty pro úlohy s úlohami kanálu (výchozí [])
--python-named-params stringToString
Mapa z klíčů na hodnoty pro úlohy s úlohami kolečka Pythonu (výchozí [])
--python-params strings
Seznam parametrů pro úlohy s úlohami Pythonu
--spark-submit-params strings
Seznam parametrů pro úlohy s úlohami odesílanými sparkem
--sql-params stringToString
Mapa z klíčů na hodnoty pro úlohy s úlohami SQL (výchozí [])
Příznaky kanálu
Následující příznaky jsou příznaky kanálu.
--full-refresh strings
Seznam tabulek, které se mají resetovat a překomputovat
--full-refresh-all
Proveďte úplné resetování a opětovné dokončování grafu.
--refresh strings
Seznam tabulek, které se mají aktualizovat
--refresh-all
Proveďte úplnou aktualizaci grafu.
--validate-only
Provedením aktualizace ověřte správnost grafu.
Příklady
Následující příklad spustí úlohu hello_job ve výchozím cíli:
databricks bundle run hello_job
Následující příklad spustí úlohu hello_job v kontextu cíle deklarovaného s názvem dev:
databricks bundle run -t dev hello_job
Následující příklad zruší a restartuje existující spuštění úlohy:
databricks bundle run --restart hello_job
Následující příklad spustí kanál s úplnou aktualizací:
databricks bundle run my_pipeline --full-refresh-all
Následující příklad spustí příkaz v kontextu sady:
databricks bundle run -- echo "hello, world"
Schéma sady databricks
Zobrazení schématu JSON pro konfiguraci sady prostředků
databricks bundle schema [flags]
Možnosti
Příklady
Následující příklad vypíše schéma JSON pro konfiguraci sady:
databricks bundle schema
Pokud chcete výstupní schéma konfigurace sady vytvořit jako soubor JSON, spusťte bundle schema příkaz a přesměrujte výstup do souboru JSON. Můžete například vygenerovat soubor s názvem bundle_config_schema.json v aktuálním adresáři:
databricks bundle schema > bundle_config_schema.json
Souhrn sady databricks
Vypíše souhrn identity a prostředků sady, včetně přímých odkazů na prostředky, abyste mohli snadno přejít k prostředku v pracovním prostoru Databricks.
databricks bundle summary [flags]
Tip
Můžete také použít bundle open k navigaci na zdroj ve workspace Databricks. Podívejte se na otevřený balíček Databricks.
Možnosti
--force-pull
Přeskočení místní mezipaměti a načtení stavu ze vzdáleného pracovního prostoru
Příklady
Následující příklad vypíše souhrn nasazených prostředků sady:
databricks bundle summary
Následující výstup je souhrn sady s názvem my_pipeline_bundle , která definuje úlohu a kanál:
Name: my_pipeline_bundle
Target: dev
Workspace:
Host: https://myworkspace.cloud.databricks.com
User: someone@example.com
Path: /Users/someone@example.com/.bundle/my_pipeline/dev
Resources:
Jobs:
my_project_job:
Name: [dev someone] my_project_job
URL: https://myworkspace.cloud.databricks.com/jobs/206000809187888?o=6051000018419999
Pipelines:
my_project_pipeline:
Name: [dev someone] my_project_pipeline
URL: https://myworkspace.cloud.databricks.com/pipelines/7f559fd5-zztz-47fa-aa5c-c6bf034b4f58?o=6051000018419999
Synchronizace sady databricks
Proveďte jednosměrnou synchronizaci změn souboru sady v místním adresáři systému souborů do adresáře v rámci vzdáleného pracovního prostoru Azure Databricks.
Note
bundle sync příkazy nemůžou synchronizovat změny souborů z adresáře ve vzdáleném pracovním prostoru Azure Databricks zpět do adresáře v místním systému souborů.
databricks bundle sync [flags]
databricks bundle sync příkazy fungují stejným způsobem jako databricks sync příkazy a poskytují se pro zvýšení produktivity. Informace o použití příkazů najdete sync v příkazu.
Možnosti
--dry-run
Simulace provádění synchronizace bez provádění skutečných změn
--full
Provést úplnou synchronizaci (výchozí hodnota je přírůstková)
--interval duration
Interval dotazování systému souborů (pro --watch) (výchozí 1s)
--output type
Typ výstupního formátu
--watch
Sledování změn v místním systému souborů
Příklady
Následující příklad provede synchronizaci suchého spuštění:
databricks bundle sync --dry-run
Následující příklad sleduje změny a synchronizuje se automaticky:
databricks bundle sync --watch
Následující příklad provede úplnou synchronizaci:
databricks bundle sync --full
Ověření sady databricks
Ověřte, že konfigurační soubory sady jsou syntakticky správné.
databricks bundle validate [flags]
Ve výchozím nastavení tento příkaz vrátí souhrn identity sady:
Name: MyBundle
Target: dev
Workspace:
Host: https://my-host.cloud.databricks.com
User: someone@example.com
Path: /Users/someone@example.com/.bundle/MyBundle/dev
Validation OK!
Note
Příkaz bundle validate zobrazí upozornění, pokud jsou vlastnosti prostředku definovány v konfiguračních souborech sady, které nejsou nalezeny ve schématu odpovídajícího objektu.
Pokud chcete vypsat pouze souhrn identity a prostředků sady, použijte bundle summary.
Možnosti
Příklady
Následující příklad ověří konfiguraci sady:
databricks bundle validate
Globální příznaky
--debug
Zda povolit protokolování ladění.
-h nebo --help
Zobrazení nápovědy k rozhraní příkazového řádku Databricks nebo související skupině příkazů nebo souvisejícímu příkazu
--log-file řetězec
Řetězec představující soubor, do kterého se zapisují výstupní protokoly. Pokud tento příznak není zadaný, výchozí hodnota je zápis výstupních protokolů do stderru.
--log-format formát
Typ formátu protokolu, text nebo json. Výchozí hodnota je text.
--log-level řetězec
Řetězec představující úroveň formátu protokolu. Pokud není zadána, je úroveň formátu protokolu zakázaná.
-o, --output typ
Typ výstupu příkazu, text nebo json. Výchozí hodnota je text.
-p, --profile řetězec
Název profilu v ~/.databrickscfg souboru, který se má použít ke spuštění příkazu. Pokud tento příznak není zadán, použije se profil s názvem DEFAULT, pokud existuje.
--progress-format formát
Formát pro zobrazení protokolů průběhu: default, append, inplacenebo json
-t, --target řetězec
Pokud je to relevantní, cílový balíček, který se má použít
--var strings
nastavte hodnoty proměnných definovaných v konfiguraci sady. Příklad: --var="foo=bar"