Jegyzet
Az oldalhoz való hozzáférés engedélyezést igényel. Próbálhatod be jelentkezni vagy könyvtárat váltani.
Az oldalhoz való hozzáférés engedélyezést igényel. Megpróbálhatod a könyvtár váltását.
A Databricks-eszközcsomagok lehetővé teszik a csomag által használt Azure Databricks-erőforrásokra vonatkozó információk megadását a csomagkonfiguráció resources leképezésében. Lásd az erőforrásokra vonatkozó referenciát.
Ez a lap konfigurációs referenciaként szolgál a csomagok összes támogatott erőforrástípusához, és részletes információkat és példákat tartalmaz az egyes támogatott típusokhoz. További példákért lásd Csomagkonfigurációs példákat.
A YAML-konfiguráció ellenőrzéséhez használt csomagok JSON-sémája a Databricks CLI GitHub-adattárban található.
Tip
A YAML bármely meglévő erőforráshoz való létrehozásához használja a databricks bundle generate parancsot. Tekintse meg a databricks-csomag generálása című témakört.
támogatott erőforrások
Az alábbi táblázat a csomagok támogatott erőforrástípusait (ADOTT ESETBEN YAML és Python) sorolja fel. Egyes erőforrások létrehozhatóak úgy, hogy egy csomagban definiálják őket, és üzembe helyezik a csomagot, és egyes erőforrások csak úgy hozhatók létre, ha egy meglévő objektumra hivatkoznak, hogy belefoglaljanak a csomagba.
Az erőforrás-konfiguráció egy Databricks REST API-objektumnak megfelelő Databricks-objektumot definiál. A REST API-objektum által támogatott létrehozási kérelemmezők YAML-ként kifejezve az erőforrás támogatott kulcsai. Az egyes erőforrások megfelelő objektumainak dokumentációjára mutató hivatkozások az alábbi táblázatban találhatók.
Tip
A databricks bundle validate parancs figyelmeztetéseket ad vissza, ha ismeretlen erőforrástulajdonságok találhatók a csomagkonfigurációs fájlokban.
figyelmeztetés
Type: Map
A riasztási erőforrás egy SQL-riasztást (v2) határoz meg.
Hozzáadva a Databricks CLI 0.279.0-s verziójához
alerts:
<alert-name>:
<alert-field-name>: <alert-field-value>
| Key | Típus | Description |
|---|---|---|
custom_description |
String | Opcionális. A riasztás egyéni leírása. Támogatja a bajuszsablont. Hozzáadva a Databricks CLI 0.279.0-s verziójához |
custom_summary |
String | Opcionális. A riasztás egyéni összegzése. Támogatja a bajuszsablont. Hozzáadva a Databricks CLI 0.279.0-s verziójához |
display_name |
String | Szükséges. A riasztás megjelenítendő neve, például Example alert.Hozzáadva a Databricks CLI 0.279.0-s verziójához |
evaluation |
Map | Szükséges. A riasztás kiértékelési konfigurációja. Lásd : alert.evaluation. Hozzáadva a Databricks CLI 0.279.0-s verziójához |
lifecycle |
Map | Az erőforrás életciklus-beállításait tartalmazza. Ez szabályozza az erőforrás viselkedését az üzembe helyezéskor vagy megsemmisítéskor. Lásd az életciklust. Hozzáadva a Databricks CLI 0.279.0-s verziójához |
parent_path |
String | Opcionális. A riasztást tartalmazó mappa munkaterületi elérési útja. Csak létrehozásra állítható be, és nem frissíthető. Példa: /Users/someone@example.com.Hozzáadva a Databricks CLI 0.279.0-s verziójához |
permissions |
Sequence | A riasztási engedélyek. Tekintse meg az engedélyeket. Hozzáadva a Databricks CLI 0.279.0-s verziójához |
query_text |
String | Szükséges. A futtatni kívánt lekérdezés szövege, például SELECT 1.Hozzáadva a Databricks CLI 0.279.0-s verziójához |
run_as |
Map | Opcionális. Megadja a riasztás futtatásához használt identitást. Ez a mező lehetővé teszi a riasztások adott felhasználóként vagy szolgáltatásnévként való futtatását. Lásd : run_as.
Hozzáadva a Databricks CLI 0.279.0-s verziójához |
schedule |
Map | Szükséges. A riasztás ütemezési konfigurációja. Lásd: alert.schedule. Hozzáadva a Databricks CLI 0.279.0-s verziójához |
warehouse_id |
String | Szükséges. A riasztáshoz csatolt SQL Warehouse azonosítója, például a7066a8ef796be84.Hozzáadva a Databricks CLI 0.279.0-s verziójához |
riasztás.értékelés
Type: Map
A riasztás kiértékelési konfigurációja.
| Key | Típus | Description |
|---|---|---|
comparison_operator |
String | A riasztás kiértékelése során összehasonlításra használt operátor. |
empty_result_state |
String | A riasztás állapota, ha az eredmény üres. Kerülje el, hogy ezt a mezőt UNKNOWN állapotra állítsa, mert a UNKNOWN állapotot tervezik elavulttá tenni. |
notification |
Map | A felhasználó vagy más célhely, amely értesítést küld a riasztás aktiválásakor. Lásd alert.evaluation.notification. |
source |
Map | A riasztás kiértékeléséhez használandó eredmény forrásoszlopa. Lásd : alert.evaluation.source. |
threshold |
Map | A riasztások kiértékeléséhez használandó küszöbérték. Ez lehet oszlop vagy érték. Lásd : alert.evaluation.threshold. |
riasztás.értékelés.értesítés
Type: Map
A felhasználó vagy más célhely, amely értesítést küld a riasztás aktiválásakor.
| Key | Típus | Description |
|---|---|---|
notify_on_ok |
logikai | Opcionális. Arról, hogy értesítést küld-e a riasztás előfizetőinek, ha a riasztás visszatér a normál állapotba. |
retrigger_seconds |
Integer | Opcionális. A riasztások hány másodpercig várakoznak az aktiválás után, mielőtt újabb értesítést küldhetnek. Ha be van 0 állítva vagy nincs megadva, a riasztás nem küld további értesítéseket az első eseményindító után. Amikor ezt az értéket 1-ra állítja be, a riasztás minden olyan értékeléskor értesítést küld, amikor a feltétel teljesül, ezzel folyamatosan újraindítva az értesítéseket. |
subscriptions |
Sequence | Opcionális. Az értesítési előfizetések rendezetlen listája. Lásd alert.evaluation.notification.subscriptions. |
figyelmeztetés.értékelés.értesítés.előfizetések
Type: Sequence
Az értesítési előfizetések rendezetlen listája.
A lista minden eleme egy AlertSubscription:
| Key | Típus | Description |
|---|---|---|
destination_id |
String | Az értesítési cél azonosítója. |
user_email |
String | Az értesítendő felhasználó e-mail-címe. |
figyelmeztetés.értékelés.forrás
Type: Map
A riasztás kiértékeléséhez használandó eredmény forrásoszlopa.
| Key | Típus | Description |
|---|---|---|
aggregation |
String | A forrásoszlopra alkalmazandó összesítési módszer. Az érvényes értékek a következőkSUM: , COUNT, COUNT_DISTINCTAVG, MEDIAN, , MINMAXSTDDEV |
display |
String | A forrásoszlop megjelenítendő neve. |
name |
String | A lekérdezés eredményéből származó forrásoszlop neve. |
figyelmeztetés.értékelés.küszöbérték
Type: Map
A riasztások kiértékeléséhez használandó küszöbérték lehet oszlop vagy érték.
| Key | Típus | Description |
|---|---|---|
column |
Map | Küszöbértékként használandó oszlophivatkozás. Lásd : alert.evaluation.source. |
value |
Map | A küszöbértékként használandó literális érték. Lásd : alert.evaluation.threshold.value. |
figyelmeztetés.értékelés.küszöbérték.érték
Type: Map
A küszöbértékként használandó literális érték. Adja meg az alábbi értéktípusok egyikét.
| Key | Típus | Description |
|---|---|---|
bool_value |
logikai | Opcionális. A küszöbérték logikai értéke, például true. |
double_value |
Double | Opcionális. A küszöbérték numerikus értéke, például 1.25. |
string_value |
String | Opcionális. A küszöbérték sztringértéke, például test. |
riasztás.ütemterv
Type: Map
A riasztás ütemezési konfigurációja.
| Key | Típus | Description |
|---|---|---|
pause_status |
String | Opcionális. Az ütemezés szünetel-e vagy sem. Érvényes értékek: UNPAUSED, PAUSED. Alapértelmezett: UNPAUSED. |
quartz_cron_schedule |
String | Szükséges. Cron kifejezés kvarcszintaxissal, amely meghatározza a folyamat ütemezését. A kvarcformátumot kvarc ütemező formátumban írják le. |
timezone_id |
String | Szükséges. Java időzóna azonosító. Az ütemezést ezzel az időzónával fogják meghatározni. Ez lesz kombinálva az quartz_cron_schedule-tel az ütemezés meghatározásához. Részletekért lásd a SET TIME ZONE. |
Examples
Az alábbi példakonfiguráció egy egyszerű kiértékeléssel rendelkező riasztást határoz meg:
resources:
alerts:
my_alert:
display_name: my_alert
evaluation:
comparison_operator: EQUAL
source:
name: '1'
threshold:
value:
double_value: 2
query_text: select 2
schedule:
quartz_cron_schedule: '44 19 */1 * * ?'
timezone_id: Europe/Amsterdam
warehouse_id: 799f096837fzzzz4
Az alábbi példakonfiguráció egy olyan riasztást határoz meg, amely engedélyeket tartalmaz, amelyek összesítéssel kiértékelik és értesítéseket küldenek:
resources:
alerts:
my_alert:
permissions:
- level: CAN_MANAGE
user_name: someone@example.com
custom_summary: 'My alert'
display_name: 'My alert'
evaluation:
comparison_operator: 'EQUAL'
notification:
notify_on_ok: false
retrigger_seconds: 1
source:
aggregation: 'MAX'
display: '1'
name: '1'
threshold:
value:
double_value: 2
query_text: 'select 2'
schedule:
pause_status: 'UNPAUSED'
quartz_cron_schedule: '44 19 */1 * * ?'
timezone_id: 'Europe/Amsterdam'
warehouse_id: 799f096837fzzzz4
alkalmazás
Type: Map
Az alkalmazáserőforrás definiál egy Databricks-alkalmazást. A Databricks Apps szolgáltatással kapcsolatos információkért lásd: Databricks Apps.
Alkalmazás hozzáadásához adja meg az alkalmazás definiálásához szükséges beállításokat, beleértve a szükséges source_code_pathbeállításokat is.
Tip
Streamlit Databricks-alkalmazással inicializálhat egy csomagot az alábbi paranccsal:
databricks bundle init https://github.com/databricks/bundle-examples --template-dir contrib/templates/streamlit-app
Hozzáadva a Databricks CLI 0.239.0-s verziójához
apps:
<app-name>:
<app-field-name>: <app-field-value>
| Key | Típus | Description |
|---|---|---|
budget_policy_id |
String | Az alkalmazás költségvetési szabályzatazonosítója. Hozzáadva a Databricks CLI 0.243.0-s verziójához |
compute_size |
String | Az alkalmazás számítási mérete. Az érvényes értékek a munkaterület konfigurációjától függenekMEDIUM.LARGEHozzáadva a Databricks CLI 0.273.0-s verziójához |
config |
Map | Alkalmazáskonfigurációs parancsok és környezeti változók. Ha meg van adva, ez a konfiguráció egy app.yaml-fájlba lesz beírva a forráskód elérési útján az üzembe helyezés során. Ez lehetővé teszi, hogy az alkalmazáskonfigurációt közvetlenül a yaML csomagban definiálja ahelyett, hogy külön app.yaml-fájlt tartana fenn. Lásd :app.config. Hozzáadva a Databricks CLI 0.283.0-s verziójához |
description |
String | Az alkalmazás leírása. Hozzáadva a Databricks CLI 0.239.0-s verziójához |
lifecycle |
Map | Az erőforrás viselkedése üzembe helyezéskor vagy megsemmisítéskor. Lásd az életciklust. Hozzáadva a Databricks CLI 0.268.0-s verziójához |
name |
String | Az alkalmazás neve. A név csak kisbetűs alfanumerikus karaktereket és kötőjeleket tartalmazhat. A munkaterületen belül egyedinek kell lennie. Hozzáadva a Databricks CLI 0.239.0-s verziójához |
permissions |
Sequence | Az alkalmazás engedélyei. Tekintse meg az engedélyeket. Hozzáadva a Databricks CLI 0.239.0-s verziójához |
resources |
Sequence | Az alkalmazás számítási erőforrásai. Lásd : app.resources. Hozzáadva a Databricks CLI 0.239.0-s verziójához |
source_code_path |
String | A ./app Databricks alkalmazás forráskódjának helyi elérési útja.Hozzáadva a Databricks CLI 0.239.0-s verziójához |
user_api_scopes |
Sequence | A felhasználói API-hatókörök. Hozzáadva a Databricks CLI 0.246.0-s verziójához |
app.config
Alkalmazáskonfigurációs parancsok és környezeti változók. Lásd: A Databricks-alkalmazás végrehajtásának konfigurálása a következővel app.yaml: .
| Key | Típus | Description |
|---|---|---|
command |
String | Az alkalmazás futtatására szolgáló parancsok, például ["streamlit", "run", "app.py"] |
env |
Sequence | Az alkalmazáskörnyezet változóit meghatározó párok listája és value listájaname. |
app.erőforrások
Type: Sequence
Az alkalmazás számítási erőforrásainak listája.
A lista minden eleme egy AppResource:
| Key | Típus | Description |
|---|---|---|
description |
String | Az alkalmazáserőforrás leírása. |
database |
Map | A használni kívánt Lakebase-adatbázist azonosító beállítások. Lásd : app.resources.database. |
experiment |
Map | A használni kívánt MLflow-kísérletet azonosító beállítások. Lásd : app.resources.experiment. |
genie_space |
Map | A használni kívánt Genie-területet azonosító beállítások. Lásd : app.resources.genie_space. |
job |
Map | A használni kívánt feladaterőforrást azonosító beállítások. Lásd : app.resources.job. |
name |
String | Az alkalmazáserőforrás neve. |
secret |
Map | A használni kívánt Azure Databricks titkos erőforrást azonosító beállítások. Lásd : app.resources.secret. |
serving_endpoint |
Map | A használandó végponterőforrást kiszolgáló modellt azonosító beállítások. Lásd app.resources.serving_endpoint. |
sql_warehouse |
Map | A használni kívánt SQL Warehouse-erőforrást azonosító beállítások. Lásd : app.resources.sql_warehouse. |
uc_securable |
Map | A használni kívánt Unity Catalog-kötetet azonosító beállítások. Lásd : app.resources.uc_securable. |
app.erőforrások.adatbázis
Type: Map
A használni kívánt Lakebase-adatbázist azonosító beállítások.
| Key | Típus | Description |
|---|---|---|
database_name |
String | Az adatbázis neve. |
instance_name |
String | Az adatbázispéldány neve. |
permission |
String | Az adatbázis engedélyszintje. Az érvényes értékek a következők: CAN_CONNECT_AND_CREATE. |
app.resources.experiment
Type: Map
A használni kívánt MLflow-kísérletet azonosító beállítások.
| Key | Típus | Description |
|---|---|---|
experiment_id |
String | Az MLflow-kísérlet azonosítója. |
permission |
String | A kísérlet engedélyszintje. Az érvényes értékek a következők: CAN_READ, CAN_EDITCAN_MANAGE. |
app.resources.genie_space
Type: Map
A használni kívánt Genie-területet azonosító beállítások.
| Key | Típus | Description |
|---|---|---|
name |
String | A Genie tér neve. |
permission |
String | A tér jogosultsági szintje. Az érvényes értékek a következők: CAN_VIEW, CAN_EDIT, CAN_MANAGECAN_RUN. |
space_id |
String | Például a Genie-tér 550e8400-e29b-41d4-a716-999955440000azonosítója. |
app.resources.job
Type: Map
A használni kívánt feladaterőforrást azonosító beállítások.
| Key | Típus | Description |
|---|---|---|
id |
String | A feladat azonosítója. |
permission |
String | A feladat engedélyszintje. Az érvényes értékek a következők: CAN_VIEW, CAN_MANAGE_RUN, CAN_MANAGEIS_OWNER. |
app.resources.secret
Type: Map
A használni kívánt Azure Databricks titkos erőforrást azonosító beállítások.
| Key | Típus | Description |
|---|---|---|
key |
String | Az engedély megadásához szükséges titkos kulcs. |
permission |
String | A titkos kód engedélyszintje. Az érvényes értékek a következők: READ, WRITEMANAGE. |
scope |
String | A titkos hatókör neve. |
app.resources.kiszolgáló_végpont
Type: Map
A használandó végponterőforrást kiszolgáló modellt azonosító beállítások.
| Key | Típus | Description |
|---|---|---|
name |
String | A kiszolgáló végpont neve. |
permission |
String | A kiszolgáló végpont engedélyszintje. Az érvényes értékek a következők: CAN_QUERY, CAN_MANAGECAN_VIEW. |
app.resources.sql_warehouse
Type: Map
A használni kívánt SQL Warehouse-t azonosító beállítások.
| Key | Típus | Description |
|---|---|---|
id |
String | Az SQL Warehouse azonosítója. |
permission |
String | Az SQL Warehouse engedélyszintje. Az érvényes értékek a következők: CAN_USE, CAN_MANAGEIS_OWNER. |
app.resources.uc_securable
Type: Map
A használni kívánt Unity Catalog-kötetet azonosító beállítások.
| Key | Típus | Description |
|---|---|---|
permission |
String | A Unity-katalógus engedélyszintje biztonságos. Az érvényes értékek a következők: READ_VOLUME és WRITE_VOLUME. |
securable_full_name |
String | A Unity Catalogba helyezhető elemek teljes neve a catalog.schema.volume formátumban. |
securable_type |
String | A biztonságos Unity-katalógus típusa. Az érvényes értékek a következők: VOLUME. |
Examples
Az alkalmazást definiáló csomag létrehozását bemutató oktatóanyagért lásd: Databricks-alkalmazások kezelése a Databricks-eszközcsomagokkal.
Az alábbi példa egy alapszintű alkalmazást határoz meg:
resources:
apps:
hello_world_app:
name: 'hello-world-app'
source_code_path: . # This assumes the app source code is at the root of the project.
description: 'A Databricks app'
Az alábbi példa létrehoz egy alkalmazást my_app , amely a csomag által létrehozott feladatot kezeli. A teljes példáért tekintse meg a csomagpéldák GitHub-adattárát.
resources:
jobs:
# Define a job in the bundle
hello_world:
name: hello_world
tasks:
- task_key: task
spark_python_task:
python_file: ../src/main.py
environment_key: default
environments:
- environment_key: default
spec:
environment_version: '2'
# Define an app that manages the job in the bundle
apps:
job_manager:
name: 'job_manager_app'
description: 'An app which manages a job created by this bundle'
# The location of the source code for the app
source_code_path: ../src/app
# The resources in the bundle which this app has access to. This binds the resource in the app with the bundle resource.
resources:
- name: 'app-job'
job:
id: ${resources.jobs.hello_world.id}
permission: 'CAN_MANAGE_RUN'
A megfelelő app.yaml határozza meg az alkalmazás futtatásának konfigurációját:
command:
- flask
- --app
- app
- run
- --debug
env:
- name: JOB_ID
valueFrom: 'app-job'
Az alábbi példa létrehoz egy alkalmazást, amely hozzáfér a csomag által létrehozott MLflow-kísérlethez:
resources:
experiments:
# Define an MLflow experiment in the bundle
my_experiment:
name: /Users/${workspace.current_user.userName}/my-app-experiment
apps:
my_ml_app:
name: 'my-ml-app'
description: 'An app with access to an MLflow experiment'
source_code_path: ./app
# Grant the app access to the MLflow experiment
resources:
- name: 'app-experiment'
experiment:
experiment_id: ${resources.experiments.my_experiment.id}
permission: 'CAN_MANAGE'
Másik lehetőségként az alábbi példa egy, a csomagkonfigurációban definiált egyéni konfigurációval rendelkező alkalmazást definiál:
resources:
apps:
my_app:
name: my_app
description: my_app_description
source_code_path: ./app
config:
command: ['flask', '--app', 'app', 'run']
env:
- name: MY_ENV_VAR
value: test_value
- name: ANOTHER_VAR
value: another_value
catalogs
Type: Map
A katalógus-erőforrás lehetővé teszi a katalógusok (Unity Catalog) csomagban való meghatározását.
Note
A Databricks Asset Bundles használata katalógusok definiálásához csak akkor támogatott, ha a közvetlen üzembehelyezési motort használja.
Hozzáadva a Databricks CLI 0.287.0-s verziójához
catalogs:
<catalog-name>:
<catalog-field-name>: <catalog-field-value>
| Key | Típus | Description |
|---|---|---|
comment |
String | A katalógus felhasználó által megadott szabad formátumú szöveges leírása. Hozzáadva a Databricks CLI 0.287.0-s verziójához |
connection_name |
String | A külső adatforráshoz való kapcsolat neve. Hozzáadva a Databricks CLI 0.287.0-s verziójához |
grants |
Sequence | A katalógushoz társított támogatások. Lásd adomány. Hozzáadva a Databricks CLI 0.287.0-s verziójához |
lifecycle |
Map | Az erőforrás életciklus-beállításait tartalmazza. Ez szabályozza az erőforrás viselkedését az üzembe helyezéskor vagy megsemmisítéskor. Lásd az életciklust. Hozzáadva a Databricks CLI 0.287.0-s verziójához |
name |
String | Szükséges. A katalógus neve. Hozzáadva a Databricks CLI 0.287.0-s verziójához |
options |
Objektum | A biztonságoshoz csatolt kulcs-érték tulajdonságok térképe. Hozzáadva a Databricks CLI 0.287.0-s verziójához |
properties |
Objektum | A biztonságoshoz csatolt kulcs-érték tulajdonságok térképe. Hozzáadva a Databricks CLI 0.287.0-s verziójához |
provider_name |
String | A változásmegosztási szolgáltató neve. A Delta Sharing katalógus egy olyan katalógus, amely egy távoli megosztókiszolgálón található Delta-megosztáson alapul. Lásd : Mi az a deltamegosztás?. Hozzáadva a Databricks CLI 0.287.0-s verziójához |
share_name |
String | A megosztás neve a megosztásszolgáltató alatt. Hozzáadva a Databricks CLI 0.287.0-s verziójához |
storage_root |
String | A katalógusban lévő felügyelt táblák gyökér URL-címe. Hozzáadva a Databricks CLI 0.287.0-s verziójához |
Example
resources:
catalogs:
my_catalog:
name: my_catalog
comment: 'Catalog created by Databricks Asset Bundles'
properties:
purpose: 'Testing'
grants:
- principal: someone@example.com
privileges:
- USE_CATALOG
- CREATE_SCHEMA
schemas:
my_schema:
name: my_schema
catalog_name: ${resources.catalogs.my_catalog.name}
comment: 'Schema in custom catalog'
klaszter
Type: Map
A fürterőforrás definiál egy fürtöt.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
clusters:
<cluster-name>:
<cluster-field-name>: <cluster-field-value>
| Key | Típus | Description |
|---|---|---|
apply_policy_default_values |
logikai | Ha igaz értékre van állítva, a program a házirend rögzített és alapértelmezett értékeit használja a kihagyott mezőkhöz. Ha hamis értékre van állítva, a rendszer csak a szabályzat rögzített értékeit alkalmazza. Hozzáadva a Databricks CLI 0.229.0-s verziójához |
autoscale |
Map | A fürtök terhelés alapján történő automatikus fel- és leskálázásához szükséges paraméterek. Lásd az automatikus skálázást. Hozzáadva a Databricks CLI 0.229.0-s verziójához |
autotermination_minutes |
Integer | Automatikusan leállítja a fürtöt, miután az meghatározott percekig inaktív. Ha nincs beállítva, a fürt nem fog automatikusan leállni. Ha meg van adva, a küszöbértéknek 10 és 10000 perc között kell lennie. A felhasználók ezt az értéket 0 értékre is beállíthatják az automatikus leállítás explicit letiltásához. Hozzáadva a Databricks CLI 0.229.0-s verziójához |
aws_attributes |
Map | Az Amazon Web Servicesen futó fürtökhöz kapcsolódó attribútumok. Ha a fürt létrehozásakor nincsenek megadva az értékek, a rendszer az alapértelmezett értékeket fogja használni. Lásd : aws_attributes. Hozzáadva a Databricks CLI 0.229.0-s verziójához |
azure_attributes |
Map | A Microsoft Azure-ban futó fürtökhöz kapcsolódó attribútumok. Ha a fürt létrehozásakor nincsenek megadva az értékek, a rendszer az alapértelmezett értékeket fogja használni. Lásd : azure_attributes. Hozzáadva a Databricks CLI 0.229.0-s verziójához |
cluster_log_conf |
Map | A spark-naplók hosszú távú tárolási célhelyre történő továbbításának konfigurációja. Lásd : cluster_log_conf. Hozzáadva a Databricks CLI 0.229.0-s verziójához |
cluster_name |
String | A felhasználó által kért fürtnév. Ennek nem kell egyedinek lennie. Ha a létrehozáskor nincs megadva, a fürt neve üres karakterlánc lesz. Hozzáadva a Databricks CLI 0.229.0-s verziójához |
custom_tags |
Map | További címkék a klaszter erőforrásokhoz. A Databricks a címkék mellett az összes fürterőforrást (például AWS-példányokat és EBS-köteteket) is címkézni fogja default_tags.Hozzáadva a Databricks CLI 0.229.0-s verziójához |
data_security_mode |
String | A fürt adatainak elérésekor használandó adatszabályozási modell. Az érvényes értékek a következők: NONE, SINGLE_USER, USER_ISOLATION, LEGACY_SINGLE_USER, LEGACY_TABLE_ACLLEGACY_PASSTHROUGH.Hozzáadva a Databricks CLI 0.229.0-s verziójához |
docker_image |
Map | Az egyéni Docker-rendszerkép. Lásd : docker_image. Hozzáadva a Databricks CLI 0.229.0-s verziójához |
driver_instance_pool_id |
String | A fürt illesztőprogramjához tartozó példánycsoport opcionális azonosítója. A készletfürt a példánykészletet használja azonosítóval (példány*pool_id), ha az illesztőprogram-készlet nincs hozzárendelve. Hozzáadva a Databricks CLI 0.229.0-s verziójához |
driver_node_type_id |
String | A Spark-illesztőprogram csomóponttípusa. Ez a mező nem kötelező. Ha nincs megadva, az illesztőcsomópont típusa a következő értékre node_type_idvan állítva: . Ezt a mezőt nem szabad beállítani, node_type_idha virtual_cluster_size be van állítva. Ha mindkettő driver_node_type_id, node_type_idés virtual_cluster_size meg van adva, driver_node_type_id és node_type_id elsőbbséget élvez.Hozzáadva a Databricks CLI 0.229.0-s verziójához |
enable_elastic_disk |
logikai | Helyi tároló automatikus skálázása: ha engedélyezve van, ez a fürt dinamikusan további lemezterületet szerez be, ha a Spark-feldolgozók kevés lemezterületen futnak. Ehhez a funkcióhoz adott AWS-engedélyek szükségesek a megfelelő működéshez – további részletekért tekintse meg a felhasználói útmutatót. Hozzáadva a Databricks CLI 0.229.0-s verziójához |
enable_local_disk_encryption |
logikai | Engedélyezi-e a LUKS-t a fürt virtuális gépeinek helyi lemezén. Hozzáadva a Databricks CLI 0.229.0-s verziójához |
gcp_attributes |
Map | A Google Cloud Platformon futó fürtökhöz kapcsolódó attribútumok. Ha a fürt létrehozásakor nincsenek megadva az értékek, a rendszer az alapértelmezett értékeket fogja használni. Lásd : gcp_attributes. Hozzáadva a Databricks CLI 0.229.0-s verziójához |
init_scripts |
Sequence | Init-szkriptek tárolásának konfigurációja. Tetszőleges számú célhely megadható. A szkriptek egymás után, a megadott sorrendben lesznek végrehajtva. Lásd : init_scripts. Hozzáadva a Databricks CLI 0.229.0-s verziójához |
instance_pool_id |
String | Annak a példánykészletnek az opcionális azonosítója, amelyhez a fürt tartozik. Hozzáadva a Databricks CLI 0.229.0-s verziójához |
is_single_node |
logikai | Ez a mező csak akkor használható, ha kind = CLASSIC_PREVIEW. Ha igaz értékre van állítva, a Databricks automatikusan beállítja az egyetlen csomóponttal kapcsolatos custom_tags, spark_confés num_workers.Hozzáadva a Databricks CLI 0.237.0-s verziójához |
kind |
String | Az ebben a számítási specifikációban leírt számítási típus. Hozzáadva a Databricks CLI 0.237.0-s verziójához |
lifecycle |
Map | Az erőforrás életciklus-beállításait tartalmazza. Ez szabályozza az erőforrás viselkedését az üzembe helyezéskor vagy megsemmisítéskor. Lásd az életciklust. Hozzáadva a Databricks CLI 0.268.0-s verziójához |
node_type_id |
String | Ez a mező egyetlen értéken keresztül kódolja a fürtben lévő Spark-csomópontok számára elérhető erőforrásokat. Például, a Spark csomópontok előkészíthetők és optimalizálhatók memória- vagy számításigényes feladatokhoz. Az elérhető csomóponttípusok listáját a Lista csomóponttípusok API használatával lehet lekérni. Hozzáadva a Databricks CLI 0.229.0-s verziójához |
num_workers |
Integer | Azoknak a munkavégző csomópontoknak a száma, amellyel ennek a fürtnek rendelkeznie kell. Egy fürt egyetlen Spark-illesztőprogramot és num_workers végrehajtót tartalmaz, összesen num_workers + 1 Spark-csomópontot.Hozzáadva a Databricks CLI 0.229.0-s verziójához |
permissions |
Sequence | A klaszter engedélyei. Tekintse meg az engedélyeket. Hozzáadva a Databricks CLI 0.229.0-s verziójához |
policy_id |
String | A fürt létrehozásához használt fürtszabályzat azonosítója, ha van ilyen. Hozzáadva a Databricks CLI 0.229.0-s verziójához |
remote_disk_throughput |
Integer | Távoli lemez átviteli sebessége másodpercenként bájtban. Hozzáadva a Databricks CLI 0.257.0-s verziójához |
runtime_engine |
String | Meghatározza a fürt futtatókörnyezeti motorját vagy STANDARDPHOTON.Hozzáadva a Databricks CLI 0.229.0-s verziójához |
single_user_name |
String | Egyetlen felhasználónév, ha az adatok*security_mode .SINGLE_USERHozzáadva a Databricks CLI 0.229.0-s verziójához |
spark_conf |
Map | Nem kötelező, felhasználó által megadott Spark-konfigurációs kulcs-érték párokat tartalmazó objektum. A felhasználók emellett további JVM-beállítások sztringjét is átadhatják az illesztőprogramnak és a végrehajtóknak.spark.driver.extraJavaOptionsspark.executor.extraJavaOptionsHozzáadva a Databricks CLI 0.229.0-s verziójához |
spark_env_vars |
Map | Nem kötelező, felhasználó által megadott környezeti változókulcs-érték párokat tartalmazó objektum. Hozzáadva a Databricks CLI 0.229.0-s verziójához |
spark_version |
String | A fürt Spark-verziója, például 3.3.x-scala2.11. Az elérhető Spark-verziók listája az elérhető Spark-verziók listájának API-val kérhető le.Hozzáadva a Databricks CLI 0.229.0-s verziójához |
ssh_public_keys |
Sequence | Nyilvános SSH-kulcs tartalma, amely a fürt minden Spark-csomópontjára fel lesz adva. A megfelelő titkos kulcsokkal bejelentkezhet a porton ubuntulévő felhasználónévvel2200. Legfeljebb 10 kulcs adható meg.Hozzáadva a Databricks CLI 0.229.0-s verziójához |
total_initial_remote_disk_size |
Integer | A kezdeti távoli lemez teljes mérete bájtban. Hozzáadva a Databricks CLI 0.257.0-s verziójához |
use_ml_runtime |
logikai | Ez a mező csak akkor használható, ha kind = CLASSIC_PREVIEW.
effective_spark_version-t a spark_version (Databricks Runtime release), ez a mező use_ml_runtime, és az, hogy a node_type_id GPU-csomópont-e, határozza meg.Hozzáadva a Databricks CLI 0.237.0-s verziójához |
workload_type |
Map | Fürtattribútumok, amelyek a fürtök számítási feladatainak típusaihoz jelennek meg. Lásd workload_type. Hozzáadva a Databricks CLI 0.229.0-s verziójához |
cluster.autoscale
Type: Map
A fürtök terhelés alapján fel- és leskálázásának paraméterei.
| Key | Típus | Description |
|---|---|---|
min_workers |
Integer | Azoknak a dolgozóknak a minimális száma, akikre a fürt kihasználatlan állapotban leskálázható. A fürt kezdeti számú feldolgozója is lesz a létrehozás után. |
max_workers |
Integer | Azoknak a dolgozóknak a maximális száma, akikre a fürt túlterhelt állapotban felskálázható.
max_workers szigorúan nagyobbnak kell lennie, mint min_workers. |
cluster.aws_jellemzők
Type: Map
Az Amazon Web Servicesen futó fürtökhöz kapcsolódó attribútumok.
| Key | Típus | Description |
|---|---|---|
zone_id |
String | Annak a rendelkezésreállási zónának/adatközpontnak az azonosítója, amelyben a klaszter található. Ez a sztring olyan formátumú lesz, mint us-west-2a. |
availability |
String | Az összes további csomóponthoz használt rendelkezésre állási típus a first_on_demand korábbiakon kívül. Az érvényes értékek a következőkSPOT: , ON_DEMANDSPOT_WITH_FALLBACK. |
spot_bid_price_percent |
Integer | Az AWS spot példányainak maximális ára a megfelelő példánytípus igény szerinti árának százalékában. |
instance_profile_arn |
String | A fürt csomópontjai csak azokban az AWS-példányokban lesznek elhelyezve, amelyek rendelkeznek ezzel a példányprofillal. |
first_on_demand |
Integer | A fürt első first_on_demand csomópontjai igény szerinti példányokon helyezkednek el. Ennek az értéknek nagyobbnak kell lennie, mint 0, azért, hogy a fürtvezérlő csomópont egy igény szerinti példányon legyen elhelyezve. |
ebs_volume_type |
String | A fürttel indítandó EBS-kötetek típusa. Az érvényes értékek GENERAL_PURPOSE_SSD vagy THROUGHPUT_OPTIMIZED_HDD. |
ebs_volume_count |
Integer | Az egyes példányokhoz indított kötetek száma. |
ebs_volume_size |
Integer | Az egyes példányokhoz indított EBS-kötetek mérete (GiB-ben). |
ebs_volume_iops |
Integer | Az EBS gp3 kötetenkénti IOPS száma. |
ebs_volume_throughput |
Integer | Az EBS gp3 kötetenkénti átviteli sebessége másodpercenkénti MiB-ben. |
cluster.azure_attributes
Type: Map
A Microsoft Azure-ban futó fürtökhöz kapcsolódó attribútumok.
| Key | Típus | Description |
|---|---|---|
first_on_demand |
Integer | A fürt első first_on_demand csomópontjai igény szerinti példányokon helyezkednek el. |
availability |
String | Az összes további csomóponthoz használt rendelkezésre állási típus a first_on_demand korábbiakon kívül. Az érvényes értékek a következőkSPOT_AZURE: , ON_DEMAND_AZURESPOT_WITH_FALLBACK_AZURE. |
spot_bid_max_price |
Szám | Az Azure előrefizetéses példányok maximális ára. A legalacsonyabb ár megadására használható -1 . |
log_analytics_info |
Map | Az Azure Log Analytics-ügynök konfigurációja. Lásd : log_analytics_info. |
cluster.azure_attributes.log_analytics_info
Type: Map
Az Azure Log Analytics-ügynök konfigurációja.
| Key | Típus | Description |
|---|---|---|
log_analytics_workspace_id |
String | Az Azure Log Analytics-munkaterület azonosítója. |
log_analytics_primary_key |
String | Az Azure Log Analytics-munkaterület elsődleges kulcsa. |
cluster.gcp_attributes
Type: Map
A Google Cloud Platformon futó fürtökhöz kapcsolódó attribútumok.
| Key | Típus | Description |
|---|---|---|
use_preemptible_executors |
logikai | Használjunk-e preemptible végrehajtókat? A preemptible végrehajtók olyan preemptible GCE-instance-k, amelyeket a GCE bármikor visszaigényelhet. |
google_service_account |
String | A Databricks-fürt virtuálisgép-példányai által használandó Google-szolgáltatásfiók. |
local_ssd_count |
Integer | A fürt egyes csomópontjaihoz csatolandó helyi SSD-k száma. Az alapértelmezett érték a 0. |
zone_id |
String | Annak a rendelkezésreállási zónának/adatközpontnak az azonosítója, amelyben a klaszter található. |
availability |
String | Az összes csomóponthoz használt rendelkezésre állási típus. Az érvényes értékek a következőkPREEMPTIBLE_GCP: , ON_DEMAND_GCPPREEMPTIBLE_WITH_FALLBACK_GCP. |
boot_disk_size |
Integer | A rendszerindító lemez mérete GB-ban. Az értékek általában 100 és 1000 között mozognak. |
cluster.cluster_log_conf
A Spark-naplók hosszú távú tárolási célhelyre történő kézbesítésének konfigurációja.
| Key | Típus | Description |
|---|---|---|
dbfs |
Map | A fürtnaplók kézbesítésének DBFS-helye. Lásd : dbfs. |
s3 |
Map | A fürtnaplók kézbesítésének S3-helye. Lásd s3. |
volumes |
Map | Kötetek helye a fürtnaplók kézbesítéséhez. Lásd a köteteket. |
cluster.cluster_log_conf.dbfs
Type: Map
A fürtnaplók kézbesítésének DBFS-helye.
| Key | Típus | Description |
|---|---|---|
destination |
String | A klaszternaplók kézbesítéséhez szükséges DBFS elérési út (például dbfs:/cluster-logs). |
cluster.cluster_log_conf.s3
Type: Map
A fürtnaplók kézbesítésének S3-helye.
| Key | Típus | Description |
|---|---|---|
destination |
String | A fürtnaplók kézbesítésének S3 URI-ja (például s3://my-bucket/cluster-logs). |
region |
String | Az S3 bucket AWS-régiója. |
endpoint |
String | Az S3 végpont URL-címe (nem kötelező). |
enable_encryption |
logikai | Kérdés, hogy engedélyezzük-e a fürtnaplók titkosítását. |
encryption_type |
String | A titkosítás típusa. Az érvényes értékek a következők: SSE_S3. SSE_KMS |
kms_key |
String | A titkosításhoz használt KMS-kulcs ARN-je (ha használja SSE_KMS). |
canned_acl |
String | Az előre definiált ACL, amelyet a fürt naplójára kell alkalmazni. |
cluster.cluster_log_conf.volumes
Type: Map
Kötetek helye a fürtnaplók kézbesítéséhez.
| Key | Típus | Description |
|---|---|---|
destination |
String | Az fürtnaplók kézbesítésének kötet útvonala (például /Volumes/catalog/schema/volume/cluster_log). |
cluster.docker_image
Type: Map
Az egyéni Docker-rendszerkép konfigurációja.
| Key | Típus | Description |
|---|---|---|
url |
String | A Docker-rendszerkép URL-címe. |
basic_auth |
Map | Alapszintű hitelesítés a Docker-adattárhoz. Lásd basic_auth. |
cluster.docker_image.basic_auth
Type: Map
Alapszintű hitelesítés a Docker-adattárhoz.
| Key | Típus | Description |
|---|---|---|
username |
String | A Docker-beállításjegyzék-hitelesítés felhasználóneve. |
password |
String | A Docker-beállításjegyzék hitelesítésének jelszava. |
cluster.init_scripts
Type: Map
Init-szkriptek tárolásának konfigurációja. Legalább egy helytípust meg kell adni.
| Key | Típus | Description |
|---|---|---|
dbfs |
Map | Az init szkript DBFS-helye. Lásd : dbfs. |
workspace |
Map | Az init-szkript munkaterületi helye. Lásd munkaterület. |
s3 |
Map | Az init szkript S3 helye. Lásd s3. |
abfss |
Map | Az init szkript helye az ABFSS rendszerben. Lásd abfss. |
gcs |
Map | Az init szkript GCS helye. Lásd gcs. |
volumes |
Map | Az UC-kötetek init szkriptjének helye. Lásd a köteteket. |
cluster.init_scripts.dbfs
Type: Map
Az init szkript DBFS-helye.
| Key | Típus | Description |
|---|---|---|
destination |
String | Az init szkript DBFS-útvonala. |
cluster.init_scripts.workspace
Type: Map
Az init-szkript munkaterületi helye.
| Key | Típus | Description |
|---|---|---|
destination |
String | Az init szkript munkaterületi elérési útja. |
cluster.init_scripts.s3
Type: Map
Az init szkript S3 helye.
| Key | Típus | Description |
|---|---|---|
destination |
String | Az init szkript S3 URI-ja. |
region |
String | Az S3 bucket AWS-régiója. |
endpoint |
String | Az S3 végpont URL-címe (nem kötelező). |
cluster.init_scripts.abfss
Type: Map
Az init szkript helye az ABFSS rendszerben.
| Key | Típus | Description |
|---|---|---|
destination |
String | Az init szkript ABFSS-elérési útja. |
cluster.init_scripts.gcs
Type: Map
Az init szkript GCS helye.
| Key | Típus | Description |
|---|---|---|
destination |
String | Az init szkript GCS elérési útja. |
cluster.init_scripts.volumes
Type: Map
Az init szkript kötetek helye.
| Key | Típus | Description |
|---|---|---|
destination |
String | Az init-szkript UC-tárolóegységek elérési útja. |
cluster.terhelési_típus
Type: Map
A fürt attribútumai a fürt terhelési típusait mutatják.
| Key | Típus | Description |
|---|---|---|
clients |
Map | Meghatározza, hogy milyen ügyféltípusok használhatják a klasztert. Ügyfelek megtekintése. |
cluster.workload_type.kliens
Type: Map
A számítási feladatokhoz tartozó ügyfelek típusa.
| Key | Típus | Description |
|---|---|---|
jobs |
logikai | A fürt futtathat-e feladatokat. |
notebooks |
logikai | Azt jelzi, hogy a fürt képes-e jegyzetfüzeteket futtatni. |
Examples
Az alábbi példa egy dedikált (egyfelhasználós) fürtöt hoz létre az aktuális felhasználó számára a Databricks Runtime 15.4 LTS és egy fürtszabályzat használatával:
resources:
clusters:
my_cluster:
num_workers: 0
node_type_id: 'i3.xlarge'
driver_node_type_id: 'i3.xlarge'
spark_version: '15.4.x-scala2.12'
spark_conf:
'spark.executor.memory': '2g'
autotermination_minutes: 60
enable_elastic_disk: true
single_user_name: ${workspace.current_user.userName}
policy_id: '000128DB309672CA'
enable_local_disk_encryption: false
data_security_mode: SINGLE_USER
runtime_engine: STANDARD
Ez a példa létrehoz egy egyszerű fürtöt my_cluster , és beállítja azt úgy, hogy a fürt a jegyzetfüzet futtatására szolgáljon my_job.
bundle:
name: clusters
resources:
clusters:
my_cluster:
num_workers: 2
node_type_id: 'i3.xlarge'
autoscale:
min_workers: 2
max_workers: 7
spark_version: '13.3.x-scala2.12'
spark_conf:
'spark.executor.memory': '2g'
jobs:
my_job:
tasks:
- task_key: test_task
notebook_task:
notebook_path: './src/my_notebook.py'
existing_cluster_id: ${resources.clusters.my_cluster.id}
irányítópult
Type: Map
Az irányítópult-erőforrás lehetővé teszi AI/BI-irányítópultok csomagban kezelését. Az AI/BI-irányítópultokról további információt Irányítópultokcímű témakörben talál.
Ha olyan csomagot helyezett üzembe, amely a helyi környezetből tartalmaz irányítópultot, majd a felhasználói felületen módosítja az irányítópultot, a felhasználói felületen végrehajtott módosítások nem lesznek alkalmazva a helyi csomagban lévő irányítópult JSON-fájljára, kivéve, ha ön kifejezetten frissíti azt.bundle generate A --watch lehetőséggel folyamatos lekérdezéseket végezhet és frissítheti az irányítópult módosításait. Tekintse meg a databricks-csomag generálása című témakört.
Ezenkívül ha egy olyan csomagot próbál üzembe helyezni a helyi környezetből, amely egy olyan irányítópult JSON-fájlt tartalmaz, amely eltér a távoli munkaterületen lévőtől, hiba lép fel. Ha a távoli munkaterületen a helyivel szeretné kényszeríteni az irányítópult üzembe helyezését és felülírását, használja a --force lehetőséget. Lásd a Databricks-csomag üzembe helyezését.
Hozzáadva a Databricks CLI 0.232.0-s verziójához
Note
Ha a Databricks-eszközcsomagokat irányítópult Git-támogatással használja, akadályozza meg az ismétlődő irányítópultok létrehozását úgy, hogy hozzáadja a szinkronizálási térképet, amellyel kizárja az irányítópultokat a fájlok szinkronizálásából:
sync:
exclude:
- src/*.lvdash.json
dashboards:
<dashboard-name>:
<dashboard-field-name>: <dashboard-field-value>
| Key | Típus | Description |
|---|---|---|
dataset_catalog |
String | Az irányítópult összes adathalmaza által használt alapértelmezett katalógusérték, ha a lekérdezés másként nem rendelkezik. A mezőt beállító konfigurációt például az Irányítópult-katalógus és a sémaparaméterezés című témakörben talál. Hozzáadva a Databricks CLI 0.283.0-s verziójához |
dataset_schema |
String | Az irányítópult összes adathalmaza által használt alapértelmezett sémaérték, ha a lekérdezés másként nem rendelkezik. A mezőt beállító konfigurációt például az Irányítópult-katalógus és a sémaparaméterezés című témakörben talál. Hozzáadva a Databricks CLI 0.283.0-s verziójához |
display_name |
String | Az irányítópult megjelenítendő neve. Hozzáadva a Databricks CLI 0.232.0-s verziójához |
embed_credentials |
logikai | Annak meghatározása, hogy a csomag üzembe helyezési identitásának hitelesítő adatait használják-e az összes irányítópult néző lekérdezéseinek futtatására. Ha be van állítva false, a rendszer egy megtekintő hitelesítő adatait használja. Az alapértelmezett érték a false.Hozzáadva a Databricks CLI 0.232.0-s verziójához |
etag |
String | Az irányítópult ETag-je. A frissítéseken opcionálisan megadható annak biztosítása érdekében, hogy az irányítópult az utolsó olvasás óta ne legyen módosítva. Hozzáadva a Databricks CLI 0.234.0-s verziójához |
file_path |
String | Az irányítópult-objektum helyi elérési útja, beleértve a fájlnevet is. Az exportált irányítópultok mindig rendelkeznek a fájlkiterjesztéssel .lvdash.json.Hozzáadva a Databricks CLI 0.232.0-s verziójához |
lifecycle |
Map | Az erőforrás életciklus-beállításait tartalmazza. Ez szabályozza az erőforrás viselkedését az üzembe helyezéskor vagy megsemmisítéskor. Lásd az életciklust. |
parent_path |
String | Az irányítópultot tartalmazó mappa munkaterületi elérési útja. Bevezető perjelet és záró perjelet nem tartalmaz. Hozzáadva a Databricks CLI 0.232.0-s verziójához |
path |
String | Az irányítópult-objektum munkaterületi elérési útja, beleértve az eszköz nevét is. Hozzáadva a Databricks CLI 0.234.0-s verziójához |
permissions |
Sequence | Az irányítópult engedélyei. Tekintse meg az engedélyeket. Hozzáadva a Databricks CLI 0.232.0-s verziójához |
serialized_dashboard |
Any | Az irányítópult tartalma szerializált sztringűrlapon. Hozzáadva a Databricks CLI 0.232.0-s verziójához |
warehouse_id |
String | Az irányítópult futtatásához használt raktárazonosító. Hozzáadva a Databricks CLI 0.232.0-s verziójához |
Example
Az alábbi példa bemutatja, hogyan lehet a NYC Taxi Trip Analysis irányítópultot telepíteni a Databricks munkaterületre.
resources:
dashboards:
nyc_taxi_trip_analysis:
display_name: 'NYC Taxi Trip Analysis'
file_path: ../src/nyc_taxi_trip_analysis.lvdash.json
warehouse_id: ${var.warehouse_id}
adatbázis_katalógus
Type: Map
Az adatbáziskatalógus-erőforrás lehetővé teszi a csomagban lévő adatbázispéldányoknak megfelelő adatbázis-katalógusok meghatározását. Az adatbáziskatalógus egy Olyan Lakebase-adatbázis, amely Unity-katalógus-katalógusként van regisztrálva.
Az adatbáziskatalógusokról további információt a Katalógus létrehozása című témakörben talál.
Hozzáadva a Databricks CLI 0.265.0-s verziójához
database_catalogs:
<database_catalog-name>:
<database_catalog-field-name>: <database_catalog-field-value>
| Key | Típus | Description |
|---|---|---|
create_database_if_not_exists |
logikai | Az adatbázis létrehozása, ha nem létezik. Hozzáadva a Databricks CLI 0.265.0-s verziójához |
database_instance_name |
String | Az adatbázist fenntartó példány neve. Hozzáadva a Databricks CLI 0.265.0-s verziójához |
database_name |
String | A katalógushoz társított adatbázis neve (egy példányban). Hozzáadva a Databricks CLI 0.265.0-s verziójához |
lifecycle |
Map | Az erőforrás életciklus-beállításait tartalmazza, beleértve az erőforrás viselkedését az üzembe helyezéskor vagy megsemmisítéskor. Lásd az életciklust. Hozzáadva a Databricks CLI 0.265.0-s verziójához |
name |
String | A katalógus neve a Unity Katalógusban. Hozzáadva a Databricks CLI 0.265.0-s verziójához |
Example
Az alábbi példa egy adatbázispéldányt határoz meg egy megfelelő adatbáziskatalógussal:
resources:
database_instances:
my_instance:
name: my-instance
capacity: CU_1
database_catalogs:
my_catalog:
database_instance_name: ${resources.database_instances.my_instance.name}
name: example_catalog
database_name: my_database
create_database_if_not_exists: true
adatbázis_példány
Type: Map
Az adatbázispéldány-erőforrás lehetővé teszi, hogy egy csomagban definiálja az adatbázispéldányokat . A Lakebase-adatbázispéldányok kezelik a tárolási és számítási erőforrásokat, és biztosítják a végpontokat, amelyekhez a felhasználók csatlakoznak.
Fontos
Amikor adatbázispéldányt tartalmazó csomagot helyez üzembe, a példány azonnal elindul, és díjszabás vonatkozik rá. Lásd a Lakebase díjszabását.
Az adatbázispéldányokról további információt a Mi az adatbázispéldány? című témakörben talál.
Hozzáadva a Databricks CLI 0.265.0-s verziójához
database_instances:
<database_instance-name>:
<database_instance-field-name>: <database_instance-field-value>
| Key | Típus | Description |
|---|---|---|
capacity |
String | A példány termékváltozata. Az érvényes értékek a következők: CU_1, CU_2, CU_4, CU_8.Hozzáadva a Databricks CLI 0.265.0-s verziójához |
custom_tags |
Sequence | A példányhoz társított egyéni címkéket meghatározó kulcs-érték párok listája. Hozzáadva a Databricks CLI 0.273.0-s verziójához |
enable_pg_native_login |
logikai | Azt jelzi, hogy a példányon engedélyezve van-e a PG natív jelszavas bejelentkezése. Alapértelmezett érték: true.Hozzáadva a Databricks CLI 0.267.0-s verziójához |
enable_readable_secondaries |
logikai | A csak olvasható forgalom kiszolgálásának engedélyezése a másodfokú fájlok számára. Alapértelmezett érték: false.Hozzáadva a Databricks CLI 0.265.0-s verziójához |
lifecycle |
Map | Az erőforrás életciklus-beállításait tartalmazza. Ez szabályozza az erőforrás viselkedését az üzembe helyezéskor vagy megsemmisítéskor. Lásd az életciklust. Hozzáadva a Databricks CLI 0.268.0-s verziójához |
name |
String | A példány neve. Ez a példány egyedi azonosítója. Hozzáadva a Databricks CLI 0.265.0-s verziójához |
node_count |
Integer | A példány csomópontjainak száma, amely 1 elsődleges és 0 vagy több másodpéldányból áll. Alapértelmezés szerint 1 elsődleges és 0 másodfokú. Hozzáadva a Databricks CLI 0.265.0-s verziójához |
parent_instance_ref |
Map | A szülő instance hivatkozása. Ez csak akkor érhető el, ha a példány gyermekpéldány. Lásd a szülőpéldányt. Hozzáadva a Databricks CLI 0.265.0-s verziójához |
permissions |
Sequence | Az adatbázispéldány engedélyei. Tekintse meg az engedélyeket. Hozzáadva a Databricks CLI 0.265.0-s verziójához |
retention_window_in_days |
Integer | A példány adatmegőrzési ideje. Ez az az időablak napokban, amelyekben az előzményadatok megmaradnak. Az alapértelmezett érték 7 nap. Az érvényes értékek 2–35 nap. Hozzáadva a Databricks CLI 0.265.0-s verziójához |
stopped |
logikai | Azt jelzi, hogy a példány le van-e állítva. Hozzáadva a Databricks CLI 0.265.0-s verziójához |
usage_policy_id |
String | Az a használati szabályzat, amelyet a példánnyal szeretnénk társítani. Hozzáadva a Databricks CLI 0.273.0-s verziójához |
adatbázis_példány.szülő_példány_hivatkozás
Type: Map
A szülő instance hivatkozása. Ez csak akkor érhető el, ha a példány gyermekpéldány.
| Key | Típus | Description |
|---|---|---|
branch_time |
String | A referencia adatbázispéldány elágazási ideje. Szülő referencia példány esetén ez az időpont azon a szülőpéldányon, amelyből a példány létrejött. Gyermek referenciapéldány esetén ez az az időpont az példányon, amikor a gyermekpéldány létrehozásra került. |
lsn |
String | A ref adatbázispéldány felhasználó által megadott WAL LSN-azonosítója. |
name |
String | Az „ref” adatbázispéldány neve. |
Example
Az alábbi példa egy adatbázispéldányt határoz meg egy megfelelő adatbáziskatalógussal:
resources:
database_instances:
my_instance:
name: my-instance
capacity: CU_1
database_catalogs:
my_catalog:
database_instance_name: ${resources.database_instances.my_instance.name}
name: example_catalog
database_name: my_database
create_database_if_not_exists: true
Egy példacsomag, amely bemutatja, hogyan definiálhat adatbázispéldányt és megfelelő adatbáziskatalógust, tekintse meg a csomagpéldák GitHub-adattárát.
kísérlet
Type: Map
A kísérleterőforrás lehetővé teszi, hogy MLflow-kísérleteket egy csomagban definiáljon. További információ az MLflow-kísérletekről: Betanítási futtatások rendszerezése MLflow-kísérletekkel.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
experiments:
<experiment-name>:
<experiment-field-name>: <experiment-field-value>
| Key | Típus | Description |
|---|---|---|
artifact_location |
String | A kísérlet összetevőinek tárolási helye. Hozzáadva a Databricks CLI 0.229.0-s verziójához |
lifecycle |
Map | Az erőforrás életciklus-beállításait tartalmazza. Ez szabályozza az erőforrás viselkedését az üzembe helyezéskor vagy megsemmisítéskor. Lásd az életciklust. Hozzáadva a Databricks CLI 0.268.0-s verziójához |
name |
String | A kísérletet azonosító barátságos név. A kísérlet nevének például /Workspace/Users/someone@example.com/my_experimentabszolút elérési útnak kell lennie a Databricks-munkaterületen.Hozzáadva a Databricks CLI 0.229.0-s verziójához |
permissions |
Sequence | A kísérlet engedélyei. Tekintse meg az engedélyeket. Hozzáadva a Databricks CLI 0.229.0-s verziójához |
tags |
Sequence | További metaadatkulcs-érték párok.
Címkék megtekintése. Hozzáadva a Databricks CLI 0.229.0-s verziójához |
Example
Az alábbi példa egy olyan kísérletet határoz meg, amelyet minden felhasználó megtekinthet:
resources:
experiments:
experiment:
name: /Workspace/Users/someone@example.com/my_experiment
permissions:
- level: CAN_READ
group_name: users
description: MLflow experiment used to track runs
feladat
Type: Map
A feladatok támogatása biztosított Pythonban a Databricks eszközcsomagjai számára. Lásd : databricks.bundles.jobs.
A munkaforrás lehetővé teszi, hogy munkákat és azok hozzátartozó feladatait a csomagban definiálja.
A feladatokról további információt a Lakeflow-feladatok című témakörben talál. A Databricks-eszközcsomagok sablont használó oktatóanyagot a Databricks-eszközcsomagokkal végzett feladatfejlesztés című témakörben talál.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
jobs:
<job-name>:
<job-field-name>: <job-field-value>
| Key | Típus | Description |
|---|---|---|
budget_policy_id |
String | A feladathoz használandó, felhasználó által megadott költségvetési szabályzat azonosítója. Ha nincs megadva, a feladat létrehozásakor vagy módosításakor egy alapértelmezett költségvetési szabályzat alkalmazható. Tekintse meg effective_budget_policy_id ennek a számítási feladatnak a költségvetési szabályzatát.Hozzáadva a Databricks CLI 0.231.0-s verziójához |
continuous |
Map | A feladat opcionális folyamatos tulajdonsága. A folyamatos tulajdonság biztosítja, hogy mindig legyen futtatás. Csak az egyik használható a schedule és a continuous közül.
Folyamatos megtekintése.Hozzáadva a Databricks CLI 0.229.0-s verziójához |
deployment |
Map | A külső források által felügyelt feladatok üzembehelyezési információi. Lásd az üzembe helyezést. Hozzáadva a Databricks CLI 0.229.0-s verziójához |
description |
String | A feladat opcionális leírása. A maximális hossz 27700 karakter az UTF-8 kódolásban. Hozzáadva a Databricks CLI 0.229.0-s verziójához |
email_notifications |
Map | Választható e-mail-címkészlet, amely a feladat futtatásakor vagy befejezésekor, valamint a feladat törlésekor értesítést kap. Lásd : email_notifications. Hozzáadva a Databricks CLI 0.229.0-s verziójához |
environments |
Sequence | A feladat kiszolgáló nélküli tevékenységei által hivatkozott feladatvégző környezet specifikációinak listája. A kiszolgáló nélküli feladatokhoz környezet szükséges. Kiszolgáló nélküli jegyzetfüzet-feladatok esetén a környezet elérhető a jegyzetfüzet környezeti paneljén. Más kiszolgáló nélküli tevékenységek esetén a tevékenységkörnyezetet a tevékenységbeállítások environment_key használatával kell megadni.
Környezetek megtekintése. Hozzáadva a Databricks CLI 0.229.0-s verziójához |
format |
String | Deprecated. A feladat formátuma. |
git_source |
Map | A feladatok által használt forráskódot tartalmazó távoli Git-adattár opcionális specifikációja. Lásd : job.git_source. Hozzáadva a Databricks CLI 0.229.0-s verziójához Fontos: A git_source mező és a source tevékenységmező, amely GIT értékre van állítva, nem ajánlott kötegekhez, mert a helyi relatív elérési utak előfordulhat, hogy nem ugyanarra a tartalomra mutatnak a Git-adattárban, és a kötegek azt várják el, hogy az üzembe helyezett feladat tartalma megegyezzen a helyi példány tartalmával, ahonnan az üzembe helyezés történt.Ehelyett klónozza az adattárat helyileg, és állítsa be a csomagprojektet ebben az adattárban, hogy a feladatok forrása a munkaterület legyen. |
health |
Map | A feladathoz definiálható állapotszabályok választható készlete. Tekintse meg az egészséget. Hozzáadva a Databricks CLI 0.229.0-s verziójához |
job_clusters |
Sequence | A feladatfürt azon specifikációinak listája, amelyeket a feladat tevékenységei megoszthatnak és újra felhasználhatnak. Lásd : job_clusters. Hozzáadva a Databricks CLI 0.229.0-s verziójához |
lifecycle |
Map | Az erőforrás életciklus-beállításait tartalmazza. Ez szabályozza az erőforrás viselkedését az üzembe helyezéskor vagy megsemmisítéskor. Lásd az életciklust. Hozzáadva a Databricks CLI 0.268.0-s verziójához |
max_concurrent_runs |
Integer | A munka egyidejű futtatásainak opcionális, megengedett maximális száma. Állítsa be ezt az értéket, ha egyszerre több futtatás is végrehajtható ugyanabból a feladatból. |
name |
String | Egy nem kötelező név a munka számára. A maximális hossz 4096 bájt UTF-8 kódolásban. Hozzáadva a Databricks CLI 0.229.0-s verziójához |
notification_settings |
Map | Opcionális értesítési beállítások, amelyeket az email_notifications és webhook_notifications értesítések küldésekor használnak ehhez a feladathoz. Lásd : notification_settings.Hozzáadva a Databricks CLI 0.229.0-s verziójához |
parameters |
Sequence | Feladatszintű paraméterdefiníciók. Hozzáadva a Databricks CLI 0.229.0-s verziójához |
performance_target |
String | Meghatározza, hogy a kiszolgáló nélküli futtatás végrehajtása mennyire teljesíthető vagy költséghatékony legyen. Hozzáadva a Databricks CLI 0.241.0-s verziójához |
permissions |
Sequence | A feladat engedélyei. Tekintse meg az engedélyeket. Hozzáadva a Databricks CLI 0.229.0-s verziójához |
queue |
Map | A feladat sorbeállításai.
Üzenetsor megtekintése. Hozzáadva a Databricks CLI 0.229.0-s verziójához |
run_as |
Map | Csak írásos beállítás. Azt a felhasználót vagy szolgáltatásnevet adja meg, amelyként a feladat fut. Ha nincs megadva, a feladat a feladatot létrehozó felhasználóként fut. Vagy user_name meg kell adni, vagy service_principal_name meg kell adni. Ha nem, hibaüzenet jelenik meg. Lásd : run_as.Hozzáadva a Databricks CLI 0.229.0-s verziójához |
schedule |
Map | Ennek a feladatnak az opcionális időszakos ütemezése. Az alapértelmezett viselkedés az, hogy a feladat csak akkor fut le, ha a Feladatok kezelőfelületén a "Futtatás most" gombra kattint, vagy egy API-kérést küld az runNow-nak. Lásd az ütemezést.Hozzáadva a Databricks CLI 0.229.0-s verziójához |
tags |
Map | A feladathoz társított címkék térképe. Ezek a fürtre a feladatfürtök fürtcímkékként kerülnek továbbításra, és ugyanazokra a korlátozásokra vonatkoznak, mint a fürtcímkékre. A feladathoz legfeljebb 25 címke adható hozzá. Hozzáadva a Databricks CLI 0.229.0-s verziójához |
tasks |
Sequence | A feladat által végrehajtandó feladatspecifikációk listája. Lásd: Feladatok hozzáadása feladatokhoz a Databricks-eszközcsomagokban. Hozzáadva a Databricks CLI 0.237.0-s verziójához |
timeout_seconds |
Integer | Minden egyes futtatáshoz egy opcionális időkorlát van alkalmazva. Az érték 0 azt jelenti, hogy nincs időtúllépés.Hozzáadva a Databricks CLI 0.229.0-s verziójához |
trigger |
Map | A futtatás bizonyos feltételek teljesülése esetén történő aktiválására szolgáló konfiguráció. Lásd az eseményindítót. Hozzáadva a Databricks CLI 0.229.0-s verziójához |
usage_policy_id |
String | A feladathoz használandó használati szabályzat azonosítója. Hozzáadva a Databricks CLI 0.273.0-s verziójához |
webhook_notifications |
Map | Rendszerértesítési azonosítók gyűjteménye, amely értesíti a feladat futtatásainak kezdetét vagy befejezését. Lásd : webhook_notifications. Hozzáadva a Databricks CLI 0.229.0-s verziójához |
munka.folyamatos
Type: Map
Folyamatos feladatvégrehajtás konfigurálása.
| Key | Típus | Description |
|---|---|---|
pause_status |
String | Függetlenül attól, hogy a folyamatos feladat szüneteltetve van-e. Érvényes értékek: PAUSED, UNPAUSED. |
task_retry_mode |
String | Adja meg, hogy a folyamatos feladat hogyan alkalmazza a tevékenységszintű újrapróbálkozást. Az érvényes értékek a következők: NEVER és ON_FAILURE. Alapértelmezett érték: NEVER. |
munka.kibocsátás
Type: Map
A külső források által felügyelt feladatok üzembehelyezési információi.
| Key | Típus | Description |
|---|---|---|
kind |
String | Az üzembe helyezés típusa. Például: BUNDLE. |
metadata_file_path |
String | Az üzembe helyezés metaadatfájljának elérési útja. |
job.e-mail értesítések
Type: Map
A feladatfuttatások e-mail értesítési beállításai.
| Key | Típus | Description |
|---|---|---|
on_start |
Sequence | A futtatás indításakor értesítendő e-mail-címek listája. |
on_success |
Sequence | A futtatás sikeressége esetén értesítendő e-mail-címek listája. |
on_failure |
Sequence | A futtatás sikertelensége esetén értesítendő e-mail-címek listája. |
on_duration_warning_threshold_exceeded |
Sequence | Azoknak az e-mail-címeknek a listája, amely értesíti, ha egy futtatási időtartam túllépi a figyelmeztetési küszöbértéket. |
no_alert_for_skipped_runs |
logikai | Kihagyja-e a kihagyott futtatásokra vonatkozó riasztások küldését. |
on_streaming_backlog_exceeded |
Sequence | Azoknak az e-mail-címeknek a listája, amelyek értesítést küldenek arról, ha bármely streamnél túllépik a streamek hátralékának küszöbértékét. A streamelési teendőlista küszöbértékei a következő metrikák használatával állíthatók be a health mezőben: STREAMING_BACKLOG_BYTES, STREAMING_BACKLOG_RECORDS, STREAMING_BACKLOG_SECONDSvagy STREAMING_BACKLOG_FILES. A riasztás a metrikák 10 perces átlagán alapul. Ha a probléma továbbra is fennáll, az értesítések 30 percenként újraküldésre kerülnek. |
job.környezetek
Type: Sequence
A feladat kiszolgáló nélküli tevékenységei által hivatkozható feladat-végrehajtási környezet specifikációinak listája.
A lista minden eleme egy JobEnvironment.
| Key | Típus | Description |
|---|---|---|
environment_key |
String | Egy környezet kulcsa. Egy feladaton belül egyedinek kell lennie. |
spec |
Map | A kiszolgáló nélküli környezetet képviselő entitás. Lásd : job.environments.spec. |
job.environments.spec
Type: Map
A kiszolgáló nélküli környezetet képviselő entitás.
| Key | Típus | Description |
|---|---|---|
client |
String | Deprecated. Az ügyfél verziója. |
dependencies |
Sequence | A pip-függőségek listája a környezet pipverziója által támogatott módon. |
environment_version |
String | Szükséges. A környezet által használt környezeti verzió. Minden verzióhoz tartozik egy adott Python-verzió és egy Python-csomag. A verzió egy egész számból álló sztring. |
job.git_source
Type: Map
Git-adattár konfigurációja a feladat forráskódjához.
| Key | Típus | Description |
|---|---|---|
git_branch |
String | A feladat által kivett és használt ág neve. Ez a mező nem adható meg a következővel git_tag együtt: vagy git_commit. |
git_commit |
String | Véglegesítse a feladat kivételét és használatát. Ez a mező nem adható meg a következővel git_branch együtt: vagy git_tag. |
git_provider |
String | A Git-adattár üzemeltetéséhez használt szolgáltatás egyedi azonosítója. Az érték nem érzékeny a kis- és nagybetűkre. Az érvényes értékek a következőkgitHub: , bitbucketCloud, gitLab, azureDevOpsServices, gitHubEnterprisebitbucketServer. gitLabEnterpriseEdition |
git_snapshot |
Map | A távoli adattár írásvédett állapota a feladat futtatásakor. Ez a mező csak feladatfuttatásokon szerepel. Lásd : git_snapshot. |
git_tag |
String | A feladat által kivett és használt címke neve. Ez a mező nem adható meg a következővel git_branch együtt: vagy git_commit. |
git_url |
String | A feladat által klónozandó adattár URL-címe. |
job.git_source.git_snapshot
Type: Map
Csak olvasható véglegesítési információk pillanatképe.
| Key | Típus | Description |
|---|---|---|
used_commit |
String | A futtatás végrehajtásához használt véglegesítés. Ha git_branch meg van adva, ez a futtatáskor az ág FEJére mutat, ha git_tag meg van adva, ez a címkepontok véglegesítésére mutat. |
feladat.egészség
Type: Map
A feladat állapotmonitorozási konfigurációja.
| Key | Típus | Description |
|---|---|---|
rules |
Sequence | Munkafeladategészség-szabályok listája. Minden szabály tartalmaz egy metric és op (operátor) és value. Lásd job.health.rules. |
állás.egészség.szabályok
Type: Sequence
Munkafeladategészség-szabályok listája.
A lista minden eleme egy JobHealthRule.
| Key | Típus | Description |
|---|---|---|
metric |
String | Egy adott állapotszabályhoz kiértékelt állapotmetrikát adja meg.
|
op |
String | Az állapotmetrika értékének a megadott küszöbértékkel való összehasonlításához használt operátort adja meg. |
value |
Integer | Megadja azt a küszöbértéket, amelyet az állapotmetrikának teljesítenie kell az állapotszabálynak való megfelelés érdekében. |
job.job_csoportok
Type: Sequence
A feladatfürt azon specifikációinak listája, amelyeket a feladat tevékenységei megoszthatnak és újra felhasználhatnak. A tárak nem deklarálhatók megosztott feladatfürtökben. Függő kódtárakat kell deklarálnia a feladatbeállításokban.
A lista minden eleme egy JobCluster.
| Key | Típus | Description |
|---|---|---|
job_cluster_key |
String | A feladatfürt egyedi neve. Ez a mező kötelező, és a feladaton belül egyedinek kell lennie.
JobTaskSettings erre a mezőre hivatkozva meghatározhatja, hogy melyik fürtöt kell elindítani a feladat végrehajtásához. |
new_cluster |
Map | Ha new_cluster, az egyes tevékenységekhez létrehozott fürt leírása. Lásd a klasztert. |
munka.értesítési_beállítások
Type: Map
A feladat összes értesítésére vonatkozó értesítési beállítások.
| Key | Típus | Description |
|---|---|---|
no_alert_for_skipped_runs |
logikai | Kihagyja-e a kihagyott futtatásokra vonatkozó riasztások küldését. |
no_alert_for_canceled_runs |
logikai | A megszakított futtatásokra vonatkozó riasztások küldésének kihagyása. |
feladat.sor
Type: Map
A feladat sorbeállításai.
| Key | Típus | Description |
|---|---|---|
enabled |
logikai | Azon, hogy lehetőség legyen a feladat várólistájának engedélyezésére. |
feladat.ütemezése
Type: Map
Konfigurálás ütemezése az időszakos feladatvégrehajtáshoz.
| Key | Típus | Description |
|---|---|---|
quartz_cron_expression |
String | Cron-kifejezés kvarcszintaxissal, amely meghatározza, hogy mikor fut a feladat. A feladatot például 0 0 9 * * ? minden nap 9:00-kor (UTC) futtatja. |
timezone_id |
String | Az ütemezés időzónája. Például, America/Los_Angeles vagy UTC. |
pause_status |
String | Az ütemezés szüneteltetve van-e. Érvényes értékek: PAUSED, UNPAUSED. |
feladat.aktiváló
Type: Map
Eseményvezérelt feladatvégrehajtás indításának konfigurációja.
| Key | Típus | Description |
|---|---|---|
file_arrival |
Map | Eseményindító a fájl érkezése alapján. Lásd file_arrival. |
table |
Map | Eseményindító tábla alapján. Lásd a táblázatot. |
table_update |
Map | Triggerek táblafrissítések alapján. Lásd table_update. |
periodic |
Map | Időszakos indító. Lásd : periodikus. |
munka.feladat.indítás.fájl_érkezése
Type: Map
A fájl érkezése alapján aktiválja a konfigurációt.
| Key | Típus | Description |
|---|---|---|
url |
String | Az új fájlok figyelésére szolgáló fájl elérési útja. |
min_time_between_triggers_seconds |
Integer | A triggeresemények közötti minimális idő másodpercben. |
wait_after_last_change_seconds |
Integer | Várakozási idő másodpercben az utolsó fájlmódosítás után az aktiválás előtt. |
feladat.kiváltó.tábla
Type: Map
A trigger konfigurációja a tábla alapján történik.
| Key | Típus | Description |
|---|---|---|
table_names |
Sequence | A figyelendő táblanevek listája. |
condition |
String | A feladat aktiválásához teljesítendő SQL-feltétel. |
feladat.kiváltó.tábla_frissítés
Type: Map
A táblafrissítések alapján aktiválja a konfigurációt.
| Key | Típus | Description |
|---|---|---|
table_names |
Sequence | A frissítések figyeléséhez monitorozni kívánt táblanevek listája. |
condition |
String | A feladat aktiválásához teljesítendő SQL-feltétel. |
wait_after_last_change_seconds |
Integer | Várakozási idő másodpercben az utolsó táblafrissítés után az aktiválás előtt. |
feladat.kioldás.időszakos
Type: Map
Időszakos triggerkonfiguráció.
| Key | Típus | Description |
|---|---|---|
interval |
Integer | A rendszeres eseményindító intervallumértéke. |
unit |
String | Az intervallum időegysége. Érvényes értékek: SECONDS, MINUTES, HOURS, DAYS. WEEKS |
job.webhook_értesítések
Type: Map
Webhook értesítési beállításai feladatfuttatásokhoz.
| Key | Típus | Description |
|---|---|---|
on_start |
Sequence | A futtatás indításakor értesítendő webhook-értesítési azonosítók listája. |
on_success |
Sequence | A futtatás sikeressége esetén értesítendő webhook-értesítési azonosítók listája. |
on_failure |
Sequence | A futtatás sikertelensége esetén értesítendő webhook-értesítési azonosítók listája. |
on_duration_warning_threshold_exceeded |
Sequence | A webhook értesítési azonosítóinak listája, amely értesíti, ha egy futtatási időtartam túllépi a figyelmeztetési küszöbértéket. |
on_streaming_backlog_exceeded |
Sequence | Azon rendszerértesítési azonosítók listája, amelyek meghívhatók, ha bármely stream esetében túllépik a streameléssel kapcsolatos hátralék küszöbértékét. A streamelési teendőlista küszöbértékei a következő metrikák használatával állíthatók be a health mezőben: STREAMING_BACKLOG_BYTES, STREAMING_BACKLOG_RECORDS, STREAMING_BACKLOG_SECONDSvagy STREAMING_BACKLOG_FILES. A riasztás a metrikák 10 perces átlagán alapul. Ha a probléma továbbra is fennáll, az értesítések 30 percenként újraküldésre kerülnek. Legfeljebb 3 célhely adható meg. |
Examples
Az alábbi példa meghatároz egy munkát az hello-job erőforrás kulcsával, amely egy jegyzetfüzet-feladatot tartalmaz:
resources:
jobs:
hello-job:
name: hello-job
tasks:
- task_key: hello-task
notebook_task:
notebook_path: ./hello.py
Az alábbi példa egy SQL-jegyzetfüzettel rendelkező feladatot határoz meg:
resources:
jobs:
job_with_sql_notebook:
name: 'Job to demonstrate using a SQL notebook with a SQL warehouse'
tasks:
- task_key: notebook
notebook_task:
notebook_path: ./select.sql
warehouse_id: 799f096837fzzzz4
További feladatkonfigurációs példákért lásd: Feladatkonfiguráció.
A feladatfeladatok meghatározásával és a feladatbeállítások felülbírálásával kapcsolatos információkért lásd:
- Tevékenységek hozzáadása feladatokhoz a Databricks-eszközcsomagokban
- Feladatfeladat-beállítások felülbírálása
modell (örökölt)
Type: Map
A modellerőforrás lehetővé teszi, hogy örökölt modelleket kötegekben definiálja. A Databricks inkább azt javasolja, hogy a Unity Catalog által regisztrált modelleket használja.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
modellszolgáltatási végpont
Type: Map
A model_serving_endpoint erőforrás lehetővé teszi modellek kiszolgálási végpontjainak definiálását. Lásd: Végpontokat kiszolgáló modell kezelése.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
model_serving_endpoints:
<model_serving_endpoint-name>:
<model_serving_endpoint-field-name>: <model_serving_endpoint-field-value>
| Key | Típus | Description |
|---|---|---|
ai_gateway |
Map | A kiszolgáló végpont AI Gateway-konfigurációja. MEGJEGYZÉS: Jelenleg csak a külső modell és a kiépített átviteli sebesség végpontjai támogatottak. Lásd : ai_gateway. Hozzáadva a Databricks CLI 0.230.0-s verziójához |
budget_policy_id |
String | A végponthoz használandó költségvetési szabályzat azonosítója. Hozzáadva a Databricks CLI 0.244.0-s verziójához |
config |
Map | A kiszolgáló végpont alapkonfigurációja. Lásd a konfigurációt. Hozzáadva a Databricks CLI 0.229.0-s verziójához |
description |
String | A kiszolgáló végpont leírása. Hozzáadva a Databricks CLI 0.260.0-s verziójához |
email_notifications |
Map | E-mail-értesítések konfigurációja a kiszolgáló végponthoz. Lásd : email_notifications. Hozzáadva a Databricks CLI 0.264.0-s verziójához |
lifecycle |
Map | Az erőforrás életciklus-beállításait tartalmazza. Ez szabályozza az erőforrás viselkedését az üzembe helyezéskor vagy megsemmisítéskor. Lásd az életciklust. Hozzáadva a Databricks CLI 0.268.0-s verziójához |
name |
String | A kiszolgáló végpont neve. Ez a mező kötelező, és egyedinek kell lennie egy Databricks-munkaterületen. A végpontnevek alfanumerikus karakterekből, kötőjelekből és aláhúzásjelekből állhatnak. Hozzáadva a Databricks CLI 0.229.0-s verziójához |
permissions |
Sequence | A végpont engedélyeit kiszolgáló modell. Tekintse meg az engedélyeket. Hozzáadva a Databricks CLI 0.229.0-s verziójához |
rate_limits |
Sequence | Deprecated. A kiszolgáló végpontra alkalmazandó sebességkorlátok. A sebességkorlátok kezeléséhez használja az AI-átjárót. Hozzáadva a Databricks CLI 0.229.0-s verziójához |
route_optimized |
logikai | A kiszolgáló végpont útvonaloptimalizálásának engedélyezése. Hozzáadva a Databricks CLI 0.229.0-s verziójához |
tags |
Sequence | A kiszolgáló végponthoz csatolandó és a számlázási naplókba automatikusan propagált címkék. Hozzáadva a Databricks CLI 0.229.0-s verziójához |
model_serving_endpoint.email_notifications
Type: Map
E-mail-értesítések konfigurációja a kiszolgáló végponthoz.
| Key | Típus | Description |
|---|---|---|
on_update_failure |
Sequence | Azon e-mail-címek listája, amelyről értesítést kell kapnia, ha egy végpont nem frissíti a konfigurációját vagy állapotát. |
on_update_success |
Sequence | A végpont konfigurációjának vagy állapotának sikeres frissítésekről értesítendő e-mail-címek listája. |
modell_kiszolgáló_végpont.ai_átjáró
Type: Map
AI-átjáró konfigurációja a kiszolgáló végponthoz.
| Key | Típus | Description |
|---|---|---|
fallback_config |
Map | Olyan forgalom-tartalék konfigurációja, amely automatikusan visszaáll más kiszolgált entitásokra, ha a kiszolgált entitásra irányuló kérés bizonyos hibakódokkal meghiúsul, a rendelkezésre állás növelése érdekében. Lásd : fallback_config. |
guardrails |
Map | Védőkorlát konfigurációja. Lásd a védőkorlátokat. |
inference_table_config |
Map | Konfigurálás a Unity Catalog-táblákba történő következtetésnaplózáshoz. Lásd inference_table_config. |
rate_limits |
Sequence | Sebességkorlát-konfigurációk. |
usage_tracking_config |
Map | A használat nyomon követésének konfigurációja. Lásd usage_tracking_config. |
model_serving_endpoint.ai_gateway.fallback_config
Type: Map
A forgalom-visszavétel konfigurációja, amely automatikusan visszaesik más kiszolgált entitásokra, ha egy kérés bizonyos hibakódokkal meghiúsul.
| Key | Típus | Description |
|---|---|---|
enabled |
logikai | Azt jelzi, hogy a tartalék szolgáltatás engedélyezve van-e ehhez a végponthoz. |
model_serving_endpoint.ai_gateway.védőkorlátok
Type: Map
Az AI-átjáró védőkorlátjának konfigurációja.
| Key | Típus | Description |
|---|---|---|
input |
Map | A bemeneti védőkorlátok konfigurációja olyan mezőkkel, mint a safety: pii. |
output |
Map | A kimeneti védőkorlátok konfigurációja olyan mezőkkel, mint a safety: pii. |
invalid_keywords |
Sequence | A letiltandó kulcsszavak listája. |
model_serving_endpoint.ai_gateway.inference_table_config
Type: Map
Konfigurálás a Unity Catalog-táblákba történő következtetésnaplózáshoz.
| Key | Típus | Description |
|---|---|---|
catalog_name |
String | A katalógus neve a Unity Katalógusban. |
schema_name |
String | A séma neve a Unity Catalogban. |
table_name_prefix |
String | A következtetési táblanevek előtagja. |
enabled |
logikai | Azt jelzi, hogy engedélyezve van-e a következtetési tábla naplózása. |
modellkiszolgáló_végpont.ai_átjáró.használat_követési_konfiguráció
Type: Map
Az AI-átjáró konfigurációja a használat nyomon követéséhez.
| Key | Típus | Description |
|---|---|---|
enabled |
logikai | Engedélyezve van-e a használatkövetés. |
model_serving_endpoint.config
Type: Map
A kiszolgáló végpont alapkonfigurációja.
| Key | Típus | Description |
|---|---|---|
served_entities |
Sequence | A végpont kiszolgálandó entitásainak listája. Minden kiszolgált entitás olyan mezőket tartalmaz, mint a entity_name, entity_version, workload_size, scale_to_zero_enabled, workload_typeenvironment_vars. |
served_models |
Sequence | (Elavult: használja served_entities inkább) A végpont kiszolgálandó modelljeinek listája. |
traffic_config |
Map | A forgalomkonfiguráció határozza meg, hogyan kell átirányítani a kiszolgáló végpontra történő hívásokat. Lásd traffic_config. |
auto_capture_config |
Map | Konfigurálás következtetési táblákhoz, amelyek automatikusan naplóznak kéréseket és válaszokat a Unity Catalogba. Lásd : auto_capture_config. |
model_serving_endpoint.konfiguráció.forgalom_konfiguráció
Type: Map
A forgalomkonfiguráció határozza meg, hogyan kell átirányítani a kiszolgáló végpontra történő hívásokat.
| Key | Típus | Description |
|---|---|---|
routes |
Sequence | A forgalomelosztás útvonalainak listája. Minden útvonal tartalmaz served_model_name és traffic_percentage. |
model_serving_endpoint.config.auto_capture_config
Type: Map
Konfigurálás következtetési táblákhoz, amelyek automatikusan naplóznak kéréseket és válaszokat a Unity Catalogba.
| Key | Típus | Description |
|---|---|---|
catalog_name |
String | A katalógus neve a Unity Katalógusban. |
schema_name |
String | A séma neve a Unity Catalogban. |
table_name_prefix |
String | A következtetési táblanevek előtagja. |
enabled |
logikai | Azt jelzi, hogy engedélyezve van-e a következtetési tábla naplózása. |
Example
Az alábbi példa egy végpontot kiszolgáló Unity Catalog-modellt határoz meg:
resources:
model_serving_endpoints:
uc_model_serving_endpoint:
name: 'uc-model-endpoint'
config:
served_entities:
- entity_name: 'myCatalog.mySchema.my-ads-model'
entity_version: '10'
workload_size: 'Small'
scale_to_zero_enabled: 'true'
traffic_config:
routes:
- served_model_name: 'my-ads-model-10'
traffic_percentage: '100'
tags:
- key: 'team'
value: 'data science'
adatfolyam
Type: Map
A folyamatok támogatottak a Python for Databricks Asset Bundlesben. Lásd : databricks.bundles.pipelines.
A pipeline-erőforrás lehetővé teszi pipeline-ek létrehozását. A folyamatokról további információt a Lakeflow Spark Deklaratív folyamatok című témakörben talál. A Databricks Asset Bundles-sablont egy folyamat létrehozásához használó oktatóanyagért lásd: Lakeflow Spark Deklaratív folyamatok fejlesztése Databricks-eszközcsomagokkal.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
pipelines:
<pipeline-name>:
<pipeline-field-name>: <pipeline-field-value>
| Key | Típus | Description |
|---|---|---|
allow_duplicate_names |
logikai | Ha hamis, az üzembe helyezés meghiúsul, ha a név ütközik egy másik folyamat nevével. Hozzáadva a Databricks CLI 0.261.0-s verziójához |
budget_policy_id |
String | A folyamat költségvetési szabályzata. Hozzáadva a Databricks CLI 0.230.0-s verziójához |
catalog |
String | Egy katalógus a Unity Catalogon belül, amelybe ennek a folyamatnak az adatai lesznek közzétéve. Ha target meg van adva, a folyamat táblái közzé lesznek téve egy target sémában catalog (például catalog.target.table). Ha target nincs megadva, a Rendszer nem teszi közzé az adatokat a Unity Catalogban.Hozzáadva a Databricks CLI 0.229.0-s verziójához |
channel |
String | A Lakeflow Spark Deklaratív folyamatok kiadási csatornája meghatározza, melyik verzióját használja a Lakeflow Spark deklaratív folyamatoknak. Hozzáadva a Databricks CLI 0.229.0-s verziójához |
clusters |
Sequence | A csővezeték-telepítés fürtbeállításai. Lásd a klasztert. Hozzáadva a Databricks CLI 0.229.0-s verziójához |
configuration |
Map | A folyamat végrehajtásának konfigurációja. Hozzáadva a Databricks CLI 0.229.0-s verziójához |
continuous |
logikai | A csővezeték folyamatos vagy aktivált állapotú-e. Ez triggerhelyébe lép.Hozzáadva a Databricks CLI 0.229.0-s verziójához |
deployment |
Map | Az üzembehelyezési csővezeték típusa. Lásd az üzembe helyezést. Hozzáadva a Databricks CLI 0.229.0-s verziójához |
development |
logikai | Azt jelzi, hogy a folyamat fejlesztési módban van-e. Alapértelmezés szerint hamis. Hozzáadva a Databricks CLI 0.229.0-s verziójához |
dry_run |
logikai | Azt jelzi, hogy a folyamat száraz futtatási folyamat-e. |
edition |
String | A folyamat termékverziója. Hozzáadva a Databricks CLI 0.229.0-s verziójához |
environment |
Map | Ennek a folyamatnak a környezeti specifikációja a kiszolgáló nélküli számítás függőségeinek telepítéséhez használatos. Lásd a környezetet. Ez a kulcs csak a Databricks CLI 0.258-es vagy újabb verziójában támogatott. Hozzáadva a Databricks CLI 0.257.0-s verziójához |
event_log |
Map | A folyamat eseménynapló-konfigurációja. Lásd : event_log. Hozzáadva a Databricks CLI 0.246.0-s verziójához |
filters |
Map | Azok a szűrők, amelyek meghatározzák, hogy mely folyamatcsomagok szerepeljenek az üzembe helyezett gráfban.
Szűrők megtekintése. Hozzáadva a Databricks CLI 0.229.0-s verziójához |
gateway_definition |
Map | Az átjárófolyamat konfigurációja. Ezek a beállítások nem használhatók a ingestion_definition beállításokkal.Hozzáadva a Databricks CLI 0.229.0-s verziójához |
id |
String | Az adatfolyam egyedi azonosítója. Hozzáadva a Databricks CLI 0.229.0-s verziójához |
ingestion_definition |
Map | A felügyelt betöltési folyamat konfigurációja. Ezek a beállítások nem használhatók a libraries, schema, targetvagy catalog a beállításokkal. Lásd ingestion_definition.Hozzáadva a Databricks CLI 0.229.0-s verziójához |
libraries |
Sequence | Az üzembe helyezéshez szükséges könyvtárak vagy kód listája. Lásd: pipeline.libraries. Hozzáadva a Databricks CLI 0.229.0-s verziójához |
lifecycle |
Map | Az erőforrás életciklus-beállításait tartalmazza. Ez szabályozza az erőforrás viselkedését az üzembe helyezéskor vagy megsemmisítéskor. Lásd az életciklust. Hozzáadva a Databricks CLI 0.268.0-s verziójához |
name |
String | A csővezeték barátságos neve. Hozzáadva a Databricks CLI 0.229.0-s verziójához |
notifications |
Sequence | A folyamat értesítési beállításai. Tekintse meg az értesítéseket. Hozzáadva a Databricks CLI 0.229.0-s verziójához |
permissions |
Sequence | A csővezeték engedélyei. Tekintse meg az engedélyeket. Hozzáadva a Databricks CLI 0.229.0-s verziójához |
photon |
logikai | Azt jelzi, hogy a Photon engedélyezve van-e ehhez a folyamathoz. Ezt a kulcsot a rendszer figyelmen kívül hagyja, ha serverless be van állítva true.Hozzáadva a Databricks CLI 0.229.0-s verziójához |
restart_window |
Map | A folyamat újraindítási ablakának definiálása. A folyamatok ebben az ablakban anélkül indíthatók újra, hogy lemaradnak. |
root_path |
String | A pipeline gyökérútvonala. Ez lesz a gyökérkönyvtár a Databricks felhasználói felületén végzett folyamat szerkesztésekor, és a rendszer hozzáadja a sys.path fájlhoz, amikor Python-forrásokat futtat a folyamat végrehajtása során. Hozzáadva a Databricks CLI 0.253.0-s verziójához |
run_as |
Map | A csővezeték által használt identitás. Ha nincs megadva, a folyamat a folyamatot létrehozó felhasználóként fut. Csak user_name vagy service_principal_name megadható. Ha mindkettő meg van adva, a rendszer hibát jelez. Lásd : run_as.Hozzáadva a Databricks CLI 0.241.0-s verziójához |
schema |
String | Az alapértelmezett séma (adatbázis), amelybe a táblák beolvashatók vagy közzétehetők. Hozzáadva a Databricks CLI 0.230.0-s verziójához |
serverless |
logikai | A kiszolgáló nélküli számítás engedélyezve van-e ehhez a folyamathoz. Hozzáadva a Databricks CLI 0.229.0-s verziójához |
storage |
String | Az ellenőrzőpontok és táblák tárolására szolgáló DBFS gyökérkönyvtár. Hozzáadva a Databricks CLI 0.229.0-s verziójához |
tags |
Map | A folyamathoz társított címkék térképe. Ezek fürtcímkékként vannak továbbítva a fürtnek, ezért ugyanazokra a korlátozásokra vonatkoznak. Legfeljebb 25 címke adható hozzá a folyamathoz. Hozzáadva a Databricks CLI 0.256.0-s verziójához |
target |
String | Célséma (adatbázis) a folyamat tábláinak hozzáadásához. Pontosan az egyiket meg kell adni: schema vagy target. A Unity Catalogban való közzétételhez adja meg catalog azt is. Ez az örökölt mező elavult a folyamatlétrehozáshoz a schema mező javára.Hozzáadva a Databricks CLI 0.229.0-s verziójához |
usage_policy_id |
String | A folyamathoz használandó használati szabályzat azonosítója. Hozzáadva a Databricks CLI 0.273.0-s verziójához |
csővezeték.telepítés
Type: Map
A folyamat üzembehelyezési típusának konfigurálása.
| Key | Típus | Description |
|---|---|---|
kind |
String | Az üzembe helyezés típusa. Például: BUNDLE. |
metadata_file_path |
String | Az üzembe helyezés metaadatfájljának elérési útja. |
csővezeték.környezet
Type: Map
Környezeti specifikáció a kiszolgáló nélküli számítás függőségeinek telepítéséhez.
| Key | Típus | Description |
|---|---|---|
dependencies |
Sequence | A környezetben lévő pip verzió által támogatott pip-függőségek listája. Minden függőség egy pipkövetelmény-fájlsor. |
pipeline.eseménynapló
Type: Map
A folyamat eseménynapló-konfigurációja.
| Key | Típus | Description |
|---|---|---|
catalog |
String | A Unity Katalógus, amely alatt az eseménynapló közzé van téve. |
name |
String | Az eseménynapló neve közzé lesz téve a Unity Katalógusban. |
schema |
String | A Unity Catalog sémája, amelyben az eseménynapló közzé van téve. |
pipeline.szűrők
Type: Map
Szűrők, amelyek meghatározzák, hogy mely folyamatcsomagok szerepeljenek az üzembe helyezett gráfban.
| Key | Típus | Description |
|---|---|---|
include |
Sequence | A belefoglalandó csomagnevek listája. |
exclude |
Sequence | A kizárandó csomagnevek listája. |
csővezeték.beviteli_definíció
Type: Map
Felügyelt befogadási csővezeték konfigurálása. Ezek a beállítások nem használhatók a libraries, schema, targetvagy catalog a beállításokkal.
| Key | Típus | Description |
|---|---|---|
connection_name |
String | A betöltéshez használandó kapcsolat neve. |
ingestion_gateway_id |
String | Az ingestion gateway azonosítója. |
objects |
Sequence | Szükséges. A replikálni kívánt táblákat és a replikált táblák célhelyét meghatározó beállítások. Minden objektum lehet SchemaSpec, TableSpec vagy ReportSpec. |
source_configurations |
Sequence | Legfelső szintű forráskonfigurációk. |
table_configuration |
Map | A betöltési táblák konfigurációja. Lásd table_configuration. |
SémaSpecifikáció
Type: Map
Sémaobjektum-specifikáció az összes tábla sémaból való betöltéséhez.
| Key | Típus | Description |
|---|---|---|
source_schema |
String | A bemeneti forrásséma neve. |
destination_catalog |
String | A Unity Katalógus célkatalógusának neve. |
destination_schema |
String | A célséma neve a Unity Catalogban. |
table_configuration |
Map | A séma összes táblájának alkalmazásához használható konfiguráció. Lásd pipeline.ingestion_definition.table_configuration. |
TableSpec
Type: Map
Táblaobjektum-specifikáció egy adott tábla betöltéséhez.
| Key | Típus | Description |
|---|---|---|
source_schema |
String | A táblát tartalmazó forrásséma neve. |
source_table |
String | A beolvasandó forrásadattábla neve. |
destination_catalog |
String | A Unity Katalógus célkatalógusának neve. |
destination_schema |
String | A célséma neve a Unity Catalogban. |
destination_table |
String | A célállomás táblaneve a Unity Catalogban. |
table_configuration |
Map | Az adott tábla konfigurációja. Lásd pipeline.ingestion_definition.table_configuration. |
ReportSpec
Type: Map
Jelentésobjektum specifikáció analitikai jelentések beolvasásához.
| Key | Típus | Description |
|---|---|---|
source_url |
String | A forrásjelentés URL-címe. |
source_report |
String | A forrásjelentés neve vagy azonosítója. |
destination_catalog |
String | A Unity Katalógus célkatalógusának neve. |
destination_schema |
String | A célséma neve a Unity Catalogban. |
destination_table |
String | A jelentésadatok céltáblájának neve. |
table_configuration |
Map | A jelentéstábla konfigurációja. Lásd pipeline.ingestion_definition.table_configuration. |
pipeline.ingestion_definition.source_configurations
Type: Map
A forrás konfigurációja.
| Key | Típus | Description |
|---|---|---|
catalog |
Map | Katalógusszintű forráskonfigurációs paraméterek. Lásd a katalógust. |
csővezeték.beviteli_definíció.forrás_konfiguráció.katalógus
Type: Map
Katalógusszintű forráskonfigurációs paraméterek
| Key | Típus | Description |
|---|---|---|
postgres |
Map | Postgres-specifikus katalógusszintű konfigurációs paraméterek. Egy slot_config olyan kulcsot tartalmaz, amely Map a Postgres foglalat logikai replikációhoz használható konfigurációját jelöli. |
source_catalog |
String | A forráskatalógus neve. |
pipeline.bevitel_definíció.táblakonfiguráció
Type: Map
A betöltési táblák konfigurációs beállításai.
| Key | Típus | Description |
|---|---|---|
exclude_columns |
Sequence | Az oszlopnevek listája, melyeket ki kell zárni a betöltési folyamat során. Ha nincs megadva, a include_columns teljes mértékben szabályozza a betöltendő oszlopokat. Ha meg van adva, a rendszer automatikusan belefoglalja az összes többi oszlopot, beleértve a jövőbeli oszlopokat is, az adatbevitelhez. Ez a mező kölcsönösen kizárólagos ezzel: include_columns. |
include_columns |
Sequence | A betöltéshez felveendő oszlopnevek listája. Ha nincs megadva, a program az összes oszlopot tartalmazza, kivéve a benne lévőket exclude_columns . A jövőbeli oszlopok automatikusan megjelennek. Ha meg van adva, a rendszer automatikusan kizárja az összes többi jövőbeli oszlopot a betöltésből. Ez a mező kölcsönösen kizárólagos ezzel: exclude_columns. |
primary_keys |
Sequence | A tábla elsődleges kulcsaként használandó oszlopnevek listája. |
sequence_by |
Sequence | A forrásadatokban szereplő események logikai sorrendjét meghatározó oszlopnevek. A Spark deklaratív csővezetékei a szekvenálás használatával kezelik a sorrenden kívül érkező változási eseményeket. |
csővezeték.könyvtárak
Type: Sequence
Meghatározza a folyamathoz szükséges könyvtárak vagy kódok listáját.
A lista minden eleme definíció:
| Key | Típus | Description |
|---|---|---|
file |
Map | A Databricks-adattárakban tárolt és egy pipeline-ot meghatározó fájl elérési útvonala. Lásd pipeline.libraries.file. |
glob |
Map | Az egyesített mező, amely tartalmazza a forráskódot. Minden bejegyzés lehet egy jegyzetfüzet elérési útja, egy fájl elérési útja vagy egy mappa elérési útja, amely véget ér /**. Ez a mező nem használható együtt a notebook vagy a file elemekkel. Lásd : pipeline.libraries.glob. |
notebook |
Map | A folyamatot meghatározó és a Databricks-munkaterületen tárolt jegyzetfüzet elérési útja. Lásd: pipeline.libraries.notebook. |
whl |
String | Ez a mező elavult |
pipeline.libraries.file
Type: Map
Egy folyamatot meghatározó és a Databricks-adattárban tárolt fájl elérési útja.
| Key | Típus | Description |
|---|---|---|
path |
String | A forráskód abszolút elérési útja. |
pipeline.libraries.glob
Type: Map
Az egyesített mező, amely tartalmazza a forráskódot. Minden bejegyzés lehet egy jegyzetfüzet elérési útja, egy fájl elérési útja vagy egy mappa elérési útja, amely véget ér /**. Ez a mező nem használható együtt a notebook vagy a file elemekkel.
| Key | Típus | Description |
|---|---|---|
include |
String | A pipelínekhez hozzáadandó forráskód |
csővezeték.könyvtárak.jegyzetfüzet
Type: Map
A folyamatot meghatározó és a Databricks-munkaterületen tárolt jegyzetfüzet elérési útja.
| Key | Típus | Description |
|---|---|---|
path |
String | A forráskód abszolút elérési útja. |
pipeline.notifications
Type: Sequence
A folyamat értesítési beállításai. A sorozat minden eleme egy értesítési konfiguráció.
| Key | Típus | Description |
|---|---|---|
alerts |
Sequence | Értesítéseket aktiváló riasztások listája. Az érvényes értékek a következők: on-update-success, on-update-failure, on-update-fatal-failureon-flow-failure. |
email_recipients |
Sequence | A konfigurált riasztás aktiválásakor értesítendő e-mail-címek listája. |
Example
Az alábbi példa egy pipeline-t határoz meg az erőforráskulcs hello-pipelinesegítségével.
resources:
pipelines:
hello-pipeline:
name: hello-pipeline
clusters:
- label: default
num_workers: 1
development: true
continuous: false
channel: CURRENT
edition: CORE
photon: false
libraries:
- notebook:
path: ./pipeline.py
További folyamatkonfigurációs példákért lásd: Folyamatkonfiguráció.
postgres_branch
Type:Map
A Postgres-ágerőforrás lehetővé teszi a Lakebase-ágak meghatározását egy csomagban. Meg kell határoznia a megfelelő Postgres-projekteket és számítási végpontokat is.
Hozzáadva a Databricks CLI 0.287.0-s verziójához
postgres_branches:
<postgres_branch-name>:
<postgres_branch-field-name>: <postgres_branches-field-value>
| Key | Típus | Description |
|---|---|---|
branch_id |
String | Az ághoz használandó azonosító. Ez lesz az ág erőforrásnevének végső összetevője. Az azonosító megadása kötelező, és 1–63 karakter hosszúnak kell lennie, kisbetűvel kezdődik, és csak kisbetűket, számokat és kötőjeleket tartalmaz.
development például projects/my-app/branches/developmentlesz.Hozzáadva a Databricks CLI 0.287.0-s verziójához |
expire_time |
String | Abszolút lejárati időbélyeg. Ha be van állítva, az ág ekkor lejár. Hozzáadva a Databricks CLI 0.287.0-s verziójához |
is_protected |
logikai | Ha igaz értékre van állítva, megvédi az ágat a törléstől és az alaphelyzetbe állítástól. A társított számítási végpontok és a projekt nem törölhető, amíg az ág védett. Hozzáadva a Databricks CLI 0.287.0-s verziójához |
no_expiry |
logikai | Explicit módon tiltsa le a lejáratot. Ha igaz értékre van állítva, az ág nem jár le. Ha hamis értékre van állítva, a kérés érvénytelen; ttl vagy expire_time helyett. Hozzáadva a Databricks CLI 0.287.0-s verziójához |
parent |
String | Az a projekt, amelyben ez az ág létrejön. Formátum: projects/{project_id}Hozzáadva a Databricks CLI 0.287.0-s verziójához |
source_branch |
String | Annak a forráságnak a neve, amelyből ezt az ágat létrehozták (adatsorok az időponthoz kötött helyreállításhoz). Ha nincs megadva, alapértelmezés szerint a projekt alapértelmezett ága lesz. Formátum: projects/{project_id}/branches/{branch_id}Hozzáadva a Databricks CLI 0.287.0-s verziójához |
source_branch_lsn |
String | A naplóütemezési szám (LSN) azon a forráságon, amelyből ezt az ágat létrehozták. Hozzáadva a Databricks CLI 0.287.0-s verziójához |
source_branch_time |
String | Annak a forráságnak az időpontja, amelyből az ág létrejött. Hozzáadva a Databricks CLI 0.287.0-s verziójához |
ttl |
String | Relatív élettartam. Ha be van állítva, az ág creation_time + ttl időpontban lejár. Hozzáadva a Databricks CLI 0.287.0-s verziójához |
Example
Lásd postgres_projects példát.
postgres_endpoint
Type: Map
A postgres_endpoints erőforrás lehetővé teszi a Lakebase számítási végpontok meghatározását egy csomagban. Meg kell határoznia a megfelelő Lakebase-projekteket és a Lakebase-ágakat is.
Hozzáadva a Databricks CLI 0.287.0-s verziójához
postgres_endpoints:
<postgres_endpoint-name>:
<postgres_endpoint-field-name>: <postgres_endpoint-field-value>
| Key | Típus | Description |
|---|---|---|
autoscaling_limit_max_cu |
Szám | A számítási egységek maximális száma. A minimális érték 0,5. Hozzáadva a Databricks CLI 0.287.0-s verziójához |
autoscaling_limit_min_cu |
Szám | A számítási egységek minimális száma. A minimális érték 0,5. Hozzáadva a Databricks CLI 0.287.0-s verziójához |
disabled |
logikai | A számítási végponthoz való kapcsolatok korlátozása. A beállítás engedélyezése felfüggeszti a számítási műveletet. A letiltott számítási végpontok nem engedélyezhetők kapcsolati vagy konzolműveletekkel. Hozzáadva a Databricks CLI 0.287.0-s verziójához |
endpoint_id |
String | A végponthoz használandó azonosító. Ez lesz a végpont erőforrásnevének végső összetevője. Az azonosító megadása kötelező, és 1–63 karakter hosszúnak kell lennie, kisbetűvel kezdődik, és csak kisbetűket, számokat és kötőjeleket tartalmaz.
primary például projects/my-app/branches/development/endpoints/primarylesz.Hozzáadva a Databricks CLI 0.287.0-s verziójához |
endpoint_type |
String | A végpont típusa. Egy ágnak csak egy READ_WRITE végpontja lehet. Lehetséges értékek: ENDPOINT_TYPE_READ_WRITE, ENDPOINT_TYPE_READ_ONLY.Hozzáadva a Databricks CLI 0.287.0-s verziójához |
no_suspension |
logikai | Ha igaz értékre van állítva, explicit módon letiltja az automatikus felfüggesztést (soha ne függesztse fel). Ha meg van adva, igaz értékre kell állítani. Hozzáadva a Databricks CLI 0.287.0-s verziójához |
parent |
String | Az ág, ahol a végpont létrejön. Formátum: projects/{project_id}/branches/{branch_id}Hozzáadva a Databricks CLI 0.287.0-s verziójához |
settings |
Map | Számítási végpont beállításainak gyűjteménye. Hozzáadva a Databricks CLI 0.287.0-s verziójához |
suspend_timeout_duration |
String | Az inaktivitás időtartama, amely után a számítási végpont automatikusan fel van függesztve. Ha meg van adva, 60 és 604800 között kell lennie (1 perc és 1 hét között). Hozzáadva a Databricks CLI 0.287.0-s verziójához |
Example
Lásd postgres_projects példát.
postgres_project
Type: Map
A Postgres-projekterőforrás lehetővé teszi, hogy a Lakebase automatikus skálázási Postgres-adatbázisprojekteket egy csomagban definiálja. Meg kell határoznia a megfelelő Postgres-ágakat és számítási végpontokat is.
Hozzáadva a Databricks CLI 0.287.0-s verziójához
postgres_projects:
<postgres_project-name>:
<postgres_project-field-name>: <postgres_project-field-value>
| Key | Típus | Description |
|---|---|---|
default_endpoint_settings |
Map | Számítási végpont beállításainak gyűjteménye. Lásd : postgres_project.default_endpoint_settings. Hozzáadva a Databricks CLI 0.287.0-s verziójához |
display_name |
String | Ember által olvasható projektnév. A hossznak 1 és 256 karakter közöttinek kell lennie. Hozzáadva a Databricks CLI 0.287.0-s verziójához |
history_retention_duration |
String | A projekt összes ágának megosztott előzményeinek megőrzéséhez szükséges másodpercek száma a pont-idő helyreállításhoz. Az érték 0 és 2592000 közötti lehet (legfeljebb 30 nap). Hozzáadva a Databricks CLI 0.287.0-s verziójához |
pg_version |
Integer | A Fő Postgres-verziószám. A támogatott verziók: 16 és 17. Hozzáadva a Databricks CLI 0.287.0-s verziójához |
project_id |
String | A Projekthez használandó azonosító. Ez lesz a projekt erőforrásnevének utolsó összetevője. Az azonosító megadása kötelező, és 1–63 karakter hosszúnak kell lennie, kisbetűvel kezdődik, és csak kisbetűket, számokat és kötőjeleket tartalmaz.
my-app például projects/my-applesz.Hozzáadva a Databricks CLI 0.287.0-s verziójához |
példa
resources:
postgres_projects:
my_db:
project_id: test-prod-app
display_name: 'Production Database'
pg_version: 17
postgres_branches:
main:
parent: ${resources.postgres_projects.my_db.id}
branch_id: main
is_protected: false
no_expiry: true
postgres_endpoints:
primary:
parent: ${resources.postgres_branches.main.id}
endpoint_id: primary
endpoint_type: ENDPOINT_TYPE_READ_WRITE
autoscaling_limit_min_cu: 0.5
autoscaling_limit_max_cu: 4
postgres_project.default_endpoint_settings
Type: Map
| Key | Típus | Description |
|---|---|---|
autoscaling_limit_max_cu |
Szám | A számítási egységek maximális száma. A minimális érték 0,5. |
autoscaling_limit_min_cu |
Szám | A számítási egységek minimális száma. A minimális érték 0,5. |
no_suspension |
logikai | Ha igaz értékre van állítva, explicit módon letiltja az automatikus felfüggesztést (soha ne függesztse fel). Ha meg van adva, igaz értékre kell állítani. |
pg_settings |
Map | A Postgres-beállítások nyers ábrázolása. |
suspend_timeout_duration |
String | Az inaktivitás időtartama, amely után a számítási végpont automatikusan fel van függesztve. Ha meg van adva, 60 és 604800 között kell lennie (1 perc és 1 hét között). |
minőségfigyelő (Unity Catalog)
Type: Map
A quality_monitor erőforrás lehetővé teszi egy Unity Catalog táblamonitormeghatározását. A monitorokról további információt az Adatprofilozás című témakörben talál.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
quality_monitors:
<quality_monitor-name>:
<quality_monitor-field-name>: <quality_monitor-field-value>
| Key | Típus | Description |
|---|---|---|
assets_dir |
String | A monitorozási eszközök tárolására szolgáló könyvtár (például irányítópult, metrikatáblák). Hozzáadva a Databricks CLI 0.229.0-s verziójához |
baseline_table_name |
String | Annak az alaptáblának a neve, amelyből az eltolódási metrikákat számítja ki. A figyelt tábla oszlopainak is szerepelnie kell az alaptáblában. Hozzáadva a Databricks CLI 0.229.0-s verziójához |
custom_metrics |
Sequence | A figyelt táblán kiszámítandó egyéni metrikák. Ezek lehetnek összesített metrikák, származtatott metrikák (már kiszámított összesített metrikákból) vagy sodródási metrikák (metrikák összehasonlítása az időablakokban). Lásd : custom_metrics. Hozzáadva a Databricks CLI 0.229.0-s verziójához |
inference_log |
Map | Konfigurálás a következtetési naplók figyeléséhez. Lásd az inference_log-ot. Hozzáadva a Databricks CLI 0.229.0-s verziójához |
latest_monitor_failure_msg |
String | A monitorhibák legújabb hibaüzenete. Ez egy írásvédett mező, amely akkor lesz feltöltve, ha egy figyelő meghibásodik. Hozzáadva a Databricks CLI 0.264.0-s verziójához |
lifecycle |
Map | Az erőforrás életciklus-beállításait tartalmazza. Ez szabályozza az erőforrás viselkedését az üzembe helyezéskor vagy megsemmisítéskor. Lásd az életciklust. Hozzáadva a Databricks CLI 0.268.0-s verziójához |
notifications |
Map | A monitor értesítési beállításai. Tekintse meg az értesítéseket. Hozzáadva a Databricks CLI 0.229.0-s verziójához |
output_schema_name |
String | Séma, ahol a kimeneti metrikatáblák létrejönnek. Hozzáadva a Databricks CLI 0.229.0-s verziójához |
schedule |
Map | A metrikatáblák automatikus frissítésének és megújításának ütemezése. Lásd az ütemezést. Hozzáadva a Databricks CLI 0.229.0-s verziójához |
skip_builtin_dashboard |
logikai | Kihagyhatja-e az adatminőségi metrikákat összegző alapértelmezett irányítópult létrehozását. Hozzáadva a Databricks CLI 0.229.0-s verziójához |
slicing_exprs |
Sequence | Az adatok célzott elemzéshez való szeleteléséhez használt oszlopkifejezések listája. Az adatokat egymástól függetlenül csoportosítja az egyes kifejezések, így az egyes predikátumok és azok kiegészítései külön szeletet alkotnak. Magas számosságú oszlopok esetében csak a leggyakoribb 100 egyedi érték alapján készítenek szeleteket. Hozzáadva a Databricks CLI 0.229.0-s verziójához |
snapshot |
Map | Pillanatképtáblák monitorozásának konfigurációja. Tekintse meg a pillanatképet. Hozzáadva a Databricks CLI 0.229.0-s verziójához |
table_name |
String | A tábla teljes neve. Hozzáadva a Databricks CLI 0.235.0-s verziójához |
time_series |
Map | Az idősortáblák monitorozásának konfigurálása. Lásd time_series. Hozzáadva a Databricks CLI 0.229.0-s verziójához |
warehouse_id |
String | Opcionális paraméter a raktár megszabására az irányítópult létrehozásakor. Ha nincs megadva, a rendszer az első futó raktárat használja. Hozzáadva a Databricks CLI 0.229.0-s verziójához |
minőségellenőrző.egyedi_mérőszámok
Type: Sequence
Egyéni metrikadefiníciók listája.
A lista minden eleme egy CustomMetric.
| Key | Típus | Description |
|---|---|---|
definition |
String | Jinja-sablon egy SQL-kifejezéshez, amely meghatározza a metrika kiszámításának módját. Lásd: metrikadefiníció létrehozása. |
input_columns |
Sequence | A bemeneti táblában szereplő oszlopnevek listája, amely alapján a metrikát ki kell számítani.
:table Azt jelezheti, hogy a metrika több oszlopból származó információra van szüksége. |
name |
String | A kimeneti táblák metrikájának neve. |
output_data_type |
String | Az egyéni metrika kimeneti típusa. |
type |
String | Csak az egyik lehet: CUSTOM_METRIC_TYPE_AGGREGATE, CUSTOM_METRIC_TYPE_DERIVED vagy CUSTOM_METRIC_TYPE_DRIFT. A CUSTOM_METRIC_TYPE_AGGREGATE és CUSTOM_METRIC_TYPE_DERIVED metrikák egyetlen táblán vannak kiszámítva, míg a CUSTOM_METRIC_TYPE_DRIFT metrikák összehasonlítják az alapszintet és a bemeneti táblát, vagy a két egymást követő időablak metrikáit.
|
quality_monitor.inference_log
Type: Map
Konfigurálás a következtetési naplók figyeléséhez.
| Key | Típus | Description |
|---|---|---|
granularities |
Sequence | A következtetési naplók összesítésének időrészletei (például ["1 day"]). |
model_id_col |
String | A modellazonosítót tartalmazó oszlop neve. |
prediction_col |
String | Az előrejelzést tartalmazó oszlop neve. |
timestamp_col |
String | Az időbélyeget tartalmazó oszlop neve. |
problem_type |
String | A ML-probléma típusa. Az érvényes értékek a következők: PROBLEM_TYPE_CLASSIFICATION. PROBLEM_TYPE_REGRESSION |
label_col |
String | Az oszlop neve, amely a címkét (valós adat) tartalmazza. |
prediction_proba_col |
String | Az előrejelzési valószínűségeket tartalmazó oszlop neve. |
minőségellenőrző.értesítések
Type: Map
A monitor értesítési beállításai.
| Key | Típus | Description |
|---|---|---|
on_failure |
Map | Értesítési beállítások, ha a figyelő meghibásodik. Lásd : on_failure. |
on_new_classification_tag_detected |
Map | Értesítési beállítások új besorolási címkék észlelésekor. Lásd : on_new_classification_tag_detected. |
minőség_monitor.értesítések.hiba_esetén
Type: Map
Értesítési beállítások, ha a figyelő meghibásodik.
| Key | Típus | Description |
|---|---|---|
email_addresses |
Sequence | A monitorhibáról értesítendő e-mail-címek listája. |
quality_monitor.értesítések.új_osztályozási_címke_észlelése
Type: Map
Értesítési beállítások új besorolási címkék észlelésekor.
| Key | Típus | Description |
|---|---|---|
email_addresses |
Sequence | Az új besorolási címkék észlelésekor értesítendő e-mail-címek listája. |
minőség_monitor.program
Type: Map
Metrikatáblák automatikus frissítésének és újratöltésének ütemezése.
| Key | Típus | Description |
|---|---|---|
quartz_cron_expression |
String | Cron-kifejezés kvarcszintaxissal. Például 0 0 8 * * ? minden nap reggel 8:00-kor fut. |
timezone_id |
String | Az ütemezés időzónája (például UTC, America/Los_Angeles). |
pause_status |
String | Azt jelzi, hogy az ütemezés szüneteltetve van-e. Érvényes értékek: PAUSED, UNPAUSED. |
minőségfigyelő.pillanatkép
Type: Map
Pillanatképtáblák monitorozásának konfigurációja.
minőségfigyelő.idősor
Az idősortáblák monitorozásának konfigurálása.
| Key | Típus | Description |
|---|---|---|
granularities |
Sequence | Az idősoradatok összesítésének időrészletei (például ["30 minutes"]). |
timestamp_col |
String | Az időbélyeget tartalmazó oszlop neve. |
Examples
Az alábbi példák minőségi monitorokat határoznak meg az InferenceLog, a TimeSeries és a Snapshot profiltípusokhoz.
# InferenceLog profile type
resources:
quality_monitors:
my_quality_monitor:
table_name: dev.mlops_schema.predictions
output_schema_name: ${bundle.target}.mlops_schema
assets_dir: /Workspace/Users/${workspace.current_user.userName}/databricks_lakehouse_monitoring
inference_log:
granularities: [1 day]
model_id_col: model_id
prediction_col: prediction
label_col: price
problem_type: PROBLEM_TYPE_REGRESSION
timestamp_col: timestamp
schedule:
quartz_cron_expression: 0 0 8 * * ? # Run Every day at 8am
timezone_id: UTC
# TimeSeries profile type
resources:
quality_monitors:
my_quality_monitor:
table_name: dev.mlops_schema.predictions
output_schema_name: ${bundle.target}.mlops_schema
assets_dir: /Workspace/Users/${workspace.current_user.userName}/databricks_lakehouse_monitoring
time_series:
granularities: [30 minutes]
timestamp_col: timestamp
schedule:
quartz_cron_expression: 0 0 8 * * ? # Run Every day at 8am
timezone_id: UTC
# Snapshot profile type
resources:
quality_monitors:
my_quality_monitor:
table_name: dev.mlops_schema.predictions
output_schema_name: ${bundle.target}.mlops_schema
assets_dir: /Workspace/Users/${workspace.current_user.userName}/databricks_lakehouse_monitoring
snapshot: {}
schedule:
quartz_cron_expression: 0 0 8 * * ? # Run Every day at 8am
timezone_id: UTC
Az alábbi példa egy minőségfigyelőt és egy megfelelő modell újratanítási feladatátképzési feladatot konfigurál a figyelés alapján:
# Quality monitoring workflow
resources:
quality_monitors:
mlops_quality_monitor:
table_name: ${bundle.target}.mlops_demo.predictions
output_schema_name: ${bundle.target}.mlops_demo
assets_dir: /Users/${workspace.current_user.userName}/databricks_lakehouse_monitoring
inference_log:
granularities: [1 hour]
model_id_col: model_version
prediction_col: prediction
label_col: fare_amount
problem_type: PROBLEM_TYPE_REGRESSION
timestamp_col: inference_timestamp
schedule:
quartz_cron_expression: 57 0 14 * * ? # refresh monitoring metrics every day at 7 am PT
timezone_id: UTC
jobs:
retraining_job:
name: ${bundle.target}-mlops_demo-monitoring-retraining-job
tasks:
- task_key: monitored_metric_violation_check
notebook_task:
notebook_path: ../monitoring/notebooks/MonitoredMetricViolationCheck.py
base_parameters:
env: ${bundle.target}
table_name_under_monitor: ${bundle.target}.mlops_demo.predictions
metric_to_monitor: r2_score
metric_violation_threshold: 0.7
num_evaluation_windows: 24
num_violation_windows: 5 # 5 out of the past 24 windows have metrics lower than threshold
- task_key: is_metric_violated
depends_on:
- task_key: monitored_metric_violation_check
condition_task:
op: EQUAL_TO
left: '{{tasks.monitored_metric_violation_check.values.is_metric_violated}}'
right: 'true'
- task_key: trigger_retraining
depends_on:
- task_key: is_metric_violated
outcome: 'true'
run_job_task:
job_id: ${resources.jobs.model_training_job.id}
schedule:
quartz_cron_expression: '0 0 15 * * ?' # daily at 8 am PDT
timezone_id: UTC
# To get notifications, provide a list of emails to the on_failure argument.
#
# email_notifications:
# on_failure:
# - someone@example.com
regisztrált_modell (Unity Catalog)
Type: Map
A regisztrált modellerőforrás lehetővé teszi modellek meghatározását a Unity Catalogban. További információ a Unity Catalog regisztrált modellekrőla "A modell életciklusának kezelése a Unity Katalógusban"című témakörben található.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
registered_models:
<registered_model-name>:
<registered_model-field-name>: <registered_model-field-value>
| Key | Típus | Description |
|---|---|---|
aliases |
Sequence | A regisztrált modellhez társított aliasok listája. Lásd registered_model.aliases. Hozzáadva a Databricks CLI 0.273.0-s verziójához |
browse_only |
logikai | Azt jelzi, hogy a rendszerbiztonsági tag csak akkor tudja-e lekérni a társított objektum metaadatait a BROWSE jogosultságon keresztül, ha include_browse engedélyezve van a kérésben. Hozzáadva a Databricks CLI 0.273.0-s verziójához |
catalog_name |
String | Annak a katalógusnak a neve, amelyben a séma és a regisztrált modell található. Hozzáadva a Databricks CLI 0.229.0-s verziójához |
comment |
String | A regisztrált modellhez csatolt megjegyzés. Hozzáadva a Databricks CLI 0.229.0-s verziójához |
created_at |
Integer | A regisztrált modell létrehozási időbélyege ezredmásodpercben, a Unix-korszak óta. Hozzáadva a Databricks CLI 0.273.0-s verziójához |
created_by |
String | A regisztrált modellt létrehozó felhasználó azonosítója. Hozzáadva a Databricks CLI 0.273.0-s verziójához |
full_name |
String | A regisztrált modell háromszintű (teljesen minősített) neve. Hozzáadva a Databricks CLI 0.273.0-s verziójához |
grants |
Sequence | A regisztrált modellhez társított támogatások. Lásd adomány. Hozzáadva a Databricks CLI 0.229.0-s verziójához |
lifecycle |
Map | Az erőforrás életciklus-beállításait tartalmazza. Ez szabályozza az erőforrás viselkedését az üzembe helyezéskor vagy megsemmisítéskor. Lásd az életciklust. Hozzáadva a Databricks CLI 0.268.0-s verziójához |
metastore_id |
String | A metaadattár egyedi azonosítója. Hozzáadva a Databricks CLI 0.273.0-s verziójához |
name |
String | A regisztrált modell neve. Hozzáadva a Databricks CLI 0.229.0-s verziójához |
owner |
String | A regisztrált modell tulajdonosának azonosítója. Hozzáadva a Databricks CLI 0.273.0-s verziójához |
schema_name |
String | Annak a sémának a neve, amelyben a regisztrált modell található. Hozzáadva a Databricks CLI 0.229.0-s verziójához |
storage_location |
String | A felhőben található tárolási hely, amely alatt a modellverzió adatfájljait tárolja a rendszer. Hozzáadva a Databricks CLI 0.229.0-s verziójához |
updated_at |
String | A regisztrált modell utolsó frissítési időbélyege ezredmásodpercben, a Unix-korszak óta. Hozzáadva a Databricks CLI 0.273.0-s verziójához |
updated_by |
String | Annak a felhasználónak az azonosítója, aki legutóbb frissítette a regisztrált modellt. Hozzáadva a Databricks CLI 0.273.0-s verziójához |
registered_model.aliaszok
Type: Sequence
A regisztrált modellhez társított aliasok listája.
A lista minden eleme egy Alias:
| Key | Típus | Description |
|---|---|---|
alias_name |
String | Az alias neve, például "bajnok" vagy "latest_stable" |
catalog_name |
String | A modellverziót tartalmazó katalógus neve |
id |
String | Az alias egyedi azonosítója |
model_name |
String | A modellverzió szülő regisztrált modelljének neve, viszonyítva a szülősémához. |
schema_name |
String | A modellverziót tartalmazó séma neve a szülőkatalógushoz viszonyítva |
version_num |
Integer | Annak a modellverziónak az egész számú verziószáma, amelyre ez az álnév utal. |
Example
Az alábbi példa egy regisztrált modellt határoz meg a Unity Catalogban:
resources:
registered_models:
model:
name: my_model
catalog_name: ${bundle.target}
schema_name: mlops_schema
comment: Registered model in Unity Catalog for ${bundle.target} deployment target
grants:
- privileges:
- EXECUTE
principal: account users
séma (Unity Catalog)
Type: Map
A sémák a Python for Databricks Asset Bundlesben támogatottak. Lásd : databricks.bundles.schemas.
A sémaerőforrás-típus lehetővé teszi, hogy a Unity Catalog sémáit meghatározza a táblákhoz és egyéb erőforrásokhoz a csomag részeként létrehozott munkafolyamatok és adatcsővezetétek során. A más erőforrástípusoktól eltérő sémákra a következő korlátozások vonatkoznak:
- A sémaerőforrás tulajdonosa mindig az üzembe helyezés felhasználója, és nem módosítható. Ha a csomagban
run_asvan megadva, azt a séma műveletei figyelmen kívül hagyják. - Csak azok a mezők érhetők el a séma erőforráshoz, amelyeket a megfelelő Sémaobjektum létrehozó API támogat. A
enable_predictive_optimizationpéldául nem támogatott, mivel csak a frissítési API-érhető el.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
schemas:
<schema-name>:
<schema-field-name>: <schema-field-value>
| Key | Típus | Description |
|---|---|---|
catalog_name |
String | A szülői katalógus neve. Hozzáadva a Databricks CLI 0.229.0-s verziójához |
comment |
String | Felhasználó által megadott szabad formátumú szöveges leírás. Hozzáadva a Databricks CLI 0.229.0-s verziójához |
grants |
Sequence | A sémához társított támogatások. Lásd adomány. Hozzáadva a Databricks CLI 0.229.0-s verziójához |
lifecycle |
Map | Az erőforrás életciklus-beállításait tartalmazza. Ez szabályozza az erőforrás viselkedését az üzembe helyezéskor vagy megsemmisítéskor. Lásd az életciklust. Hozzáadva a Databricks CLI 0.268.0-s verziójához |
name |
String | A séma neve a szülőkatalógushoz viszonyítva. Hozzáadva a Databricks CLI 0.229.0-s verziójához |
properties |
Map | A sémához csatolt kulcs-érték tulajdonságok térképe. Hozzáadva a Databricks CLI 0.229.0-s verziójához |
storage_root |
String | A séma felügyelt tábláinak tárolási gyökér URL-címe. Hozzáadva a Databricks CLI 0.229.0-s verziójához |
Examples
Az alábbi példa egy my_pipeline erőforráskulccsal rendelkező folyamatot határoz meg, amely létrehoz egy Unity Catalog sémát my_schema kulccsal, mint célt.
resources:
pipelines:
my_pipeline:
name: test-pipeline-{{.unique_id}}
libraries:
- notebook:
path: ../src/nb.ipynb
- file:
path: ../src/range.sql
development: true
catalog: ${resources.schemas.my_schema.catalog_name}
target: ${resources.schemas.my_schema.id}
schemas:
my_schema:
name: test-schema-{{.unique_id}}
catalog_name: main
comment: This schema was created by Databricks Asset Bundles.
A Databricks-eszközcsomagok nem támogatják a legfelső szintű vissza nem térítendő támogatásokat, ezért ha egy sémához szeretne támogatást beállítani, adja meg a sémához tartozó támogatásokat a schemas leképezésen belül. További információ a támogatásokról: Jogosultságok megjelenítése, megadása és visszavonása.
Az alábbi példa egy Unity Catalog-sémát határoz meg támogatásokkal:
resources:
schemas:
my_schema:
name: test-schema
grants:
- principal: users
privileges:
- SELECT
- principal: my_team
privileges:
- CAN_MANAGE
catalog_name: main
titkos_terület
Type: Map
A secret_scope erőforrás lehetővé teszi a titkos kulcsok hatóköreinek meghatározását egy csomagban. A titkos kódok hatóköreiről további információt a Titkos kódok kezelése című témakörben talál.
Hozzáadva a Databricks CLI 0.252.0-s verziójához
secret_scopes:
<secret_scope-name>:
<secret_scope-field-name>: <secret_scope-field-value>
| Key | Típus | Description |
|---|---|---|
backend_type |
String | A háttérrendszer típusa, amellyel a hatókör létrejön. Ha nincs megadva, ez az alapértelmezett érték.DATABRICKSHozzáadva a Databricks CLI 0.252.0-s verziójához |
keyvault_metadata |
Map | A titkos hatókör metaadatai, ha a backend_typeAZURE_KEYVAULT. Lásd keyvault_metadata.Hozzáadva a Databricks CLI 0.252.0-s verziójához |
lifecycle |
Map | Az erőforrás életciklus-beállításait tartalmazza. Ez szabályozza az erőforrás viselkedését az üzembe helyezéskor vagy megsemmisítéskor. Lásd az életciklust. Hozzáadva a Databricks CLI 0.268.0-s verziójához |
name |
String | A felhasználó által kért hatókörnév. A hatókörnevek egyediek. Hozzáadva a Databricks CLI 0.252.0-s verziójához |
permissions |
Sequence | A titkos hatókörre vonatkozó engedélyek. Az engedélyek titkos hatókörű ACL-ekkel kezelhetők. Tekintse meg az engedélyeket. Hozzáadva a Databricks CLI 0.252.0-s verziójához |
secret_scope.keyvault_metadata
Type: Map
Az Azure Key Vault által támogatott titkos kulcstartományok metaadatai.
| Key | Típus | Description |
|---|---|---|
resource_id |
String | A Key Vault Azure-erőforrás-azonosítója. |
dns_name |
String | Az Azure Key Vault DNS neve. |
Examples
Az alábbi példa egy kulcstár háttérrendszerét használó titkos hatókört határoz meg.
resources:
secret_scopes:
secret_scope_azure:
name: test-secrets-azure-backend
backend_type: 'AZURE_KEYVAULT'
keyvault_metadata:
resource_id: my_azure_keyvault_id
dns_name: my_azure_keyvault_dns_name
Az alábbi példa egy egyéni ACL-t állít be titkos hatókörök és engedélyek használatával:
resources:
secret_scopes:
my_secret_scope:
name: my_secret_scope
permissions:
- user_name: admins
level: WRITE
- user_name: users
level: READ
Egy példa csomagra, amely bemutatja, hogyan definiálhat titkos hatókört és munkát egy olyan feladattal, amely olvas belőle egy csomagban, tekintse meg a csomagpéldák GitHub-adattárát.
sql_warehouse (SQL tárház)
Type: Map
Az SQL Warehouse-erőforrással egy csomagban definiálhat EGY SQL-raktárt . Az SQL Warehouse-okkal kapcsolatos információkért lásd az Azure Databricks adattárházait.
Hozzáadva a Databricks CLI 0.260.0-s verziójához
sql_warehouses:
<sql-warehouse-name>:
<sql-warehouse-field-name>: <sql-warehouse-field-value>
| Key | Típus | Description |
|---|---|---|
auto_stop_mins |
Integer | Az az idő percek alatt, amikor egy SQL-raktárnak tétlennek kell lennie (például nem futnak lekérdezések), mielőtt az automatikusan leáll. Az érvényes értékek 0, ami azt jelzi, hogy nincs automatikus leállás, vagy nagyobb vagy egyenlő, mint 10. Az alapértelmezett érték 120. Hozzáadva a Databricks CLI 0.260.0-s verziójához |
channel |
Map | A csatorna részletei. Lásd a csatornát. Hozzáadva a Databricks CLI 0.260.0-s verziójához |
cluster_size |
String | A raktárhoz kiosztott klaszterek mérete. A Spark-fürt méretének növelésével nagyobb lekérdezéseket futtathatunk rajta. Ha növelni szeretné az egyidejű lekérdezések számát, hangolja max_num_clusters. A támogatott értékekért lásd: cluster_size. Hozzáadva a Databricks CLI 0.260.0-s verziójához |
creator_name |
String | A raktárt létrehozó felhasználó neve. Hozzáadva a Databricks CLI 0.260.0-s verziójához |
enable_photon |
logikai | A raktárnak Photon optimalizált fürtöket kell-e használnia. Alapértelmezés szerint hamis. Hozzáadva a Databricks CLI 0.260.0-s verziójához |
enable_serverless_compute |
logikai | Azt határozza meg, hogy a raktár kiszolgáló nélküli számítást használjon-e. Hozzáadva a Databricks CLI 0.260.0-s verziójához |
instance_profile_arn |
String | Deprecated. Az IAM-szerepkör fürtnek való átadásához használt példányprofil. Hozzáadva a Databricks CLI 0.260.0-s verziójához |
lifecycle |
Map | Az erőforrás életciklus-beállításait tartalmazza. Ez szabályozza az erőforrás viselkedését az üzembe helyezéskor vagy megsemmisítéskor. Lásd az életciklust. Hozzáadva a Databricks CLI 0.268.0-s verziójához |
max_num_clusters |
Integer | Az automatikus skálázó által az egyidejű lekérdezések kezeléséhez létrehozott fürtök maximális száma. Az értékeknek 30-nál kisebbnek vagy egyenlőnek kell lenniük, és nagyobbnak vagy egyenlőnek kell lenniük min_num_clusters. Alapértelmezés szerint a min_clusters értéket használja, ha nincs beállítva.Hozzáadva a Databricks CLI 0.260.0-s verziójához |
min_num_clusters |
Integer | Az SQL Warehouse-hoz fenntartott elérhető fürtök minimális száma. Ennek növelésével biztosítható, hogy a klaszterek nagyobb számban mindig fussanak, ezért csökkentheti az új lekérdezések hidegindítási idejét. Ez hasonló az erőforrás-kezelő fenntartott és visszavonható magjaihoz. Az értékeknek 0-nál nagyobbnak és kisebbnek vagy egyenlőnek kell lenniük a min(max_num_clusters, 30) értéknél. Alapértelmezett érték: 1. Hozzáadva a Databricks CLI 0.260.0-s verziójához |
name |
String | A fürt logikai neve. A névnek egy szervezeten belül egyedinek kell lennie, és 100 karakternél kisebbnek kell lennie. Hozzáadva a Databricks CLI 0.260.0-s verziójához |
permissions |
Sequence | A raktárra vonatkozó engedélyek. Tekintse meg az engedélyeket. Hozzáadva a Databricks CLI 0.260.0-s verziójához |
spot_instance_policy |
String | Alkalmi példányok használata. Az érvényes értékek a következőkPOLICY_UNSPECIFIED: , COST_OPTIMIZEDRELIABILITY_OPTIMIZED. Az alapértelmezett érték a COST_OPTIMIZED.Hozzáadva a Databricks CLI 0.260.0-s verziójához |
tags |
Map | Kulcs-érték párok készlete, amelyek az SQL Warehouse-hoz társított összes erőforráson (például AWS-példányokon és EBS-köteteken) címkézve lesznek. A címkék számának 45-nél kevesebbnek kell lennie. Hozzáadva a Databricks CLI 0.260.0-s verziójához |
warehouse_type |
String | A raktár típusa PRO vagy CLASSIC. Ha kiszolgáló nélküli számítást szeretne használni, állítsa be ezt a mezőt PRO értékre, és állítsa be a mezőt enable_serverless_compute értékre true.Hozzáadva a Databricks CLI 0.260.0-s verziójához |
sql_warehouse.csatorna
Type: Map
Az SQL Warehouse csatornakonfigurációja.
| Key | Típus | Description |
|---|---|---|
name |
String | A csatorna neve. Az érvényes értékek a következők: CHANNEL_NAME_CURRENT, CHANNEL_NAME_PREVIEWCHANNEL_NAME_CUSTOM. |
dbsql_version |
String | Az egyéni csatornák DBSQL-verziója. |
Example
Az alábbi példa egy SQL Warehouse-t határoz meg:
resources:
sql_warehouses:
my_sql_warehouse:
name: my_sql_warehouse
cluster_size: X-Large
enable_serverless_compute: true
max_num_clusters: 3
min_num_clusters: 1
auto_stop_mins: 60
warehouse_type: PRO
szinkronizált_adatbázis_tábla
Type: Map
A szinkronizált adatbázistábla-erőforrás lehetővé teszi a Lakebase-adatbázistáblák csomagban való meghatározását.
A szinkronizált adatbázistáblákról további információt a Mi az adatbázispéldány? című témakörben talál.
Hozzáadva a Databricks CLI 0.266.0-s verziójához
synced_database_tables:
<synced_database_table-name>:
<synced_database_table-field-name>: <synced_database_table-field-value>
| Key | Típus | Description |
|---|---|---|
database_instance_name |
String | A céladatbázis-példány neve. Erre akkor van szükség, ha szabványos katalógusokban hoz létre szinkronizált adatbázistáblákat. Ez nem kötelező, ha szinkronizált adatbázistáblákat hoz létre regisztrált katalógusokban. Hozzáadva a Databricks CLI 0.266.0-s verziójához |
lifecycle |
Map | Az erőforrás életciklus-beállításait tartalmazza. Ez szabályozza az erőforrás viselkedését az üzembe helyezéskor vagy megsemmisítéskor. Lásd az életciklust. Hozzáadva a Databricks CLI 0.268.0-s verziójához |
logical_database_name |
String | A tábla cél Postgres-adatbázis-objektumának (logikai adatbázisának) neve. Hozzáadva a Databricks CLI 0.266.0-s verziójához |
name |
String | A tábla teljes neve az űrlapon catalog.schema.table.Hozzáadva a Databricks CLI 0.266.0-s verziójához |
spec |
Map | Az adatbázistábla specifikációja. Lásd a szinkronizált adatbázistábla specifikációját. Hozzáadva a Databricks CLI 0.266.0-s verziójához |
synced_database_table.spec
Type: Map
Az adatbázistábla specifikációja.
Hozzáadva a Databricks CLI 0.266.0-s verziójához
| Key | Típus | Description |
|---|---|---|
create_database_objects_if_missing |
logikai | Azon kell dönteni, hogy létrehozzuk-e a szinkronizált tábla logikai adatbázisát és sémaerőforrásait, ha még nem léteznek. |
existing_pipeline_id |
String | Egy meglévő folyamat azonosítója. Ha ez be van állítva, a szinkronizált tábla be lesz illesztve a hivatkozott meglévő adatfolyamatba. Ez elkerüli az új folyamat létrehozását, és lehetővé teszi a meglévő számítás megosztását. Ebben az esetben ennek a scheduling_policy szinkronizált táblának meg kell egyeznie a meglévő folyamat ütemezési szabályzatával. Legfeljebb az egyik elem, existing_pipeline_id vagy new_pipeline_spec, legyen definiálva. |
new_pipeline_spec |
Map | Egy új csővezeték specifikációja. Lásd new_pipeline_spec. Legfeljebb az egyik elem, existing_pipeline_id vagy new_pipeline_spec, legyen definiálva. |
primary_key_columns |
Sequence | Az elsődleges kulcsot alkotó oszlopnevek listája. |
scheduling_policy |
String | A szinkronizálás ütemezési szabályzata. Az érvényes értékek a következők: SNAPSHOT. CONTINUOUS |
source_table_full_name |
String | A forrástábla teljes neve a formátumban catalog.schema.table. |
timeseries_key |
String | Idősorkulcs az azonos elsődleges kulccsal rendelkező sorok duplikálásának megszüntetéséhez. |
szinkronizált_adatbázis_táblázat.spec.new_pipeline_spec
Type: Map
A szinkronizált adatbázistábla által használt új folyamat specifikációja.
| Key | Típus | Description |
|---|---|---|
budget_policy_id |
String | Az újonnan létrehozott csővezetékhez beállítandó költségvetési szabályzat azonosítója. |
storage_catalog |
String | A folyamat katalógusa köztes fájlok, például ellenőrzőpontok és eseménynaplók tárolásához. Ennek egy szabványos katalógusnak kell lennie, amelyben a felhasználó rendelkezik a Delta-táblák létrehozásához szükséges engedélyekkel. |
storage_schema |
String | A folyamat sémája köztes fájlok, például ellenőrzőpontok és eseménynaplók tárolására. Ennek a standard katalógusban kell lennie, ahol a felhasználó rendelkezik deltatáblák létrehozására vonatkozó engedélyekkel. |
Examples
Az alábbi példa egy szinkronizált adatbázistáblát határoz meg egy megfelelő adatbáziskatalóguson belül:
resources:
database_instances:
my_instance:
name: my-instance
capacity: CU_1
database_catalogs:
my_catalog:
database_instance_name: my-instance
database_name: 'my_database'
name: my_catalog
create_database_if_not_exists: true
synced_database_tables:
my_synced_table:
name: ${resources.database_catalogs.my_catalog.name}.${resources.database_catalogs.my_catalog.database_name}.my_destination_table
database_instance_name: ${resources.database_catalogs.my_catalog.database_instance_name}
logical_database_name: ${resources.database_catalogs.my_catalog.database_name}
spec:
source_table_full_name: 'my_source_table'
scheduling_policy: SNAPSHOT
primary_key_columns:
- my_pk_column
new_pipeline_spec:
storage_catalog: 'my_delta_catalog'
storage_schema: 'my_delta_schema'
Az alábbi példa egy szinkronizált adatbázistáblát határoz meg egy standard katalógusban:
resources:
synced_database_tables:
my_synced_table:
name: 'my_standard_catalog.public.synced_table'
# database_instance_name is required for synced tables created in standard catalogs.
database_instance_name: 'my-database-instance'
# logical_database_name is required for synced tables created in standard catalogs:
logical_database_name: ${resources.database_catalogs.my_catalog.database_name}
spec:
source_table_full_name: 'source_catalog.schema.table'
scheduling_policy: SNAPSHOT
primary_key_columns:
- my_pk_column
create_database_objects_if_missing: true
new_pipeline_spec:
storage_catalog: 'my_delta_catalog'
storage_schema: 'my_delta_schema'
Ez a példa létrehoz egy szinkronizált adatbázistáblát, és testre szabja annak folyamatütemezését. Feltételezi, hogy már rendelkezik a következőkkel:
- Egy adatbázispéldány neve
my-database-instance - Egy standard katalógus neve
my_standard_catalog - A séma a szabványos katalógusban
default - Az elsődleges kulccsal elnevezett
source_delta.schema.customerforrás deltatáblac_custkey
resources:
synced_database_tables:
my_synced_table:
name: 'my_standard_catalog.default.my_synced_table'
database_instance_name: 'my-database-instance'
logical_database_name: 'test_db'
spec:
source_table_full_name: 'source_delta.schema.customer'
scheduling_policy: SNAPSHOT
primary_key_columns:
- c_custkey
create_database_objects_if_missing: true
new_pipeline_spec:
storage_catalog: 'source_delta'
storage_schema: 'schema'
jobs:
sync_pipeline_schedule_job:
name: sync_pipeline_schedule_job
description: 'Job to schedule synced database table pipeline.'
tasks:
- task_key: synced-table-pipeline
pipeline_task:
pipeline_id: ${resources.synced_database_tables.my_synced_table.data_synchronization_status.pipeline_id}
schedule:
quartz_cron_expression: '0 0 0 * * ?'
lemez (Unity Catalog)
Type: Map
A kötetek támogatottak a Python for Databricks Asset Bundles szolgáltatásban. Lásd : databricks.bundles.volumes.
A kötet erőforrástípusa lehetővé teszi a Unity Catalog kötetek definiálását és létrehozását csomag részeként. Amikor egy kötettel rendelkező csomagot helyez üzembe, vegye figyelembe, hogy:
- Addig nem lehet hivatkozni egy kötetre a
artifact_pathcsomagban, amíg az a munkaterületen nem létezik. Ezért ha a Databricks Asset Bundles segítségével szeretné létrehozni a kötetet, először meg kell határoznia a kötetet a csomagban, telepítenie kell, hogy létrehozza a kötetet, majd hivatkoznia kell rá aartifact_patha későbbi telepítések során. - A csomagban lévő kötetek nincsenek
dev_${workspace.current_user.short_name}előtaggal ellátva, ha a telepítési célpontmode: developmentkonfigurálva van. Ezt az előtagot azonban manuálisan is konfigurálhatja. Lásd: Egyéni beállítások.
Hozzáadva a Databricks CLI 0.236.0-s verziójához
volumes:
<volume-name>:
<volume-field-name>: <volume-field-value>
| Key | Típus | Description |
|---|---|---|
catalog_name |
String | A séma és a kötet katalógusának neve. Hozzáadva a Databricks CLI 0.236.0-s verziójához |
comment |
String | A kötethez csatolt megjegyzés. Hozzáadva a Databricks CLI 0.236.0-s verziójához |
grants |
Sequence | A kötethez kapcsolódó támogatások. Lásd adomány. Hozzáadva a Databricks CLI 0.236.0-s verziójához |
lifecycle |
Map | Az erőforrás életciklus-beállításait tartalmazza. Ez szabályozza az erőforrás viselkedését az üzembe helyezéskor vagy megsemmisítéskor. Lásd az életciklust. Hozzáadva a Databricks CLI 0.268.0-s verziójához |
name |
String | A kötet neve. Hozzáadva a Databricks CLI 0.236.0-s verziójához |
schema_name |
String | Annak a sémának a neve, amelyben a kötet található. Hozzáadva a Databricks CLI 0.236.0-s verziójához |
storage_location |
String | A felhőbeli tárolási hely. Hozzáadva a Databricks CLI 0.236.0-s verziójához |
volume_type |
String | A kötet típusa, lehet EXTERNAL vagy MANAGED. A külső kötet a megadott külső helyen található. A felügyelt kötetek a szülőséma, a szülőkatalógus vagy a metaadattár által megadott alapértelmezett helyen találhatók. Lásd: Felügyelt és külső kötetek. |
Example
Az alábbi példa egy Unity Catalog-kötetet hoz létre a my_volume_idkulccsal:
resources:
volumes:
my_volume_id:
catalog_name: main
name: my_volume
schema_name: my_schema
A Unity Catalog-kötetben egy fájlba író feladatot futtató példacsomagért tekintse meg a csomagpéldák GitHub-adattárát.
Gyakori objektumok
engedélyez
Type: Map
Meghatározza az adott fő felhasználót és a neki adható jogosultságokat. További információ a támogatásokról: Jogosultságok megjelenítése, megadása és visszavonása.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
| Key | Típus | Description |
|---|---|---|
principal |
String | Annak a felelősnek a neve, aki jogosultságokat kap. Ez lehet felhasználó, csoport vagy szolgáltatásnév. |
privileges |
Sequence | A megadott entitásnak adható jogosultságok. Az érvényes értékek az erőforrás típusától függenek (például, SELECT, MODIFY, CREATE, USAGEREAD_FILES, WRITE_FILES, , EXECUTE). ALL_PRIVILEGES |
Example
Az alábbi példa egy Unity Catalog-sémát határoz meg támogatásokkal:
resources:
schemas:
my_schema:
name: test-schema
grants:
- principal: users
privileges:
- SELECT
- principal: my_team
privileges:
- CAN_MANAGE
catalog_name: main
életciklus
Type: Map
Az erőforrás életciklus-beállításait tartalmazza. Ez szabályozza az erőforrás viselkedését az üzembe helyezéskor vagy megsemmisítéskor.
Hozzáadva a Databricks CLI 0.268.0-s verziójához
| Key | Típus | Description |
|---|---|---|
prevent_destroy |
logikai | Életciklus-beállítás, amely megakadályozza az erőforrás megsemmisülését. Hozzáadva a Databricks CLI 0.268.0-s verziójához |