Megosztás:


Databricks Asset Bundles-erőforrások

A Databricks-eszközcsomagok lehetővé teszik a csomag által használt Azure Databricks-erőforrásokra vonatkozó információk megadását a csomagkonfiguráció resources leképezésében. Lásd az erőforrásokra vonatkozó referenciát.

Ez a lap konfigurációs referenciaként szolgál a csomagok összes támogatott erőforrástípusához, és részletes információkat és példákat tartalmaz az egyes támogatott típusokhoz. További példákért lásd Csomagkonfigurációs példákat.

A YAML-konfiguráció ellenőrzéséhez használt csomagok JSON-sémája a Databricks CLI GitHub-adattárban található.

Tip

A YAML bármely meglévő erőforráshoz való létrehozásához használja a databricks bundle generate parancsot. Tekintse meg a databricks-csomag generálása című témakört.

támogatott erőforrások

Az alábbi táblázat a csomagok támogatott erőforrástípusait (ADOTT ESETBEN YAML és Python) sorolja fel. Egyes erőforrások létrehozhatóak úgy, hogy egy csomagban definiálják őket, és üzembe helyezik a csomagot, és egyes erőforrások csak úgy hozhatók létre, ha egy meglévő objektumra hivatkoznak, hogy belefoglaljanak a csomagba.

Az erőforrás-konfiguráció egy Databricks REST API-objektumnak megfelelő Databricks-objektumot definiál. A REST API-objektum által támogatott létrehozási kérelemmezők YAML-ként kifejezve az erőforrás támogatott kulcsai. Az egyes erőforrások megfelelő objektumainak dokumentációjára mutató hivatkozások az alábbi táblázatban találhatók.

Tip

A databricks bundle validate parancs figyelmeztetéseket ad vissza, ha ismeretlen erőforrástulajdonságok találhatók a csomagkonfigurációs fájlokban.

Resource Python-támogatás Megfelelő REST API-objektum
riasztás Riasztási objektum
app alkalmazásobjektum
katalógus (Unity Catalog) Katalógusobjektum
cluster klaszter objektum
dashboard irányítópult-objektum
database_catalog Adatbáziskatalógus-objektum
database_instance Adatbázispéldány-objektum
experiment kísérletobjektum
job Munkahelyek feladatobjektum
modell (örökölt) Modell (örökölt) objektum
model_serving_endpoint végpontobjektumot kiszolgáló modell
pipeline Pipelines folyamatlánc objektum
postgres_branch Postgres ágobjektum
postgres_endpoint Postgres számítási végpont objektum
postgres_project Postgres projektobjektum
quality_monitor Minőségfigyelő objektum
regisztrált_modell (Unity Katalógus) regisztrált modellobjektum
séma (Unity Catalog) Sémák séma-objektum
secret_scope Titkos kulcs hatókör objektuma
sql_warehouse SQL Warehouse-objektum
szinkronizált_adatbázis_tábla Szinkronizált adatbázistábla-objektum
tárolóegység (Unity Catalog) kötetek Kötetobjektum

figyelmeztetés

Type: Map

A riasztási erőforrás egy SQL-riasztást (v2) határoz meg.

Hozzáadva a Databricks CLI 0.279.0-s verziójához

alerts:
  <alert-name>:
    <alert-field-name>: <alert-field-value>
Key Típus Description
custom_description String Opcionális. A riasztás egyéni leírása. Támogatja a bajuszsablont.
Hozzáadva a Databricks CLI 0.279.0-s verziójához
custom_summary String Opcionális. A riasztás egyéni összegzése. Támogatja a bajuszsablont.
Hozzáadva a Databricks CLI 0.279.0-s verziójához
display_name String Szükséges. A riasztás megjelenítendő neve, például Example alert.
Hozzáadva a Databricks CLI 0.279.0-s verziójához
evaluation Map Szükséges. A riasztás kiértékelési konfigurációja. Lásd : alert.evaluation.
Hozzáadva a Databricks CLI 0.279.0-s verziójához
lifecycle Map Az erőforrás életciklus-beállításait tartalmazza. Ez szabályozza az erőforrás viselkedését az üzembe helyezéskor vagy megsemmisítéskor. Lásd az életciklust.
Hozzáadva a Databricks CLI 0.279.0-s verziójához
parent_path String Opcionális. A riasztást tartalmazó mappa munkaterületi elérési útja. Csak létrehozásra állítható be, és nem frissíthető. Példa: /Users/someone@example.com.
Hozzáadva a Databricks CLI 0.279.0-s verziójához
permissions Sequence A riasztási engedélyek. Tekintse meg az engedélyeket.
Hozzáadva a Databricks CLI 0.279.0-s verziójához
query_text String Szükséges. A futtatni kívánt lekérdezés szövege, például SELECT 1.
Hozzáadva a Databricks CLI 0.279.0-s verziójához
run_as Map Opcionális. Megadja a riasztás futtatásához használt identitást. Ez a mező lehetővé teszi a riasztások adott felhasználóként vagy szolgáltatásnévként való futtatását. Lásd : run_as.
  • Felhasználói identitás esetén: Állítsa be user_name egy aktív munkaterület-felhasználó e-mail-címét. A felhasználók ezt csak a saját e-mail-címükre állíthatják be.
  • Szolgáltatási főkulcs esetén: Állítsa be a service_principal_name értéket az alkalmazásazonosítóra. A servicePrincipal/user szerepkörre van szükség. Ha nincs megadva, a riasztás a kérés felhasználójaként fog futni.

Hozzáadva a Databricks CLI 0.279.0-s verziójához
schedule Map Szükséges. A riasztás ütemezési konfigurációja. Lásd: alert.schedule.
Hozzáadva a Databricks CLI 0.279.0-s verziójához
warehouse_id String Szükséges. A riasztáshoz csatolt SQL Warehouse azonosítója, például a7066a8ef796be84.
Hozzáadva a Databricks CLI 0.279.0-s verziójához

riasztás.értékelés

Type: Map

A riasztás kiértékelési konfigurációja.

Key Típus Description
comparison_operator String A riasztás kiértékelése során összehasonlításra használt operátor.
empty_result_state String A riasztás állapota, ha az eredmény üres. Kerülje el, hogy ezt a mezőt UNKNOWN állapotra állítsa, mert a UNKNOWN állapotot tervezik elavulttá tenni.
notification Map A felhasználó vagy más célhely, amely értesítést küld a riasztás aktiválásakor. Lásd alert.evaluation.notification.
source Map A riasztás kiértékeléséhez használandó eredmény forrásoszlopa. Lásd : alert.evaluation.source.
threshold Map A riasztások kiértékeléséhez használandó küszöbérték. Ez lehet oszlop vagy érték. Lásd : alert.evaluation.threshold.

riasztás.értékelés.értesítés

Type: Map

A felhasználó vagy más célhely, amely értesítést küld a riasztás aktiválásakor.

Key Típus Description
notify_on_ok logikai Opcionális. Arról, hogy értesítést küld-e a riasztás előfizetőinek, ha a riasztás visszatér a normál állapotba.
retrigger_seconds Integer Opcionális. A riasztások hány másodpercig várakoznak az aktiválás után, mielőtt újabb értesítést küldhetnek. Ha be van 0 állítva vagy nincs megadva, a riasztás nem küld további értesítéseket az első eseményindító után. Amikor ezt az értéket 1-ra állítja be, a riasztás minden olyan értékeléskor értesítést küld, amikor a feltétel teljesül, ezzel folyamatosan újraindítva az értesítéseket.
subscriptions Sequence Opcionális. Az értesítési előfizetések rendezetlen listája. Lásd alert.evaluation.notification.subscriptions.
figyelmeztetés.értékelés.értesítés.előfizetések

Type: Sequence

Az értesítési előfizetések rendezetlen listája.

A lista minden eleme egy AlertSubscription:

Key Típus Description
destination_id String Az értesítési cél azonosítója.
user_email String Az értesítendő felhasználó e-mail-címe.

figyelmeztetés.értékelés.forrás

Type: Map

A riasztás kiértékeléséhez használandó eredmény forrásoszlopa.

Key Típus Description
aggregation String A forrásoszlopra alkalmazandó összesítési módszer. Az érvényes értékek a következőkSUM: , COUNT, COUNT_DISTINCTAVG, MEDIAN, , MINMAXSTDDEV
display String A forrásoszlop megjelenítendő neve.
name String A lekérdezés eredményéből származó forrásoszlop neve.

figyelmeztetés.értékelés.küszöbérték

Type: Map

A riasztások kiértékeléséhez használandó küszöbérték lehet oszlop vagy érték.

Key Típus Description
column Map Küszöbértékként használandó oszlophivatkozás. Lásd : alert.evaluation.source.
value Map A küszöbértékként használandó literális érték. Lásd : alert.evaluation.threshold.value.
figyelmeztetés.értékelés.küszöbérték.érték

Type: Map

A küszöbértékként használandó literális érték. Adja meg az alábbi értéktípusok egyikét.

Key Típus Description
bool_value logikai Opcionális. A küszöbérték logikai értéke, például true.
double_value Double Opcionális. A küszöbérték numerikus értéke, például 1.25.
string_value String Opcionális. A küszöbérték sztringértéke, például test.

riasztás.ütemterv

Type: Map

A riasztás ütemezési konfigurációja.

Key Típus Description
pause_status String Opcionális. Az ütemezés szünetel-e vagy sem. Érvényes értékek: UNPAUSED, PAUSED. Alapértelmezett: UNPAUSED.
quartz_cron_schedule String Szükséges. Cron kifejezés kvarcszintaxissal, amely meghatározza a folyamat ütemezését. A kvarcformátumot kvarc ütemező formátumban írják le.
timezone_id String Szükséges. Java időzóna azonosító. Az ütemezést ezzel az időzónával fogják meghatározni. Ez lesz kombinálva az quartz_cron_schedule-tel az ütemezés meghatározásához. Részletekért lásd a SET TIME ZONE.

Examples

Az alábbi példakonfiguráció egy egyszerű kiértékeléssel rendelkező riasztást határoz meg:

resources:
  alerts:
    my_alert:
      display_name: my_alert
      evaluation:
        comparison_operator: EQUAL
        source:
          name: '1'
        threshold:
          value:
            double_value: 2
      query_text: select 2
      schedule:
        quartz_cron_schedule: '44 19 */1 * * ?'
        timezone_id: Europe/Amsterdam
      warehouse_id: 799f096837fzzzz4

Az alábbi példakonfiguráció egy olyan riasztást határoz meg, amely engedélyeket tartalmaz, amelyek összesítéssel kiértékelik és értesítéseket küldenek:

resources:
  alerts:
    my_alert:
      permissions:
        - level: CAN_MANAGE
          user_name: someone@example.com
      custom_summary: 'My alert'
      display_name: 'My alert'
      evaluation:
        comparison_operator: 'EQUAL'
        notification:
          notify_on_ok: false
          retrigger_seconds: 1
        source:
          aggregation: 'MAX'
          display: '1'
          name: '1'
        threshold:
          value:
            double_value: 2
      query_text: 'select 2'
      schedule:
        pause_status: 'UNPAUSED'
        quartz_cron_schedule: '44 19 */1 * * ?'
        timezone_id: 'Europe/Amsterdam'
      warehouse_id: 799f096837fzzzz4

alkalmazás

Type: Map

Az alkalmazáserőforrás definiál egy Databricks-alkalmazást. A Databricks Apps szolgáltatással kapcsolatos információkért lásd: Databricks Apps.

Alkalmazás hozzáadásához adja meg az alkalmazás definiálásához szükséges beállításokat, beleértve a szükséges source_code_pathbeállításokat is.

Tip

Streamlit Databricks-alkalmazással inicializálhat egy csomagot az alábbi paranccsal:

databricks bundle init https://github.com/databricks/bundle-examples --template-dir contrib/templates/streamlit-app

Hozzáadva a Databricks CLI 0.239.0-s verziójához

apps:
  <app-name>:
    <app-field-name>: <app-field-value>
Key Típus Description
budget_policy_id String Az alkalmazás költségvetési szabályzatazonosítója.
Hozzáadva a Databricks CLI 0.243.0-s verziójához
compute_size String Az alkalmazás számítási mérete. Az érvényes értékek a munkaterület konfigurációjától függenekMEDIUM.LARGE
Hozzáadva a Databricks CLI 0.273.0-s verziójához
config Map Alkalmazáskonfigurációs parancsok és környezeti változók. Ha meg van adva, ez a konfiguráció egy app.yaml-fájlba lesz beírva a forráskód elérési útján az üzembe helyezés során. Ez lehetővé teszi, hogy az alkalmazáskonfigurációt közvetlenül a yaML csomagban definiálja ahelyett, hogy külön app.yaml-fájlt tartana fenn. Lásd :app.config.
Hozzáadva a Databricks CLI 0.283.0-s verziójához
description String Az alkalmazás leírása.
Hozzáadva a Databricks CLI 0.239.0-s verziójához
lifecycle Map Az erőforrás viselkedése üzembe helyezéskor vagy megsemmisítéskor. Lásd az életciklust.
Hozzáadva a Databricks CLI 0.268.0-s verziójához
name String Az alkalmazás neve. A név csak kisbetűs alfanumerikus karaktereket és kötőjeleket tartalmazhat. A munkaterületen belül egyedinek kell lennie.
Hozzáadva a Databricks CLI 0.239.0-s verziójához
permissions Sequence Az alkalmazás engedélyei. Tekintse meg az engedélyeket.
Hozzáadva a Databricks CLI 0.239.0-s verziójához
resources Sequence Az alkalmazás számítási erőforrásai. Lásd : app.resources.
Hozzáadva a Databricks CLI 0.239.0-s verziójához
source_code_path String A ./app Databricks alkalmazás forráskódjának helyi elérési útja.
Hozzáadva a Databricks CLI 0.239.0-s verziójához
user_api_scopes Sequence A felhasználói API-hatókörök.
Hozzáadva a Databricks CLI 0.246.0-s verziójához

app.config

Alkalmazáskonfigurációs parancsok és környezeti változók. Lásd: A Databricks-alkalmazás végrehajtásának konfigurálása a következővel app.yaml: .

Key Típus Description
command String Az alkalmazás futtatására szolgáló parancsok, például ["streamlit", "run", "app.py"]
env Sequence Az alkalmazáskörnyezet változóit meghatározó párok listája és value listájaname.

app.erőforrások

Type: Sequence

Az alkalmazás számítási erőforrásainak listája.

A lista minden eleme egy AppResource:

Key Típus Description
description String Az alkalmazáserőforrás leírása.
database Map A használni kívánt Lakebase-adatbázist azonosító beállítások. Lásd : app.resources.database.
experiment Map A használni kívánt MLflow-kísérletet azonosító beállítások. Lásd : app.resources.experiment.
genie_space Map A használni kívánt Genie-területet azonosító beállítások. Lásd : app.resources.genie_space.
job Map A használni kívánt feladaterőforrást azonosító beállítások. Lásd : app.resources.job.
name String Az alkalmazáserőforrás neve.
secret Map A használni kívánt Azure Databricks titkos erőforrást azonosító beállítások. Lásd : app.resources.secret.
serving_endpoint Map A használandó végponterőforrást kiszolgáló modellt azonosító beállítások. Lásd app.resources.serving_endpoint.
sql_warehouse Map A használni kívánt SQL Warehouse-erőforrást azonosító beállítások. Lásd : app.resources.sql_warehouse.
uc_securable Map A használni kívánt Unity Catalog-kötetet azonosító beállítások. Lásd : app.resources.uc_securable.

app.erőforrások.adatbázis

Type: Map

A használni kívánt Lakebase-adatbázist azonosító beállítások.

Key Típus Description
database_name String Az adatbázis neve.
instance_name String Az adatbázispéldány neve.
permission String Az adatbázis engedélyszintje. Az érvényes értékek a következők: CAN_CONNECT_AND_CREATE.

app.resources.experiment

Type: Map

A használni kívánt MLflow-kísérletet azonosító beállítások.

Key Típus Description
experiment_id String Az MLflow-kísérlet azonosítója.
permission String A kísérlet engedélyszintje. Az érvényes értékek a következők: CAN_READ, CAN_EDITCAN_MANAGE.

app.resources.genie_space

Type: Map

A használni kívánt Genie-területet azonosító beállítások.

Key Típus Description
name String A Genie tér neve.
permission String A tér jogosultsági szintje. Az érvényes értékek a következők: CAN_VIEW, CAN_EDIT, CAN_MANAGECAN_RUN.
space_id String Például a Genie-tér 550e8400-e29b-41d4-a716-999955440000azonosítója.

app.resources.job

Type: Map

A használni kívánt feladaterőforrást azonosító beállítások.

Key Típus Description
id String A feladat azonosítója.
permission String A feladat engedélyszintje. Az érvényes értékek a következők: CAN_VIEW, CAN_MANAGE_RUN, CAN_MANAGEIS_OWNER.

app.resources.secret

Type: Map

A használni kívánt Azure Databricks titkos erőforrást azonosító beállítások.

Key Típus Description
key String Az engedély megadásához szükséges titkos kulcs.
permission String A titkos kód engedélyszintje. Az érvényes értékek a következők: READ, WRITEMANAGE.
scope String A titkos hatókör neve.

app.resources.kiszolgáló_végpont

Type: Map

A használandó végponterőforrást kiszolgáló modellt azonosító beállítások.

Key Típus Description
name String A kiszolgáló végpont neve.
permission String A kiszolgáló végpont engedélyszintje. Az érvényes értékek a következők: CAN_QUERY, CAN_MANAGECAN_VIEW.

app.resources.sql_warehouse

Type: Map

A használni kívánt SQL Warehouse-t azonosító beállítások.

Key Típus Description
id String Az SQL Warehouse azonosítója.
permission String Az SQL Warehouse engedélyszintje. Az érvényes értékek a következők: CAN_USE, CAN_MANAGEIS_OWNER.

app.resources.uc_securable

Type: Map

A használni kívánt Unity Catalog-kötetet azonosító beállítások.

Key Típus Description
permission String A Unity-katalógus engedélyszintje biztonságos. Az érvényes értékek a következők: READ_VOLUME és WRITE_VOLUME.
securable_full_name String A Unity Catalogba helyezhető elemek teljes neve a catalog.schema.volume formátumban.
securable_type String A biztonságos Unity-katalógus típusa. Az érvényes értékek a következők: VOLUME.

Examples

Az alkalmazást definiáló csomag létrehozását bemutató oktatóanyagért lásd: Databricks-alkalmazások kezelése a Databricks-eszközcsomagokkal.

Az alábbi példa egy alapszintű alkalmazást határoz meg:

resources:
  apps:
    hello_world_app:
      name: 'hello-world-app'
      source_code_path: . # This assumes the app source code is at the root of the project.
      description: 'A Databricks app'

Az alábbi példa létrehoz egy alkalmazást my_app , amely a csomag által létrehozott feladatot kezeli. A teljes példáért tekintse meg a csomagpéldák GitHub-adattárát.

resources:
  jobs:
    # Define a job in the bundle
    hello_world:
      name: hello_world
      tasks:
        - task_key: task
          spark_python_task:
            python_file: ../src/main.py
          environment_key: default

      environments:
        - environment_key: default
          spec:
            environment_version: '2'

  # Define an app that manages the job in the bundle
  apps:
    job_manager:
      name: 'job_manager_app'
      description: 'An app which manages a job created by this bundle'

      # The location of the source code for the app
      source_code_path: ../src/app

      # The resources in the bundle which this app has access to. This binds the resource in the app with the bundle resource.
      resources:
        - name: 'app-job'
          job:
            id: ${resources.jobs.hello_world.id}
            permission: 'CAN_MANAGE_RUN'

A megfelelő app.yaml határozza meg az alkalmazás futtatásának konfigurációját:

command:
  - flask
  - --app
  - app
  - run
  - --debug
env:
  - name: JOB_ID
    valueFrom: 'app-job'

Az alábbi példa létrehoz egy alkalmazást, amely hozzáfér a csomag által létrehozott MLflow-kísérlethez:

resources:
  experiments:
    # Define an MLflow experiment in the bundle
    my_experiment:
      name: /Users/${workspace.current_user.userName}/my-app-experiment

  apps:
    my_ml_app:
      name: 'my-ml-app'
      description: 'An app with access to an MLflow experiment'
      source_code_path: ./app

      # Grant the app access to the MLflow experiment
      resources:
        - name: 'app-experiment'
          experiment:
            experiment_id: ${resources.experiments.my_experiment.id}
            permission: 'CAN_MANAGE'

Másik lehetőségként az alábbi példa egy, a csomagkonfigurációban definiált egyéni konfigurációval rendelkező alkalmazást definiál:

resources:
  apps:
    my_app:
      name: my_app
      description: my_app_description
      source_code_path: ./app
      config:
        command: ['flask', '--app', 'app', 'run']
        env:
          - name: MY_ENV_VAR
            value: test_value
          - name: ANOTHER_VAR
            value: another_value

catalogs

Type: Map

A katalógus-erőforrás lehetővé teszi a katalógusok (Unity Catalog) csomagban való meghatározását.

Note

A Databricks Asset Bundles használata katalógusok definiálásához csak akkor támogatott, ha a közvetlen üzembehelyezési motort használja.

Hozzáadva a Databricks CLI 0.287.0-s verziójához

catalogs:
  <catalog-name>:
    <catalog-field-name>: <catalog-field-value>
Key Típus Description
comment String A katalógus felhasználó által megadott szabad formátumú szöveges leírása.
Hozzáadva a Databricks CLI 0.287.0-s verziójához
connection_name String A külső adatforráshoz való kapcsolat neve.
Hozzáadva a Databricks CLI 0.287.0-s verziójához
grants Sequence A katalógushoz társított támogatások. Lásd adomány.
Hozzáadva a Databricks CLI 0.287.0-s verziójához
lifecycle Map Az erőforrás életciklus-beállításait tartalmazza. Ez szabályozza az erőforrás viselkedését az üzembe helyezéskor vagy megsemmisítéskor. Lásd az életciklust.
Hozzáadva a Databricks CLI 0.287.0-s verziójához
name String Szükséges. A katalógus neve.
Hozzáadva a Databricks CLI 0.287.0-s verziójához
options Objektum A biztonságoshoz csatolt kulcs-érték tulajdonságok térképe.
Hozzáadva a Databricks CLI 0.287.0-s verziójához
properties Objektum A biztonságoshoz csatolt kulcs-érték tulajdonságok térképe.
Hozzáadva a Databricks CLI 0.287.0-s verziójához
provider_name String A változásmegosztási szolgáltató neve. A Delta Sharing katalógus egy olyan katalógus, amely egy távoli megosztókiszolgálón található Delta-megosztáson alapul. Lásd : Mi az a deltamegosztás?.
Hozzáadva a Databricks CLI 0.287.0-s verziójához
share_name String A megosztás neve a megosztásszolgáltató alatt.
Hozzáadva a Databricks CLI 0.287.0-s verziójához
storage_root String A katalógusban lévő felügyelt táblák gyökér URL-címe.
Hozzáadva a Databricks CLI 0.287.0-s verziójához

Example

resources:
  catalogs:
    my_catalog:
      name: my_catalog
      comment: 'Catalog created by Databricks Asset Bundles'
      properties:
        purpose: 'Testing'
      grants:
        - principal: someone@example.com
          privileges:
            - USE_CATALOG
            - CREATE_SCHEMA

  schemas:
    my_schema:
      name: my_schema
      catalog_name: ${resources.catalogs.my_catalog.name}
      comment: 'Schema in custom catalog'

klaszter

Type: Map

A fürterőforrás definiál egy fürtöt.

Hozzáadva a Databricks CLI 0.229.0-s verziójához

clusters:
  <cluster-name>:
    <cluster-field-name>: <cluster-field-value>
Key Típus Description
apply_policy_default_values logikai Ha igaz értékre van állítva, a program a házirend rögzített és alapértelmezett értékeit használja a kihagyott mezőkhöz. Ha hamis értékre van állítva, a rendszer csak a szabályzat rögzített értékeit alkalmazza.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
autoscale Map A fürtök terhelés alapján történő automatikus fel- és leskálázásához szükséges paraméterek. Lásd az automatikus skálázást.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
autotermination_minutes Integer Automatikusan leállítja a fürtöt, miután az meghatározott percekig inaktív. Ha nincs beállítva, a fürt nem fog automatikusan leállni. Ha meg van adva, a küszöbértéknek 10 és 10000 perc között kell lennie. A felhasználók ezt az értéket 0 értékre is beállíthatják az automatikus leállítás explicit letiltásához.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
aws_attributes Map Az Amazon Web Servicesen futó fürtökhöz kapcsolódó attribútumok. Ha a fürt létrehozásakor nincsenek megadva az értékek, a rendszer az alapértelmezett értékeket fogja használni. Lásd : aws_attributes.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
azure_attributes Map A Microsoft Azure-ban futó fürtökhöz kapcsolódó attribútumok. Ha a fürt létrehozásakor nincsenek megadva az értékek, a rendszer az alapértelmezett értékeket fogja használni. Lásd : azure_attributes.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
cluster_log_conf Map A spark-naplók hosszú távú tárolási célhelyre történő továbbításának konfigurációja. Lásd : cluster_log_conf.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
cluster_name String A felhasználó által kért fürtnév. Ennek nem kell egyedinek lennie. Ha a létrehozáskor nincs megadva, a fürt neve üres karakterlánc lesz.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
custom_tags Map További címkék a klaszter erőforrásokhoz. A Databricks a címkék mellett az összes fürterőforrást (például AWS-példányokat és EBS-köteteket) is címkézni fogja default_tags.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
data_security_mode String A fürt adatainak elérésekor használandó adatszabályozási modell. Az érvényes értékek a következők: NONE, SINGLE_USER, USER_ISOLATION, LEGACY_SINGLE_USER, LEGACY_TABLE_ACLLEGACY_PASSTHROUGH.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
docker_image Map Az egyéni Docker-rendszerkép. Lásd : docker_image.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
driver_instance_pool_id String A fürt illesztőprogramjához tartozó példánycsoport opcionális azonosítója. A készletfürt a példánykészletet használja azonosítóval (példány*pool_id), ha az illesztőprogram-készlet nincs hozzárendelve.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
driver_node_type_id String A Spark-illesztőprogram csomóponttípusa. Ez a mező nem kötelező. Ha nincs megadva, az illesztőcsomópont típusa a következő értékre node_type_idvan állítva: . Ezt a mezőt nem szabad beállítani, node_type_idha virtual_cluster_size be van állítva. Ha mindkettő driver_node_type_id, node_type_idés virtual_cluster_size meg van adva, driver_node_type_id és node_type_id elsőbbséget élvez.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
enable_elastic_disk logikai Helyi tároló automatikus skálázása: ha engedélyezve van, ez a fürt dinamikusan további lemezterületet szerez be, ha a Spark-feldolgozók kevés lemezterületen futnak. Ehhez a funkcióhoz adott AWS-engedélyek szükségesek a megfelelő működéshez – további részletekért tekintse meg a felhasználói útmutatót.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
enable_local_disk_encryption logikai Engedélyezi-e a LUKS-t a fürt virtuális gépeinek helyi lemezén.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
gcp_attributes Map A Google Cloud Platformon futó fürtökhöz kapcsolódó attribútumok. Ha a fürt létrehozásakor nincsenek megadva az értékek, a rendszer az alapértelmezett értékeket fogja használni. Lásd : gcp_attributes.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
init_scripts Sequence Init-szkriptek tárolásának konfigurációja. Tetszőleges számú célhely megadható. A szkriptek egymás után, a megadott sorrendben lesznek végrehajtva. Lásd : init_scripts.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
instance_pool_id String Annak a példánykészletnek az opcionális azonosítója, amelyhez a fürt tartozik.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
is_single_node logikai Ez a mező csak akkor használható, ha kind = CLASSIC_PREVIEW. Ha igaz értékre van állítva, a Databricks automatikusan beállítja az egyetlen csomóponttal kapcsolatos custom_tags, spark_confés num_workers.
Hozzáadva a Databricks CLI 0.237.0-s verziójához
kind String Az ebben a számítási specifikációban leírt számítási típus.
Hozzáadva a Databricks CLI 0.237.0-s verziójához
lifecycle Map Az erőforrás életciklus-beállításait tartalmazza. Ez szabályozza az erőforrás viselkedését az üzembe helyezéskor vagy megsemmisítéskor. Lásd az életciklust.
Hozzáadva a Databricks CLI 0.268.0-s verziójához
node_type_id String Ez a mező egyetlen értéken keresztül kódolja a fürtben lévő Spark-csomópontok számára elérhető erőforrásokat. Például, a Spark csomópontok előkészíthetők és optimalizálhatók memória- vagy számításigényes feladatokhoz. Az elérhető csomóponttípusok listáját a Lista csomóponttípusok API használatával lehet lekérni.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
num_workers Integer Azoknak a munkavégző csomópontoknak a száma, amellyel ennek a fürtnek rendelkeznie kell. Egy fürt egyetlen Spark-illesztőprogramot és num_workers végrehajtót tartalmaz, összesen num_workers + 1 Spark-csomópontot.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
permissions Sequence A klaszter engedélyei. Tekintse meg az engedélyeket.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
policy_id String A fürt létrehozásához használt fürtszabályzat azonosítója, ha van ilyen.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
remote_disk_throughput Integer Távoli lemez átviteli sebessége másodpercenként bájtban.
Hozzáadva a Databricks CLI 0.257.0-s verziójához
runtime_engine String Meghatározza a fürt futtatókörnyezeti motorját vagy STANDARDPHOTON.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
single_user_name String Egyetlen felhasználónév, ha az adatok*security_mode .SINGLE_USER
Hozzáadva a Databricks CLI 0.229.0-s verziójához
spark_conf Map Nem kötelező, felhasználó által megadott Spark-konfigurációs kulcs-érték párokat tartalmazó objektum. A felhasználók emellett további JVM-beállítások sztringjét is átadhatják az illesztőprogramnak és a végrehajtóknak.spark.driver.extraJavaOptionsspark.executor.extraJavaOptions
Hozzáadva a Databricks CLI 0.229.0-s verziójához
spark_env_vars Map Nem kötelező, felhasználó által megadott környezeti változókulcs-érték párokat tartalmazó objektum.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
spark_version String A fürt Spark-verziója, például 3.3.x-scala2.11. Az elérhető Spark-verziók listája az elérhető Spark-verziók listájának API-val kérhető le.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
ssh_public_keys Sequence Nyilvános SSH-kulcs tartalma, amely a fürt minden Spark-csomópontjára fel lesz adva. A megfelelő titkos kulcsokkal bejelentkezhet a porton ubuntulévő felhasználónévvel2200. Legfeljebb 10 kulcs adható meg.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
total_initial_remote_disk_size Integer A kezdeti távoli lemez teljes mérete bájtban.
Hozzáadva a Databricks CLI 0.257.0-s verziójához
use_ml_runtime logikai Ez a mező csak akkor használható, ha kind = CLASSIC_PREVIEW. effective_spark_version-t a spark_version (Databricks Runtime release), ez a mező use_ml_runtime, és az, hogy a node_type_id GPU-csomópont-e, határozza meg.
Hozzáadva a Databricks CLI 0.237.0-s verziójához
workload_type Map Fürtattribútumok, amelyek a fürtök számítási feladatainak típusaihoz jelennek meg. Lásd workload_type.
Hozzáadva a Databricks CLI 0.229.0-s verziójához

cluster.autoscale

Type: Map

A fürtök terhelés alapján fel- és leskálázásának paraméterei.

Key Típus Description
min_workers Integer Azoknak a dolgozóknak a minimális száma, akikre a fürt kihasználatlan állapotban leskálázható. A fürt kezdeti számú feldolgozója is lesz a létrehozás után.
max_workers Integer Azoknak a dolgozóknak a maximális száma, akikre a fürt túlterhelt állapotban felskálázható. max_workers szigorúan nagyobbnak kell lennie, mint min_workers.

cluster.aws_jellemzők

Type: Map

Az Amazon Web Servicesen futó fürtökhöz kapcsolódó attribútumok.

Key Típus Description
zone_id String Annak a rendelkezésreállási zónának/adatközpontnak az azonosítója, amelyben a klaszter található. Ez a sztring olyan formátumú lesz, mint us-west-2a.
availability String Az összes további csomóponthoz használt rendelkezésre állási típus a first_on_demand korábbiakon kívül. Az érvényes értékek a következőkSPOT: , ON_DEMANDSPOT_WITH_FALLBACK.
spot_bid_price_percent Integer Az AWS spot példányainak maximális ára a megfelelő példánytípus igény szerinti árának százalékában.
instance_profile_arn String A fürt csomópontjai csak azokban az AWS-példányokban lesznek elhelyezve, amelyek rendelkeznek ezzel a példányprofillal.
first_on_demand Integer A fürt első first_on_demand csomópontjai igény szerinti példányokon helyezkednek el. Ennek az értéknek nagyobbnak kell lennie, mint 0, azért, hogy a fürtvezérlő csomópont egy igény szerinti példányon legyen elhelyezve.
ebs_volume_type String A fürttel indítandó EBS-kötetek típusa. Az érvényes értékek GENERAL_PURPOSE_SSD vagy THROUGHPUT_OPTIMIZED_HDD.
ebs_volume_count Integer Az egyes példányokhoz indított kötetek száma.
ebs_volume_size Integer Az egyes példányokhoz indított EBS-kötetek mérete (GiB-ben).
ebs_volume_iops Integer Az EBS gp3 kötetenkénti IOPS száma.
ebs_volume_throughput Integer Az EBS gp3 kötetenkénti átviteli sebessége másodpercenkénti MiB-ben.

cluster.azure_attributes

Type: Map

A Microsoft Azure-ban futó fürtökhöz kapcsolódó attribútumok.

Key Típus Description
first_on_demand Integer A fürt első first_on_demand csomópontjai igény szerinti példányokon helyezkednek el.
availability String Az összes további csomóponthoz használt rendelkezésre állási típus a first_on_demand korábbiakon kívül. Az érvényes értékek a következőkSPOT_AZURE: , ON_DEMAND_AZURESPOT_WITH_FALLBACK_AZURE.
spot_bid_max_price Szám Az Azure előrefizetéses példányok maximális ára. A legalacsonyabb ár megadására használható -1 .
log_analytics_info Map Az Azure Log Analytics-ügynök konfigurációja. Lásd : log_analytics_info.

cluster.azure_attributes.log_analytics_info

Type: Map

Az Azure Log Analytics-ügynök konfigurációja.

Key Típus Description
log_analytics_workspace_id String Az Azure Log Analytics-munkaterület azonosítója.
log_analytics_primary_key String Az Azure Log Analytics-munkaterület elsődleges kulcsa.

cluster.gcp_attributes

Type: Map

A Google Cloud Platformon futó fürtökhöz kapcsolódó attribútumok.

Key Típus Description
use_preemptible_executors logikai Használjunk-e preemptible végrehajtókat? A preemptible végrehajtók olyan preemptible GCE-instance-k, amelyeket a GCE bármikor visszaigényelhet.
google_service_account String A Databricks-fürt virtuálisgép-példányai által használandó Google-szolgáltatásfiók.
local_ssd_count Integer A fürt egyes csomópontjaihoz csatolandó helyi SSD-k száma. Az alapértelmezett érték a 0.
zone_id String Annak a rendelkezésreállási zónának/adatközpontnak az azonosítója, amelyben a klaszter található.
availability String Az összes csomóponthoz használt rendelkezésre állási típus. Az érvényes értékek a következőkPREEMPTIBLE_GCP: , ON_DEMAND_GCPPREEMPTIBLE_WITH_FALLBACK_GCP.
boot_disk_size Integer A rendszerindító lemez mérete GB-ban. Az értékek általában 100 és 1000 között mozognak.

cluster.cluster_log_conf

A Spark-naplók hosszú távú tárolási célhelyre történő kézbesítésének konfigurációja.

Key Típus Description
dbfs Map A fürtnaplók kézbesítésének DBFS-helye. Lásd : dbfs.
s3 Map A fürtnaplók kézbesítésének S3-helye. Lásd s3.
volumes Map Kötetek helye a fürtnaplók kézbesítéséhez. Lásd a köteteket.

cluster.cluster_log_conf.dbfs

Type: Map

A fürtnaplók kézbesítésének DBFS-helye.

Key Típus Description
destination String A klaszternaplók kézbesítéséhez szükséges DBFS elérési út (például dbfs:/cluster-logs).

cluster.cluster_log_conf.s3

Type: Map

A fürtnaplók kézbesítésének S3-helye.

Key Típus Description
destination String A fürtnaplók kézbesítésének S3 URI-ja (például s3://my-bucket/cluster-logs).
region String Az S3 bucket AWS-régiója.
endpoint String Az S3 végpont URL-címe (nem kötelező).
enable_encryption logikai Kérdés, hogy engedélyezzük-e a fürtnaplók titkosítását.
encryption_type String A titkosítás típusa. Az érvényes értékek a következők: SSE_S3. SSE_KMS
kms_key String A titkosításhoz használt KMS-kulcs ARN-je (ha használja SSE_KMS).
canned_acl String Az előre definiált ACL, amelyet a fürt naplójára kell alkalmazni.

cluster.cluster_log_conf.volumes

Type: Map

Kötetek helye a fürtnaplók kézbesítéséhez.

Key Típus Description
destination String Az fürtnaplók kézbesítésének kötet útvonala (például /Volumes/catalog/schema/volume/cluster_log).

cluster.docker_image

Type: Map

Az egyéni Docker-rendszerkép konfigurációja.

Key Típus Description
url String A Docker-rendszerkép URL-címe.
basic_auth Map Alapszintű hitelesítés a Docker-adattárhoz. Lásd basic_auth.

cluster.docker_image.basic_auth

Type: Map

Alapszintű hitelesítés a Docker-adattárhoz.

Key Típus Description
username String A Docker-beállításjegyzék-hitelesítés felhasználóneve.
password String A Docker-beállításjegyzék hitelesítésének jelszava.

cluster.init_scripts

Type: Map

Init-szkriptek tárolásának konfigurációja. Legalább egy helytípust meg kell adni.

Key Típus Description
dbfs Map Az init szkript DBFS-helye. Lásd : dbfs.
workspace Map Az init-szkript munkaterületi helye. Lásd munkaterület.
s3 Map Az init szkript S3 helye. Lásd s3.
abfss Map Az init szkript helye az ABFSS rendszerben. Lásd abfss.
gcs Map Az init szkript GCS helye. Lásd gcs.
volumes Map Az UC-kötetek init szkriptjének helye. Lásd a köteteket.

cluster.init_scripts.dbfs

Type: Map

Az init szkript DBFS-helye.

Key Típus Description
destination String Az init szkript DBFS-útvonala.

cluster.init_scripts.workspace

Type: Map

Az init-szkript munkaterületi helye.

Key Típus Description
destination String Az init szkript munkaterületi elérési útja.

cluster.init_scripts.s3

Type: Map

Az init szkript S3 helye.

Key Típus Description
destination String Az init szkript S3 URI-ja.
region String Az S3 bucket AWS-régiója.
endpoint String Az S3 végpont URL-címe (nem kötelező).

cluster.init_scripts.abfss

Type: Map

Az init szkript helye az ABFSS rendszerben.

Key Típus Description
destination String Az init szkript ABFSS-elérési útja.

cluster.init_scripts.gcs

Type: Map

Az init szkript GCS helye.

Key Típus Description
destination String Az init szkript GCS elérési útja.

cluster.init_scripts.volumes

Type: Map

Az init szkript kötetek helye.

Key Típus Description
destination String Az init-szkript UC-tárolóegységek elérési útja.

cluster.terhelési_típus

Type: Map

A fürt attribútumai a fürt terhelési típusait mutatják.

Key Típus Description
clients Map Meghatározza, hogy milyen ügyféltípusok használhatják a klasztert. Ügyfelek megtekintése.

cluster.workload_type.kliens

Type: Map

A számítási feladatokhoz tartozó ügyfelek típusa.

Key Típus Description
jobs logikai A fürt futtathat-e feladatokat.
notebooks logikai Azt jelzi, hogy a fürt képes-e jegyzetfüzeteket futtatni.

Examples

Az alábbi példa egy dedikált (egyfelhasználós) fürtöt hoz létre az aktuális felhasználó számára a Databricks Runtime 15.4 LTS és egy fürtszabályzat használatával:

resources:
  clusters:
    my_cluster:
      num_workers: 0
      node_type_id: 'i3.xlarge'
      driver_node_type_id: 'i3.xlarge'
      spark_version: '15.4.x-scala2.12'
      spark_conf:
        'spark.executor.memory': '2g'
      autotermination_minutes: 60
      enable_elastic_disk: true
      single_user_name: ${workspace.current_user.userName}
      policy_id: '000128DB309672CA'
      enable_local_disk_encryption: false
      data_security_mode: SINGLE_USER
      runtime_engine: STANDARD

Ez a példa létrehoz egy egyszerű fürtöt my_cluster , és beállítja azt úgy, hogy a fürt a jegyzetfüzet futtatására szolgáljon my_job.

bundle:
  name: clusters

resources:
  clusters:
    my_cluster:
      num_workers: 2
      node_type_id: 'i3.xlarge'
      autoscale:
        min_workers: 2
        max_workers: 7
      spark_version: '13.3.x-scala2.12'
      spark_conf:
        'spark.executor.memory': '2g'

  jobs:
    my_job:
      tasks:
        - task_key: test_task
          notebook_task:
            notebook_path: './src/my_notebook.py'
          existing_cluster_id: ${resources.clusters.my_cluster.id}

irányítópult

Type: Map

Az irányítópult-erőforrás lehetővé teszi AI/BI-irányítópultok csomagban kezelését. Az AI/BI-irányítópultokról további információt Irányítópultokcímű témakörben talál.

Ha olyan csomagot helyezett üzembe, amely a helyi környezetből tartalmaz irányítópultot, majd a felhasználói felületen módosítja az irányítópultot, a felhasználói felületen végrehajtott módosítások nem lesznek alkalmazva a helyi csomagban lévő irányítópult JSON-fájljára, kivéve, ha ön kifejezetten frissíti azt.bundle generate A --watch lehetőséggel folyamatos lekérdezéseket végezhet és frissítheti az irányítópult módosításait. Tekintse meg a databricks-csomag generálása című témakört.

Ezenkívül ha egy olyan csomagot próbál üzembe helyezni a helyi környezetből, amely egy olyan irányítópult JSON-fájlt tartalmaz, amely eltér a távoli munkaterületen lévőtől, hiba lép fel. Ha a távoli munkaterületen a helyivel szeretné kényszeríteni az irányítópult üzembe helyezését és felülírását, használja a --force lehetőséget. Lásd a Databricks-csomag üzembe helyezését.

Hozzáadva a Databricks CLI 0.232.0-s verziójához

Note

Ha a Databricks-eszközcsomagokat irányítópult Git-támogatással használja, akadályozza meg az ismétlődő irányítópultok létrehozását úgy, hogy hozzáadja a szinkronizálási térképet, amellyel kizárja az irányítópultokat a fájlok szinkronizálásából:

sync:
  exclude:
    - src/*.lvdash.json
dashboards:
  <dashboard-name>:
    <dashboard-field-name>: <dashboard-field-value>
Key Típus Description
dataset_catalog String Az irányítópult összes adathalmaza által használt alapértelmezett katalógusérték, ha a lekérdezés másként nem rendelkezik. A mezőt beállító konfigurációt például az Irányítópult-katalógus és a sémaparaméterezés című témakörben talál.
Hozzáadva a Databricks CLI 0.283.0-s verziójához
dataset_schema String Az irányítópult összes adathalmaza által használt alapértelmezett sémaérték, ha a lekérdezés másként nem rendelkezik. A mezőt beállító konfigurációt például az Irányítópult-katalógus és a sémaparaméterezés című témakörben talál.
Hozzáadva a Databricks CLI 0.283.0-s verziójához
display_name String Az irányítópult megjelenítendő neve.
Hozzáadva a Databricks CLI 0.232.0-s verziójához
embed_credentials logikai Annak meghatározása, hogy a csomag üzembe helyezési identitásának hitelesítő adatait használják-e az összes irányítópult néző lekérdezéseinek futtatására. Ha be van állítva false, a rendszer egy megtekintő hitelesítő adatait használja. Az alapértelmezett érték a false.
Hozzáadva a Databricks CLI 0.232.0-s verziójához
etag String Az irányítópult ETag-je. A frissítéseken opcionálisan megadható annak biztosítása érdekében, hogy az irányítópult az utolsó olvasás óta ne legyen módosítva.
Hozzáadva a Databricks CLI 0.234.0-s verziójához
file_path String Az irányítópult-objektum helyi elérési útja, beleértve a fájlnevet is. Az exportált irányítópultok mindig rendelkeznek a fájlkiterjesztéssel .lvdash.json.
Hozzáadva a Databricks CLI 0.232.0-s verziójához
lifecycle Map Az erőforrás életciklus-beállításait tartalmazza. Ez szabályozza az erőforrás viselkedését az üzembe helyezéskor vagy megsemmisítéskor. Lásd az életciklust.
parent_path String Az irányítópultot tartalmazó mappa munkaterületi elérési útja. Bevezető perjelet és záró perjelet nem tartalmaz.
Hozzáadva a Databricks CLI 0.232.0-s verziójához
path String Az irányítópult-objektum munkaterületi elérési útja, beleértve az eszköz nevét is.
Hozzáadva a Databricks CLI 0.234.0-s verziójához
permissions Sequence Az irányítópult engedélyei. Tekintse meg az engedélyeket.
Hozzáadva a Databricks CLI 0.232.0-s verziójához
serialized_dashboard Any Az irányítópult tartalma szerializált sztringűrlapon.
Hozzáadva a Databricks CLI 0.232.0-s verziójához
warehouse_id String Az irányítópult futtatásához használt raktárazonosító.
Hozzáadva a Databricks CLI 0.232.0-s verziójához

Example

Az alábbi példa bemutatja, hogyan lehet a NYC Taxi Trip Analysis irányítópultot telepíteni a Databricks munkaterületre.

resources:
  dashboards:
    nyc_taxi_trip_analysis:
      display_name: 'NYC Taxi Trip Analysis'
      file_path: ../src/nyc_taxi_trip_analysis.lvdash.json
      warehouse_id: ${var.warehouse_id}

adatbázis_katalógus

Type: Map

Az adatbáziskatalógus-erőforrás lehetővé teszi a csomagban lévő adatbázispéldányoknak megfelelő adatbázis-katalógusok meghatározását. Az adatbáziskatalógus egy Olyan Lakebase-adatbázis, amely Unity-katalógus-katalógusként van regisztrálva.

Az adatbáziskatalógusokról további információt a Katalógus létrehozása című témakörben talál.

Hozzáadva a Databricks CLI 0.265.0-s verziójához

database_catalogs:
  <database_catalog-name>:
    <database_catalog-field-name>: <database_catalog-field-value>
Key Típus Description
create_database_if_not_exists logikai Az adatbázis létrehozása, ha nem létezik.
Hozzáadva a Databricks CLI 0.265.0-s verziójához
database_instance_name String Az adatbázist fenntartó példány neve.
Hozzáadva a Databricks CLI 0.265.0-s verziójához
database_name String A katalógushoz társított adatbázis neve (egy példányban).
Hozzáadva a Databricks CLI 0.265.0-s verziójához
lifecycle Map Az erőforrás életciklus-beállításait tartalmazza, beleértve az erőforrás viselkedését az üzembe helyezéskor vagy megsemmisítéskor. Lásd az életciklust.
Hozzáadva a Databricks CLI 0.265.0-s verziójához
name String A katalógus neve a Unity Katalógusban.
Hozzáadva a Databricks CLI 0.265.0-s verziójához

Example

Az alábbi példa egy adatbázispéldányt határoz meg egy megfelelő adatbáziskatalógussal:

resources:
  database_instances:
    my_instance:
      name: my-instance
      capacity: CU_1
  database_catalogs:
    my_catalog:
      database_instance_name: ${resources.database_instances.my_instance.name}
      name: example_catalog
      database_name: my_database
      create_database_if_not_exists: true

adatbázis_példány

Type: Map

Az adatbázispéldány-erőforrás lehetővé teszi, hogy egy csomagban definiálja az adatbázispéldányokat . A Lakebase-adatbázispéldányok kezelik a tárolási és számítási erőforrásokat, és biztosítják a végpontokat, amelyekhez a felhasználók csatlakoznak.

Fontos

Amikor adatbázispéldányt tartalmazó csomagot helyez üzembe, a példány azonnal elindul, és díjszabás vonatkozik rá. Lásd a Lakebase díjszabását.

Az adatbázispéldányokról további információt a Mi az adatbázispéldány? című témakörben talál.

Hozzáadva a Databricks CLI 0.265.0-s verziójához

database_instances:
  <database_instance-name>:
    <database_instance-field-name>: <database_instance-field-value>
Key Típus Description
capacity String A példány termékváltozata. Az érvényes értékek a következők: CU_1, CU_2, CU_4, CU_8.
Hozzáadva a Databricks CLI 0.265.0-s verziójához
custom_tags Sequence A példányhoz társított egyéni címkéket meghatározó kulcs-érték párok listája.
Hozzáadva a Databricks CLI 0.273.0-s verziójához
enable_pg_native_login logikai Azt jelzi, hogy a példányon engedélyezve van-e a PG natív jelszavas bejelentkezése. Alapértelmezett érték: true.
Hozzáadva a Databricks CLI 0.267.0-s verziójához
enable_readable_secondaries logikai A csak olvasható forgalom kiszolgálásának engedélyezése a másodfokú fájlok számára. Alapértelmezett érték: false.
Hozzáadva a Databricks CLI 0.265.0-s verziójához
lifecycle Map Az erőforrás életciklus-beállításait tartalmazza. Ez szabályozza az erőforrás viselkedését az üzembe helyezéskor vagy megsemmisítéskor. Lásd az életciklust.
Hozzáadva a Databricks CLI 0.268.0-s verziójához
name String A példány neve. Ez a példány egyedi azonosítója.
Hozzáadva a Databricks CLI 0.265.0-s verziójához
node_count Integer A példány csomópontjainak száma, amely 1 elsődleges és 0 vagy több másodpéldányból áll. Alapértelmezés szerint 1 elsődleges és 0 másodfokú.
Hozzáadva a Databricks CLI 0.265.0-s verziójához
parent_instance_ref Map A szülő instance hivatkozása. Ez csak akkor érhető el, ha a példány gyermekpéldány. Lásd a szülőpéldányt.
Hozzáadva a Databricks CLI 0.265.0-s verziójához
permissions Sequence Az adatbázispéldány engedélyei. Tekintse meg az engedélyeket.
Hozzáadva a Databricks CLI 0.265.0-s verziójához
retention_window_in_days Integer A példány adatmegőrzési ideje. Ez az az időablak napokban, amelyekben az előzményadatok megmaradnak. Az alapértelmezett érték 7 nap. Az érvényes értékek 2–35 nap.
Hozzáadva a Databricks CLI 0.265.0-s verziójához
stopped logikai Azt jelzi, hogy a példány le van-e állítva.
Hozzáadva a Databricks CLI 0.265.0-s verziójához
usage_policy_id String Az a használati szabályzat, amelyet a példánnyal szeretnénk társítani.
Hozzáadva a Databricks CLI 0.273.0-s verziójához

adatbázis_példány.szülő_példány_hivatkozás

Type: Map

A szülő instance hivatkozása. Ez csak akkor érhető el, ha a példány gyermekpéldány.

Key Típus Description
branch_time String A referencia adatbázispéldány elágazási ideje. Szülő referencia példány esetén ez az időpont azon a szülőpéldányon, amelyből a példány létrejött. Gyermek referenciapéldány esetén ez az az időpont az példányon, amikor a gyermekpéldány létrehozásra került.
lsn String A ref adatbázispéldány felhasználó által megadott WAL LSN-azonosítója.
name String Az „ref” adatbázispéldány neve.

Example

Az alábbi példa egy adatbázispéldányt határoz meg egy megfelelő adatbáziskatalógussal:

resources:
  database_instances:
    my_instance:
      name: my-instance
      capacity: CU_1
  database_catalogs:
    my_catalog:
      database_instance_name: ${resources.database_instances.my_instance.name}
      name: example_catalog
      database_name: my_database
      create_database_if_not_exists: true

Egy példacsomag, amely bemutatja, hogyan definiálhat adatbázispéldányt és megfelelő adatbáziskatalógust, tekintse meg a csomagpéldák GitHub-adattárát.

kísérlet

Type: Map

A kísérleterőforrás lehetővé teszi, hogy MLflow-kísérleteket egy csomagban definiáljon. További információ az MLflow-kísérletekről: Betanítási futtatások rendszerezése MLflow-kísérletekkel.

Hozzáadva a Databricks CLI 0.229.0-s verziójához

experiments:
  <experiment-name>:
    <experiment-field-name>: <experiment-field-value>
Key Típus Description
artifact_location String A kísérlet összetevőinek tárolási helye.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
lifecycle Map Az erőforrás életciklus-beállításait tartalmazza. Ez szabályozza az erőforrás viselkedését az üzembe helyezéskor vagy megsemmisítéskor. Lásd az életciklust.
Hozzáadva a Databricks CLI 0.268.0-s verziójához
name String A kísérletet azonosító barátságos név. A kísérlet nevének például /Workspace/Users/someone@example.com/my_experimentabszolút elérési útnak kell lennie a Databricks-munkaterületen.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
permissions Sequence A kísérlet engedélyei. Tekintse meg az engedélyeket.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
tags Sequence További metaadatkulcs-érték párok. Címkék megtekintése.
Hozzáadva a Databricks CLI 0.229.0-s verziójához

Example

Az alábbi példa egy olyan kísérletet határoz meg, amelyet minden felhasználó megtekinthet:

resources:
  experiments:
    experiment:
      name: /Workspace/Users/someone@example.com/my_experiment
      permissions:
        - level: CAN_READ
          group_name: users
      description: MLflow experiment used to track runs

feladat

Type: Map

A feladatok támogatása biztosított Pythonban a Databricks eszközcsomagjai számára. Lásd : databricks.bundles.jobs.

A munkaforrás lehetővé teszi, hogy munkákat és azok hozzátartozó feladatait a csomagban definiálja.

A feladatokról további információt a Lakeflow-feladatok című témakörben talál. A Databricks-eszközcsomagok sablont használó oktatóanyagot a Databricks-eszközcsomagokkal végzett feladatfejlesztés című témakörben talál.

Hozzáadva a Databricks CLI 0.229.0-s verziójához

jobs:
  <job-name>:
    <job-field-name>: <job-field-value>
Key Típus Description
budget_policy_id String A feladathoz használandó, felhasználó által megadott költségvetési szabályzat azonosítója. Ha nincs megadva, a feladat létrehozásakor vagy módosításakor egy alapértelmezett költségvetési szabályzat alkalmazható. Tekintse meg effective_budget_policy_id ennek a számítási feladatnak a költségvetési szabályzatát.
Hozzáadva a Databricks CLI 0.231.0-s verziójához
continuous Map A feladat opcionális folyamatos tulajdonsága. A folyamatos tulajdonság biztosítja, hogy mindig legyen futtatás. Csak az egyik használható a schedule és a continuous közül. Folyamatos megtekintése.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
deployment Map A külső források által felügyelt feladatok üzembehelyezési információi. Lásd az üzembe helyezést.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
description String A feladat opcionális leírása. A maximális hossz 27700 karakter az UTF-8 kódolásban.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
email_notifications Map Választható e-mail-címkészlet, amely a feladat futtatásakor vagy befejezésekor, valamint a feladat törlésekor értesítést kap. Lásd : email_notifications.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
environments Sequence A feladat kiszolgáló nélküli tevékenységei által hivatkozott feladatvégző környezet specifikációinak listája. A kiszolgáló nélküli feladatokhoz környezet szükséges. Kiszolgáló nélküli jegyzetfüzet-feladatok esetén a környezet elérhető a jegyzetfüzet környezeti paneljén. Más kiszolgáló nélküli tevékenységek esetén a tevékenységkörnyezetet a tevékenységbeállítások environment_key használatával kell megadni. Környezetek megtekintése.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
format String Deprecated. A feladat formátuma.
git_source Map A feladatok által használt forráskódot tartalmazó távoli Git-adattár opcionális specifikációja. Lásd : job.git_source.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
Fontos: A git_source mező és a source tevékenységmező, amely GIT értékre van állítva, nem ajánlott kötegekhez, mert a helyi relatív elérési utak előfordulhat, hogy nem ugyanarra a tartalomra mutatnak a Git-adattárban, és a kötegek azt várják el, hogy az üzembe helyezett feladat tartalma megegyezzen a helyi példány tartalmával, ahonnan az üzembe helyezés történt.
Ehelyett klónozza az adattárat helyileg, és állítsa be a csomagprojektet ebben az adattárban, hogy a feladatok forrása a munkaterület legyen.
health Map A feladathoz definiálható állapotszabályok választható készlete. Tekintse meg az egészséget.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
job_clusters Sequence A feladatfürt azon specifikációinak listája, amelyeket a feladat tevékenységei megoszthatnak és újra felhasználhatnak. Lásd : job_clusters.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
lifecycle Map Az erőforrás életciklus-beállításait tartalmazza. Ez szabályozza az erőforrás viselkedését az üzembe helyezéskor vagy megsemmisítéskor. Lásd az életciklust.
Hozzáadva a Databricks CLI 0.268.0-s verziójához
max_concurrent_runs Integer A munka egyidejű futtatásainak opcionális, megengedett maximális száma. Állítsa be ezt az értéket, ha egyszerre több futtatás is végrehajtható ugyanabból a feladatból.
name String Egy nem kötelező név a munka számára. A maximális hossz 4096 bájt UTF-8 kódolásban.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
notification_settings Map Opcionális értesítési beállítások, amelyeket az email_notifications és webhook_notifications értesítések küldésekor használnak ehhez a feladathoz. Lásd : notification_settings.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
parameters Sequence Feladatszintű paraméterdefiníciók.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
performance_target String Meghatározza, hogy a kiszolgáló nélküli futtatás végrehajtása mennyire teljesíthető vagy költséghatékony legyen.
Hozzáadva a Databricks CLI 0.241.0-s verziójához
permissions Sequence A feladat engedélyei. Tekintse meg az engedélyeket.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
queue Map A feladat sorbeállításai. Üzenetsor megtekintése.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
run_as Map Csak írásos beállítás. Azt a felhasználót vagy szolgáltatásnevet adja meg, amelyként a feladat fut. Ha nincs megadva, a feladat a feladatot létrehozó felhasználóként fut. Vagy user_name meg kell adni, vagy service_principal_name meg kell adni. Ha nem, hibaüzenet jelenik meg. Lásd : run_as.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
schedule Map Ennek a feladatnak az opcionális időszakos ütemezése. Az alapértelmezett viselkedés az, hogy a feladat csak akkor fut le, ha a Feladatok kezelőfelületén a "Futtatás most" gombra kattint, vagy egy API-kérést küld az runNow-nak. Lásd az ütemezést.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
tags Map A feladathoz társított címkék térképe. Ezek a fürtre a feladatfürtök fürtcímkékként kerülnek továbbításra, és ugyanazokra a korlátozásokra vonatkoznak, mint a fürtcímkékre. A feladathoz legfeljebb 25 címke adható hozzá.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
tasks Sequence A feladat által végrehajtandó feladatspecifikációk listája. Lásd: Feladatok hozzáadása feladatokhoz a Databricks-eszközcsomagokban.
Hozzáadva a Databricks CLI 0.237.0-s verziójához
timeout_seconds Integer Minden egyes futtatáshoz egy opcionális időkorlát van alkalmazva. Az érték 0 azt jelenti, hogy nincs időtúllépés.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
trigger Map A futtatás bizonyos feltételek teljesülése esetén történő aktiválására szolgáló konfiguráció. Lásd az eseményindítót.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
usage_policy_id String A feladathoz használandó használati szabályzat azonosítója.
Hozzáadva a Databricks CLI 0.273.0-s verziójához
webhook_notifications Map Rendszerértesítési azonosítók gyűjteménye, amely értesíti a feladat futtatásainak kezdetét vagy befejezését. Lásd : webhook_notifications.
Hozzáadva a Databricks CLI 0.229.0-s verziójához

munka.folyamatos

Type: Map

Folyamatos feladatvégrehajtás konfigurálása.

Key Típus Description
pause_status String Függetlenül attól, hogy a folyamatos feladat szüneteltetve van-e. Érvényes értékek: PAUSED, UNPAUSED.
task_retry_mode String Adja meg, hogy a folyamatos feladat hogyan alkalmazza a tevékenységszintű újrapróbálkozást. Az érvényes értékek a következők: NEVER és ON_FAILURE. Alapértelmezett érték: NEVER.

munka.kibocsátás

Type: Map

A külső források által felügyelt feladatok üzembehelyezési információi.

Key Típus Description
kind String Az üzembe helyezés típusa. Például: BUNDLE.
metadata_file_path String Az üzembe helyezés metaadatfájljának elérési útja.

job.e-mail értesítések

Type: Map

A feladatfuttatások e-mail értesítési beállításai.

Key Típus Description
on_start Sequence A futtatás indításakor értesítendő e-mail-címek listája.
on_success Sequence A futtatás sikeressége esetén értesítendő e-mail-címek listája.
on_failure Sequence A futtatás sikertelensége esetén értesítendő e-mail-címek listája.
on_duration_warning_threshold_exceeded Sequence Azoknak az e-mail-címeknek a listája, amely értesíti, ha egy futtatási időtartam túllépi a figyelmeztetési küszöbértéket.
no_alert_for_skipped_runs logikai Kihagyja-e a kihagyott futtatásokra vonatkozó riasztások küldését.
on_streaming_backlog_exceeded Sequence Azoknak az e-mail-címeknek a listája, amelyek értesítést küldenek arról, ha bármely streamnél túllépik a streamek hátralékának küszöbértékét. A streamelési teendőlista küszöbértékei a következő metrikák használatával állíthatók be a health mezőben: STREAMING_BACKLOG_BYTES, STREAMING_BACKLOG_RECORDS, STREAMING_BACKLOG_SECONDSvagy STREAMING_BACKLOG_FILES. A riasztás a metrikák 10 perces átlagán alapul. Ha a probléma továbbra is fennáll, az értesítések 30 percenként újraküldésre kerülnek.

job.környezetek

Type: Sequence

A feladat kiszolgáló nélküli tevékenységei által hivatkozható feladat-végrehajtási környezet specifikációinak listája.

A lista minden eleme egy JobEnvironment.

Key Típus Description
environment_key String Egy környezet kulcsa. Egy feladaton belül egyedinek kell lennie.
spec Map A kiszolgáló nélküli környezetet képviselő entitás. Lásd : job.environments.spec.

job.environments.spec

Type: Map

A kiszolgáló nélküli környezetet képviselő entitás.

Key Típus Description
client String Deprecated. Az ügyfél verziója.
dependencies Sequence A pip-függőségek listája a környezet pipverziója által támogatott módon.
environment_version String Szükséges. A környezet által használt környezeti verzió. Minden verzióhoz tartozik egy adott Python-verzió és egy Python-csomag. A verzió egy egész számból álló sztring.

job.git_source

Type: Map

Git-adattár konfigurációja a feladat forráskódjához.

Key Típus Description
git_branch String A feladat által kivett és használt ág neve. Ez a mező nem adható meg a következővel git_tag együtt: vagy git_commit.
git_commit String Véglegesítse a feladat kivételét és használatát. Ez a mező nem adható meg a következővel git_branch együtt: vagy git_tag.
git_provider String A Git-adattár üzemeltetéséhez használt szolgáltatás egyedi azonosítója. Az érték nem érzékeny a kis- és nagybetűkre. Az érvényes értékek a következőkgitHub: , bitbucketCloud, gitLab, azureDevOpsServices, gitHubEnterprisebitbucketServer. gitLabEnterpriseEdition
git_snapshot Map A távoli adattár írásvédett állapota a feladat futtatásakor. Ez a mező csak feladatfuttatásokon szerepel. Lásd : git_snapshot.
git_tag String A feladat által kivett és használt címke neve. Ez a mező nem adható meg a következővel git_branch együtt: vagy git_commit.
git_url String A feladat által klónozandó adattár URL-címe.

job.git_source.git_snapshot

Type: Map

Csak olvasható véglegesítési információk pillanatképe.

Key Típus Description
used_commit String A futtatás végrehajtásához használt véglegesítés. Ha git_branch meg van adva, ez a futtatáskor az ág FEJére mutat, ha git_tag meg van adva, ez a címkepontok véglegesítésére mutat.

feladat.egészség

Type: Map

A feladat állapotmonitorozási konfigurációja.

Key Típus Description
rules Sequence Munkafeladategészség-szabályok listája. Minden szabály tartalmaz egy metric és op (operátor) és value. Lásd job.health.rules.

állás.egészség.szabályok

Type: Sequence

Munkafeladategészség-szabályok listája.

A lista minden eleme egy JobHealthRule.

Key Típus Description
metric String Egy adott állapotszabályhoz kiértékelt állapotmetrikát adja meg.
  • RUN_DURATION_SECONDS: A futtatás várható teljes ideje másodpercben.
  • STREAMING_BACKLOG_BYTES: Az összes streamben felhasználható adatok maximális bájtjainak becslése. Ez a metrika nyilvános előzetes verzióban érhető el.
  • STREAMING_BACKLOG_RECORDS: Az összes stream maximális eltolási késésének becslése. Ez a metrika nyilvános előzetes verzióban érhető el.
  • STREAMING_BACKLOG_SECONDS: Az összes stream maximális fogyasztói késésének becslése. Ez a metrika nyilvános előzetes verzióban érhető el.
  • STREAMING_BACKLOG_FILES: Az összes streamben lévő függőben lévő fájlok maximális számának becslése. Ez a metrika nyilvános előzetes verzióban érhető el.
op String Az állapotmetrika értékének a megadott küszöbértékkel való összehasonlításához használt operátort adja meg.
value Integer Megadja azt a küszöbértéket, amelyet az állapotmetrikának teljesítenie kell az állapotszabálynak való megfelelés érdekében.

job.job_csoportok

Type: Sequence

A feladatfürt azon specifikációinak listája, amelyeket a feladat tevékenységei megoszthatnak és újra felhasználhatnak. A tárak nem deklarálhatók megosztott feladatfürtökben. Függő kódtárakat kell deklarálnia a feladatbeállításokban.

A lista minden eleme egy JobCluster.

Key Típus Description
job_cluster_key String A feladatfürt egyedi neve. Ez a mező kötelező, és a feladaton belül egyedinek kell lennie. JobTaskSettings erre a mezőre hivatkozva meghatározhatja, hogy melyik fürtöt kell elindítani a feladat végrehajtásához.
new_cluster Map Ha new_cluster, az egyes tevékenységekhez létrehozott fürt leírása. Lásd a klasztert.

munka.értesítési_beállítások

Type: Map

A feladat összes értesítésére vonatkozó értesítési beállítások.

Key Típus Description
no_alert_for_skipped_runs logikai Kihagyja-e a kihagyott futtatásokra vonatkozó riasztások küldését.
no_alert_for_canceled_runs logikai A megszakított futtatásokra vonatkozó riasztások küldésének kihagyása.

feladat.sor

Type: Map

A feladat sorbeállításai.

Key Típus Description
enabled logikai Azon, hogy lehetőség legyen a feladat várólistájának engedélyezésére.

feladat.ütemezése

Type: Map

Konfigurálás ütemezése az időszakos feladatvégrehajtáshoz.

Key Típus Description
quartz_cron_expression String Cron-kifejezés kvarcszintaxissal, amely meghatározza, hogy mikor fut a feladat. A feladatot például 0 0 9 * * ? minden nap 9:00-kor (UTC) futtatja.
timezone_id String Az ütemezés időzónája. Például, America/Los_Angeles vagy UTC.
pause_status String Az ütemezés szüneteltetve van-e. Érvényes értékek: PAUSED, UNPAUSED.

feladat.aktiváló

Type: Map

Eseményvezérelt feladatvégrehajtás indításának konfigurációja.

Key Típus Description
file_arrival Map Eseményindító a fájl érkezése alapján. Lásd file_arrival.
table Map Eseményindító tábla alapján. Lásd a táblázatot.
table_update Map Triggerek táblafrissítések alapján. Lásd table_update.
periodic Map Időszakos indító. Lásd : periodikus.

munka.feladat.indítás.fájl_érkezése

Type: Map

A fájl érkezése alapján aktiválja a konfigurációt.

Key Típus Description
url String Az új fájlok figyelésére szolgáló fájl elérési útja.
min_time_between_triggers_seconds Integer A triggeresemények közötti minimális idő másodpercben.
wait_after_last_change_seconds Integer Várakozási idő másodpercben az utolsó fájlmódosítás után az aktiválás előtt.

feladat.kiváltó.tábla

Type: Map

A trigger konfigurációja a tábla alapján történik.

Key Típus Description
table_names Sequence A figyelendő táblanevek listája.
condition String A feladat aktiválásához teljesítendő SQL-feltétel.

feladat.kiváltó.tábla_frissítés

Type: Map

A táblafrissítések alapján aktiválja a konfigurációt.

Key Típus Description
table_names Sequence A frissítések figyeléséhez monitorozni kívánt táblanevek listája.
condition String A feladat aktiválásához teljesítendő SQL-feltétel.
wait_after_last_change_seconds Integer Várakozási idő másodpercben az utolsó táblafrissítés után az aktiválás előtt.

feladat.kioldás.időszakos

Type: Map

Időszakos triggerkonfiguráció.

Key Típus Description
interval Integer A rendszeres eseményindító intervallumértéke.
unit String Az intervallum időegysége. Érvényes értékek: SECONDS, MINUTES, HOURS, DAYS. WEEKS

job.webhook_értesítések

Type: Map

Webhook értesítési beállításai feladatfuttatásokhoz.

Key Típus Description
on_start Sequence A futtatás indításakor értesítendő webhook-értesítési azonosítók listája.
on_success Sequence A futtatás sikeressége esetén értesítendő webhook-értesítési azonosítók listája.
on_failure Sequence A futtatás sikertelensége esetén értesítendő webhook-értesítési azonosítók listája.
on_duration_warning_threshold_exceeded Sequence A webhook értesítési azonosítóinak listája, amely értesíti, ha egy futtatási időtartam túllépi a figyelmeztetési küszöbértéket.
on_streaming_backlog_exceeded Sequence Azon rendszerértesítési azonosítók listája, amelyek meghívhatók, ha bármely stream esetében túllépik a streameléssel kapcsolatos hátralék küszöbértékét. A streamelési teendőlista küszöbértékei a következő metrikák használatával állíthatók be a health mezőben: STREAMING_BACKLOG_BYTES, STREAMING_BACKLOG_RECORDS, STREAMING_BACKLOG_SECONDSvagy STREAMING_BACKLOG_FILES. A riasztás a metrikák 10 perces átlagán alapul. Ha a probléma továbbra is fennáll, az értesítések 30 percenként újraküldésre kerülnek. Legfeljebb 3 célhely adható meg.

Examples

Az alábbi példa meghatároz egy munkát az hello-job erőforrás kulcsával, amely egy jegyzetfüzet-feladatot tartalmaz:

resources:
  jobs:
    hello-job:
      name: hello-job
      tasks:
        - task_key: hello-task
          notebook_task:
            notebook_path: ./hello.py

Az alábbi példa egy SQL-jegyzetfüzettel rendelkező feladatot határoz meg:

resources:
  jobs:
    job_with_sql_notebook:
      name: 'Job to demonstrate using a SQL notebook with a SQL warehouse'
      tasks:
        - task_key: notebook
          notebook_task:
            notebook_path: ./select.sql
            warehouse_id: 799f096837fzzzz4

További feladatkonfigurációs példákért lásd: Feladatkonfiguráció.

A feladatfeladatok meghatározásával és a feladatbeállítások felülbírálásával kapcsolatos információkért lásd:

modell (örökölt)

Type: Map

A modellerőforrás lehetővé teszi, hogy örökölt modelleket kötegekben definiálja. A Databricks inkább azt javasolja, hogy a Unity Catalog által regisztrált modelleket használja.

Hozzáadva a Databricks CLI 0.229.0-s verziójához

modellszolgáltatási végpont

Type: Map

A model_serving_endpoint erőforrás lehetővé teszi modellek kiszolgálási végpontjainak definiálását. Lásd: Végpontokat kiszolgáló modell kezelése.

Hozzáadva a Databricks CLI 0.229.0-s verziójához

model_serving_endpoints:
  <model_serving_endpoint-name>:
    <model_serving_endpoint-field-name>: <model_serving_endpoint-field-value>
Key Típus Description
ai_gateway Map A kiszolgáló végpont AI Gateway-konfigurációja. MEGJEGYZÉS: Jelenleg csak a külső modell és a kiépített átviteli sebesség végpontjai támogatottak. Lásd : ai_gateway.
Hozzáadva a Databricks CLI 0.230.0-s verziójához
budget_policy_id String A végponthoz használandó költségvetési szabályzat azonosítója.
Hozzáadva a Databricks CLI 0.244.0-s verziójához
config Map A kiszolgáló végpont alapkonfigurációja. Lásd a konfigurációt.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
description String A kiszolgáló végpont leírása.
Hozzáadva a Databricks CLI 0.260.0-s verziójához
email_notifications Map E-mail-értesítések konfigurációja a kiszolgáló végponthoz. Lásd : email_notifications.
Hozzáadva a Databricks CLI 0.264.0-s verziójához
lifecycle Map Az erőforrás életciklus-beállításait tartalmazza. Ez szabályozza az erőforrás viselkedését az üzembe helyezéskor vagy megsemmisítéskor. Lásd az életciklust.
Hozzáadva a Databricks CLI 0.268.0-s verziójához
name String A kiszolgáló végpont neve. Ez a mező kötelező, és egyedinek kell lennie egy Databricks-munkaterületen. A végpontnevek alfanumerikus karakterekből, kötőjelekből és aláhúzásjelekből állhatnak.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
permissions Sequence A végpont engedélyeit kiszolgáló modell. Tekintse meg az engedélyeket.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
rate_limits Sequence Deprecated. A kiszolgáló végpontra alkalmazandó sebességkorlátok. A sebességkorlátok kezeléséhez használja az AI-átjárót.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
route_optimized logikai A kiszolgáló végpont útvonaloptimalizálásának engedélyezése.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
tags Sequence A kiszolgáló végponthoz csatolandó és a számlázási naplókba automatikusan propagált címkék.
Hozzáadva a Databricks CLI 0.229.0-s verziójához

model_serving_endpoint.email_notifications

Type: Map

E-mail-értesítések konfigurációja a kiszolgáló végponthoz.

Key Típus Description
on_update_failure Sequence Azon e-mail-címek listája, amelyről értesítést kell kapnia, ha egy végpont nem frissíti a konfigurációját vagy állapotát.
on_update_success Sequence A végpont konfigurációjának vagy állapotának sikeres frissítésekről értesítendő e-mail-címek listája.

modell_kiszolgáló_végpont.ai_átjáró

Type: Map

AI-átjáró konfigurációja a kiszolgáló végponthoz.

Key Típus Description
fallback_config Map Olyan forgalom-tartalék konfigurációja, amely automatikusan visszaáll más kiszolgált entitásokra, ha a kiszolgált entitásra irányuló kérés bizonyos hibakódokkal meghiúsul, a rendelkezésre állás növelése érdekében. Lásd : fallback_config.
guardrails Map Védőkorlát konfigurációja. Lásd a védőkorlátokat.
inference_table_config Map Konfigurálás a Unity Catalog-táblákba történő következtetésnaplózáshoz. Lásd inference_table_config.
rate_limits Sequence Sebességkorlát-konfigurációk.
usage_tracking_config Map A használat nyomon követésének konfigurációja. Lásd usage_tracking_config.

model_serving_endpoint.ai_gateway.fallback_config

Type: Map

A forgalom-visszavétel konfigurációja, amely automatikusan visszaesik más kiszolgált entitásokra, ha egy kérés bizonyos hibakódokkal meghiúsul.

Key Típus Description
enabled logikai Azt jelzi, hogy a tartalék szolgáltatás engedélyezve van-e ehhez a végponthoz.

model_serving_endpoint.ai_gateway.védőkorlátok

Type: Map

Az AI-átjáró védőkorlátjának konfigurációja.

Key Típus Description
input Map A bemeneti védőkorlátok konfigurációja olyan mezőkkel, mint a safety: pii.
output Map A kimeneti védőkorlátok konfigurációja olyan mezőkkel, mint a safety: pii.
invalid_keywords Sequence A letiltandó kulcsszavak listája.

model_serving_endpoint.ai_gateway.inference_table_config

Type: Map

Konfigurálás a Unity Catalog-táblákba történő következtetésnaplózáshoz.

Key Típus Description
catalog_name String A katalógus neve a Unity Katalógusban.
schema_name String A séma neve a Unity Catalogban.
table_name_prefix String A következtetési táblanevek előtagja.
enabled logikai Azt jelzi, hogy engedélyezve van-e a következtetési tábla naplózása.

modellkiszolgáló_végpont.ai_átjáró.használat_követési_konfiguráció

Type: Map

Az AI-átjáró konfigurációja a használat nyomon követéséhez.

Key Típus Description
enabled logikai Engedélyezve van-e a használatkövetés.

model_serving_endpoint.config

Type: Map

A kiszolgáló végpont alapkonfigurációja.

Key Típus Description
served_entities Sequence A végpont kiszolgálandó entitásainak listája. Minden kiszolgált entitás olyan mezőket tartalmaz, mint a entity_name, entity_version, workload_size, scale_to_zero_enabled, workload_typeenvironment_vars.
served_models Sequence (Elavult: használja served_entities inkább) A végpont kiszolgálandó modelljeinek listája.
traffic_config Map A forgalomkonfiguráció határozza meg, hogyan kell átirányítani a kiszolgáló végpontra történő hívásokat. Lásd traffic_config.
auto_capture_config Map Konfigurálás következtetési táblákhoz, amelyek automatikusan naplóznak kéréseket és válaszokat a Unity Catalogba. Lásd : auto_capture_config.

model_serving_endpoint.konfiguráció.forgalom_konfiguráció

Type: Map

A forgalomkonfiguráció határozza meg, hogyan kell átirányítani a kiszolgáló végpontra történő hívásokat.

Key Típus Description
routes Sequence A forgalomelosztás útvonalainak listája. Minden útvonal tartalmaz served_model_name és traffic_percentage.

model_serving_endpoint.config.auto_capture_config

Type: Map

Konfigurálás következtetési táblákhoz, amelyek automatikusan naplóznak kéréseket és válaszokat a Unity Catalogba.

Key Típus Description
catalog_name String A katalógus neve a Unity Katalógusban.
schema_name String A séma neve a Unity Catalogban.
table_name_prefix String A következtetési táblanevek előtagja.
enabled logikai Azt jelzi, hogy engedélyezve van-e a következtetési tábla naplózása.

Example

Az alábbi példa egy végpontot kiszolgáló Unity Catalog-modellt határoz meg:

resources:
  model_serving_endpoints:
    uc_model_serving_endpoint:
      name: 'uc-model-endpoint'
      config:
        served_entities:
          - entity_name: 'myCatalog.mySchema.my-ads-model'
            entity_version: '10'
            workload_size: 'Small'
            scale_to_zero_enabled: 'true'
        traffic_config:
          routes:
            - served_model_name: 'my-ads-model-10'
              traffic_percentage: '100'
      tags:
        - key: 'team'
          value: 'data science'

adatfolyam

Type: Map

A folyamatok támogatottak a Python for Databricks Asset Bundlesben. Lásd : databricks.bundles.pipelines.

A pipeline-erőforrás lehetővé teszi pipeline-ek létrehozását. A folyamatokról további információt a Lakeflow Spark Deklaratív folyamatok című témakörben talál. A Databricks Asset Bundles-sablont egy folyamat létrehozásához használó oktatóanyagért lásd: Lakeflow Spark Deklaratív folyamatok fejlesztése Databricks-eszközcsomagokkal.

Hozzáadva a Databricks CLI 0.229.0-s verziójához

pipelines:
  <pipeline-name>:
    <pipeline-field-name>: <pipeline-field-value>
Key Típus Description
allow_duplicate_names logikai Ha hamis, az üzembe helyezés meghiúsul, ha a név ütközik egy másik folyamat nevével.
Hozzáadva a Databricks CLI 0.261.0-s verziójához
budget_policy_id String A folyamat költségvetési szabályzata.
Hozzáadva a Databricks CLI 0.230.0-s verziójához
catalog String Egy katalógus a Unity Catalogon belül, amelybe ennek a folyamatnak az adatai lesznek közzétéve. Ha target meg van adva, a folyamat táblái közzé lesznek téve egy target sémában catalog (például catalog.target.table). Ha target nincs megadva, a Rendszer nem teszi közzé az adatokat a Unity Catalogban.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
channel String A Lakeflow Spark Deklaratív folyamatok kiadási csatornája meghatározza, melyik verzióját használja a Lakeflow Spark deklaratív folyamatoknak.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
clusters Sequence A csővezeték-telepítés fürtbeállításai. Lásd a klasztert.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
configuration Map A folyamat végrehajtásának konfigurációja.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
continuous logikai A csővezeték folyamatos vagy aktivált állapotú-e. Ez triggerhelyébe lép.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
deployment Map Az üzembehelyezési csővezeték típusa. Lásd az üzembe helyezést.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
development logikai Azt jelzi, hogy a folyamat fejlesztési módban van-e. Alapértelmezés szerint hamis.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
dry_run logikai Azt jelzi, hogy a folyamat száraz futtatási folyamat-e.
edition String A folyamat termékverziója.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
environment Map Ennek a folyamatnak a környezeti specifikációja a kiszolgáló nélküli számítás függőségeinek telepítéséhez használatos. Lásd a környezetet. Ez a kulcs csak a Databricks CLI 0.258-es vagy újabb verziójában támogatott.
Hozzáadva a Databricks CLI 0.257.0-s verziójához
event_log Map A folyamat eseménynapló-konfigurációja. Lásd : event_log.
Hozzáadva a Databricks CLI 0.246.0-s verziójához
filters Map Azok a szűrők, amelyek meghatározzák, hogy mely folyamatcsomagok szerepeljenek az üzembe helyezett gráfban. Szűrők megtekintése.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
gateway_definition Map Az átjárófolyamat konfigurációja. Ezek a beállítások nem használhatók a ingestion_definition beállításokkal.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
id String Az adatfolyam egyedi azonosítója.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
ingestion_definition Map A felügyelt betöltési folyamat konfigurációja. Ezek a beállítások nem használhatók a libraries, schema, targetvagy catalog a beállításokkal. Lásd ingestion_definition.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
libraries Sequence Az üzembe helyezéshez szükséges könyvtárak vagy kód listája. Lásd: pipeline.libraries.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
lifecycle Map Az erőforrás életciklus-beállításait tartalmazza. Ez szabályozza az erőforrás viselkedését az üzembe helyezéskor vagy megsemmisítéskor. Lásd az életciklust.
Hozzáadva a Databricks CLI 0.268.0-s verziójához
name String A csővezeték barátságos neve.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
notifications Sequence A folyamat értesítési beállításai. Tekintse meg az értesítéseket.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
permissions Sequence A csővezeték engedélyei. Tekintse meg az engedélyeket.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
photon logikai Azt jelzi, hogy a Photon engedélyezve van-e ehhez a folyamathoz. Ezt a kulcsot a rendszer figyelmen kívül hagyja, ha serverless be van állítva true.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
restart_window Map A folyamat újraindítási ablakának definiálása. A folyamatok ebben az ablakban anélkül indíthatók újra, hogy lemaradnak.
root_path String A pipeline gyökérútvonala. Ez lesz a gyökérkönyvtár a Databricks felhasználói felületén végzett folyamat szerkesztésekor, és a rendszer hozzáadja a sys.path fájlhoz, amikor Python-forrásokat futtat a folyamat végrehajtása során.
Hozzáadva a Databricks CLI 0.253.0-s verziójához
run_as Map A csővezeték által használt identitás. Ha nincs megadva, a folyamat a folyamatot létrehozó felhasználóként fut. Csak user_name vagy service_principal_name megadható. Ha mindkettő meg van adva, a rendszer hibát jelez. Lásd : run_as.
Hozzáadva a Databricks CLI 0.241.0-s verziójához
schema String Az alapértelmezett séma (adatbázis), amelybe a táblák beolvashatók vagy közzétehetők.
Hozzáadva a Databricks CLI 0.230.0-s verziójához
serverless logikai A kiszolgáló nélküli számítás engedélyezve van-e ehhez a folyamathoz.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
storage String Az ellenőrzőpontok és táblák tárolására szolgáló DBFS gyökérkönyvtár.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
tags Map A folyamathoz társított címkék térképe. Ezek fürtcímkékként vannak továbbítva a fürtnek, ezért ugyanazokra a korlátozásokra vonatkoznak. Legfeljebb 25 címke adható hozzá a folyamathoz.
Hozzáadva a Databricks CLI 0.256.0-s verziójához
target String Célséma (adatbázis) a folyamat tábláinak hozzáadásához. Pontosan az egyiket meg kell adni: schema vagy target. A Unity Catalogban való közzétételhez adja meg catalog azt is. Ez az örökölt mező elavult a folyamatlétrehozáshoz a schema mező javára.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
usage_policy_id String A folyamathoz használandó használati szabályzat azonosítója.
Hozzáadva a Databricks CLI 0.273.0-s verziójához

csővezeték.telepítés

Type: Map

A folyamat üzembehelyezési típusának konfigurálása.

Key Típus Description
kind String Az üzembe helyezés típusa. Például: BUNDLE.
metadata_file_path String Az üzembe helyezés metaadatfájljának elérési útja.

csővezeték.környezet

Type: Map

Környezeti specifikáció a kiszolgáló nélküli számítás függőségeinek telepítéséhez.

Key Típus Description
dependencies Sequence A környezetben lévő pip verzió által támogatott pip-függőségek listája. Minden függőség egy pipkövetelmény-fájlsor.

pipeline.eseménynapló

Type: Map

A folyamat eseménynapló-konfigurációja.

Key Típus Description
catalog String A Unity Katalógus, amely alatt az eseménynapló közzé van téve.
name String Az eseménynapló neve közzé lesz téve a Unity Katalógusban.
schema String A Unity Catalog sémája, amelyben az eseménynapló közzé van téve.

pipeline.szűrők

Type: Map

Szűrők, amelyek meghatározzák, hogy mely folyamatcsomagok szerepeljenek az üzembe helyezett gráfban.

Key Típus Description
include Sequence A belefoglalandó csomagnevek listája.
exclude Sequence A kizárandó csomagnevek listája.

csővezeték.beviteli_definíció

Type: Map

Felügyelt befogadási csővezeték konfigurálása. Ezek a beállítások nem használhatók a libraries, schema, targetvagy catalog a beállításokkal.

Key Típus Description
connection_name String A betöltéshez használandó kapcsolat neve.
ingestion_gateway_id String Az ingestion gateway azonosítója.
objects Sequence Szükséges. A replikálni kívánt táblákat és a replikált táblák célhelyét meghatározó beállítások. Minden objektum lehet SchemaSpec, TableSpec vagy ReportSpec.
source_configurations Sequence Legfelső szintű forráskonfigurációk.
table_configuration Map A betöltési táblák konfigurációja. Lásd table_configuration.

SémaSpecifikáció

Type: Map

Sémaobjektum-specifikáció az összes tábla sémaból való betöltéséhez.

Key Típus Description
source_schema String A bemeneti forrásséma neve.
destination_catalog String A Unity Katalógus célkatalógusának neve.
destination_schema String A célséma neve a Unity Catalogban.
table_configuration Map A séma összes táblájának alkalmazásához használható konfiguráció. Lásd pipeline.ingestion_definition.table_configuration.

TableSpec

Type: Map

Táblaobjektum-specifikáció egy adott tábla betöltéséhez.

Key Típus Description
source_schema String A táblát tartalmazó forrásséma neve.
source_table String A beolvasandó forrásadattábla neve.
destination_catalog String A Unity Katalógus célkatalógusának neve.
destination_schema String A célséma neve a Unity Catalogban.
destination_table String A célállomás táblaneve a Unity Catalogban.
table_configuration Map Az adott tábla konfigurációja. Lásd pipeline.ingestion_definition.table_configuration.

ReportSpec

Type: Map

Jelentésobjektum specifikáció analitikai jelentések beolvasásához.

Key Típus Description
source_url String A forrásjelentés URL-címe.
source_report String A forrásjelentés neve vagy azonosítója.
destination_catalog String A Unity Katalógus célkatalógusának neve.
destination_schema String A célséma neve a Unity Catalogban.
destination_table String A jelentésadatok céltáblájának neve.
table_configuration Map A jelentéstábla konfigurációja. Lásd pipeline.ingestion_definition.table_configuration.

pipeline.ingestion_definition.source_configurations

Type: Map

A forrás konfigurációja.

Key Típus Description
catalog Map Katalógusszintű forráskonfigurációs paraméterek. Lásd a katalógust.
csővezeték.beviteli_definíció.forrás_konfiguráció.katalógus

Type: Map

Katalógusszintű forráskonfigurációs paraméterek

Key Típus Description
postgres Map Postgres-specifikus katalógusszintű konfigurációs paraméterek. Egy slot_config olyan kulcsot tartalmaz, amely Map a Postgres foglalat logikai replikációhoz használható konfigurációját jelöli.
source_catalog String A forráskatalógus neve.

pipeline.bevitel_definíció.táblakonfiguráció

Type: Map

A betöltési táblák konfigurációs beállításai.

Key Típus Description
exclude_columns Sequence Az oszlopnevek listája, melyeket ki kell zárni a betöltési folyamat során. Ha nincs megadva, a include_columns teljes mértékben szabályozza a betöltendő oszlopokat. Ha meg van adva, a rendszer automatikusan belefoglalja az összes többi oszlopot, beleértve a jövőbeli oszlopokat is, az adatbevitelhez. Ez a mező kölcsönösen kizárólagos ezzel: include_columns.
include_columns Sequence A betöltéshez felveendő oszlopnevek listája. Ha nincs megadva, a program az összes oszlopot tartalmazza, kivéve a benne lévőket exclude_columns . A jövőbeli oszlopok automatikusan megjelennek. Ha meg van adva, a rendszer automatikusan kizárja az összes többi jövőbeli oszlopot a betöltésből. Ez a mező kölcsönösen kizárólagos ezzel: exclude_columns.
primary_keys Sequence A tábla elsődleges kulcsaként használandó oszlopnevek listája.
sequence_by Sequence A forrásadatokban szereplő események logikai sorrendjét meghatározó oszlopnevek. A Spark deklaratív csővezetékei a szekvenálás használatával kezelik a sorrenden kívül érkező változási eseményeket.

csővezeték.könyvtárak

Type: Sequence

Meghatározza a folyamathoz szükséges könyvtárak vagy kódok listáját.

A lista minden eleme definíció:

Key Típus Description
file Map A Databricks-adattárakban tárolt és egy pipeline-ot meghatározó fájl elérési útvonala. Lásd pipeline.libraries.file.
glob Map Az egyesített mező, amely tartalmazza a forráskódot. Minden bejegyzés lehet egy jegyzetfüzet elérési útja, egy fájl elérési útja vagy egy mappa elérési útja, amely véget ér /**. Ez a mező nem használható együtt a notebook vagy a file elemekkel. Lásd : pipeline.libraries.glob.
notebook Map A folyamatot meghatározó és a Databricks-munkaterületen tárolt jegyzetfüzet elérési útja. Lásd: pipeline.libraries.notebook.
whl String Ez a mező elavult

pipeline.libraries.file

Type: Map

Egy folyamatot meghatározó és a Databricks-adattárban tárolt fájl elérési útja.

Key Típus Description
path String A forráskód abszolút elérési útja.

pipeline.libraries.glob

Type: Map

Az egyesített mező, amely tartalmazza a forráskódot. Minden bejegyzés lehet egy jegyzetfüzet elérési útja, egy fájl elérési útja vagy egy mappa elérési útja, amely véget ér /**. Ez a mező nem használható együtt a notebook vagy a file elemekkel.

Key Típus Description
include String A pipelínekhez hozzáadandó forráskód

csővezeték.könyvtárak.jegyzetfüzet

Type: Map

A folyamatot meghatározó és a Databricks-munkaterületen tárolt jegyzetfüzet elérési útja.

Key Típus Description
path String A forráskód abszolút elérési útja.

pipeline.notifications

Type: Sequence

A folyamat értesítési beállításai. A sorozat minden eleme egy értesítési konfiguráció.

Key Típus Description
alerts Sequence Értesítéseket aktiváló riasztások listája. Az érvényes értékek a következők: on-update-success, on-update-failure, on-update-fatal-failureon-flow-failure.
email_recipients Sequence A konfigurált riasztás aktiválásakor értesítendő e-mail-címek listája.

Example

Az alábbi példa egy pipeline-t határoz meg az erőforráskulcs hello-pipelinesegítségével.

resources:
  pipelines:
    hello-pipeline:
      name: hello-pipeline
      clusters:
        - label: default
          num_workers: 1
      development: true
      continuous: false
      channel: CURRENT
      edition: CORE
      photon: false
      libraries:
        - notebook:
            path: ./pipeline.py

További folyamatkonfigurációs példákért lásd: Folyamatkonfiguráció.

postgres_branch

Type:Map

A Postgres-ágerőforrás lehetővé teszi a Lakebase-ágak meghatározását egy csomagban. Meg kell határoznia a megfelelő Postgres-projekteket és számítási végpontokat is.

Hozzáadva a Databricks CLI 0.287.0-s verziójához

postgres_branches:
  <postgres_branch-name>:
    <postgres_branch-field-name>: <postgres_branches-field-value>
Key Típus Description
branch_id String Az ághoz használandó azonosító. Ez lesz az ág erőforrásnevének végső összetevője. Az azonosító megadása kötelező, és 1–63 karakter hosszúnak kell lennie, kisbetűvel kezdődik, és csak kisbetűket, számokat és kötőjeleket tartalmaz. development például projects/my-app/branches/developmentlesz.
Hozzáadva a Databricks CLI 0.287.0-s verziójához
expire_time String Abszolút lejárati időbélyeg. Ha be van állítva, az ág ekkor lejár.
Hozzáadva a Databricks CLI 0.287.0-s verziójához
is_protected logikai Ha igaz értékre van állítva, megvédi az ágat a törléstől és az alaphelyzetbe állítástól. A társított számítási végpontok és a projekt nem törölhető, amíg az ág védett.
Hozzáadva a Databricks CLI 0.287.0-s verziójához
no_expiry logikai Explicit módon tiltsa le a lejáratot. Ha igaz értékre van állítva, az ág nem jár le. Ha hamis értékre van állítva, a kérés érvénytelen; ttl vagy expire_time helyett.
Hozzáadva a Databricks CLI 0.287.0-s verziójához
parent String Az a projekt, amelyben ez az ág létrejön. Formátum: projects/{project_id}
Hozzáadva a Databricks CLI 0.287.0-s verziójához
source_branch String Annak a forráságnak a neve, amelyből ezt az ágat létrehozták (adatsorok az időponthoz kötött helyreállításhoz). Ha nincs megadva, alapértelmezés szerint a projekt alapértelmezett ága lesz. Formátum: projects/{project_id}/branches/{branch_id}
Hozzáadva a Databricks CLI 0.287.0-s verziójához
source_branch_lsn String A naplóütemezési szám (LSN) azon a forráságon, amelyből ezt az ágat létrehozták.
Hozzáadva a Databricks CLI 0.287.0-s verziójához
source_branch_time String Annak a forráságnak az időpontja, amelyből az ág létrejött.
Hozzáadva a Databricks CLI 0.287.0-s verziójához
ttl String Relatív élettartam. Ha be van állítva, az ág creation_time + ttl időpontban lejár.
Hozzáadva a Databricks CLI 0.287.0-s verziójához

Example

Lásd postgres_projects példát.

postgres_endpoint

Type: Map

A postgres_endpoints erőforrás lehetővé teszi a Lakebase számítási végpontok meghatározását egy csomagban. Meg kell határoznia a megfelelő Lakebase-projekteket és a Lakebase-ágakat is.

Hozzáadva a Databricks CLI 0.287.0-s verziójához

postgres_endpoints:
  <postgres_endpoint-name>:
    <postgres_endpoint-field-name>: <postgres_endpoint-field-value>
Key Típus Description
autoscaling_limit_max_cu Szám A számítási egységek maximális száma. A minimális érték 0,5.
Hozzáadva a Databricks CLI 0.287.0-s verziójához
autoscaling_limit_min_cu Szám A számítási egységek minimális száma. A minimális érték 0,5.
Hozzáadva a Databricks CLI 0.287.0-s verziójához
disabled logikai A számítási végponthoz való kapcsolatok korlátozása. A beállítás engedélyezése felfüggeszti a számítási műveletet. A letiltott számítási végpontok nem engedélyezhetők kapcsolati vagy konzolműveletekkel.
Hozzáadva a Databricks CLI 0.287.0-s verziójához
endpoint_id String A végponthoz használandó azonosító. Ez lesz a végpont erőforrásnevének végső összetevője. Az azonosító megadása kötelező, és 1–63 karakter hosszúnak kell lennie, kisbetűvel kezdődik, és csak kisbetűket, számokat és kötőjeleket tartalmaz. primary például projects/my-app/branches/development/endpoints/primarylesz.
Hozzáadva a Databricks CLI 0.287.0-s verziójához
endpoint_type String A végpont típusa. Egy ágnak csak egy READ_WRITE végpontja lehet. Lehetséges értékek: ENDPOINT_TYPE_READ_WRITE, ENDPOINT_TYPE_READ_ONLY.
Hozzáadva a Databricks CLI 0.287.0-s verziójához
no_suspension logikai Ha igaz értékre van állítva, explicit módon letiltja az automatikus felfüggesztést (soha ne függesztse fel). Ha meg van adva, igaz értékre kell állítani.
Hozzáadva a Databricks CLI 0.287.0-s verziójához
parent String Az ág, ahol a végpont létrejön. Formátum: projects/{project_id}/branches/{branch_id}
Hozzáadva a Databricks CLI 0.287.0-s verziójához
settings Map Számítási végpont beállításainak gyűjteménye.
Hozzáadva a Databricks CLI 0.287.0-s verziójához
suspend_timeout_duration String Az inaktivitás időtartama, amely után a számítási végpont automatikusan fel van függesztve. Ha meg van adva, 60 és 604800 között kell lennie (1 perc és 1 hét között).
Hozzáadva a Databricks CLI 0.287.0-s verziójához

Example

Lásd postgres_projects példát.

postgres_project

Type: Map

A Postgres-projekterőforrás lehetővé teszi, hogy a Lakebase automatikus skálázási Postgres-adatbázisprojekteket egy csomagban definiálja. Meg kell határoznia a megfelelő Postgres-ágakat és számítási végpontokat is.

Hozzáadva a Databricks CLI 0.287.0-s verziójához

postgres_projects:
  <postgres_project-name>:
    <postgres_project-field-name>: <postgres_project-field-value>
Key Típus Description
default_endpoint_settings Map Számítási végpont beállításainak gyűjteménye. Lásd : postgres_project.default_endpoint_settings.
Hozzáadva a Databricks CLI 0.287.0-s verziójához
display_name String Ember által olvasható projektnév. A hossznak 1 és 256 karakter közöttinek kell lennie.
Hozzáadva a Databricks CLI 0.287.0-s verziójához
history_retention_duration String A projekt összes ágának megosztott előzményeinek megőrzéséhez szükséges másodpercek száma a pont-idő helyreállításhoz. Az érték 0 és 2592000 közötti lehet (legfeljebb 30 nap).
Hozzáadva a Databricks CLI 0.287.0-s verziójához
pg_version Integer A Fő Postgres-verziószám. A támogatott verziók: 16 és 17.
Hozzáadva a Databricks CLI 0.287.0-s verziójához
project_id String A Projekthez használandó azonosító. Ez lesz a projekt erőforrásnevének utolsó összetevője. Az azonosító megadása kötelező, és 1–63 karakter hosszúnak kell lennie, kisbetűvel kezdődik, és csak kisbetűket, számokat és kötőjeleket tartalmaz. my-app például projects/my-applesz.
Hozzáadva a Databricks CLI 0.287.0-s verziójához

példa

resources:
  postgres_projects:
    my_db:
      project_id: test-prod-app
      display_name: 'Production Database'
      pg_version: 17

  postgres_branches:
    main:
      parent: ${resources.postgres_projects.my_db.id}
      branch_id: main
      is_protected: false
      no_expiry: true

  postgres_endpoints:
    primary:
      parent: ${resources.postgres_branches.main.id}
      endpoint_id: primary
      endpoint_type: ENDPOINT_TYPE_READ_WRITE
      autoscaling_limit_min_cu: 0.5
      autoscaling_limit_max_cu: 4

postgres_project.default_endpoint_settings

Type: Map

Key Típus Description
autoscaling_limit_max_cu Szám A számítási egységek maximális száma. A minimális érték 0,5.
autoscaling_limit_min_cu Szám A számítási egységek minimális száma. A minimális érték 0,5.
no_suspension logikai Ha igaz értékre van állítva, explicit módon letiltja az automatikus felfüggesztést (soha ne függesztse fel). Ha meg van adva, igaz értékre kell állítani.
pg_settings Map A Postgres-beállítások nyers ábrázolása.
suspend_timeout_duration String Az inaktivitás időtartama, amely után a számítási végpont automatikusan fel van függesztve. Ha meg van adva, 60 és 604800 között kell lennie (1 perc és 1 hét között).

minőségfigyelő (Unity Catalog)

Type: Map

A quality_monitor erőforrás lehetővé teszi egy Unity Catalog táblamonitormeghatározását. A monitorokról további információt az Adatprofilozás című témakörben talál.

Hozzáadva a Databricks CLI 0.229.0-s verziójához

quality_monitors:
  <quality_monitor-name>:
    <quality_monitor-field-name>: <quality_monitor-field-value>
Key Típus Description
assets_dir String A monitorozási eszközök tárolására szolgáló könyvtár (például irányítópult, metrikatáblák).
Hozzáadva a Databricks CLI 0.229.0-s verziójához
baseline_table_name String Annak az alaptáblának a neve, amelyből az eltolódási metrikákat számítja ki. A figyelt tábla oszlopainak is szerepelnie kell az alaptáblában.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
custom_metrics Sequence A figyelt táblán kiszámítandó egyéni metrikák. Ezek lehetnek összesített metrikák, származtatott metrikák (már kiszámított összesített metrikákból) vagy sodródási metrikák (metrikák összehasonlítása az időablakokban). Lásd : custom_metrics.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
inference_log Map Konfigurálás a következtetési naplók figyeléséhez. Lásd az inference_log-ot.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
latest_monitor_failure_msg String A monitorhibák legújabb hibaüzenete. Ez egy írásvédett mező, amely akkor lesz feltöltve, ha egy figyelő meghibásodik.
Hozzáadva a Databricks CLI 0.264.0-s verziójához
lifecycle Map Az erőforrás életciklus-beállításait tartalmazza. Ez szabályozza az erőforrás viselkedését az üzembe helyezéskor vagy megsemmisítéskor. Lásd az életciklust.
Hozzáadva a Databricks CLI 0.268.0-s verziójához
notifications Map A monitor értesítési beállításai. Tekintse meg az értesítéseket.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
output_schema_name String Séma, ahol a kimeneti metrikatáblák létrejönnek.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
schedule Map A metrikatáblák automatikus frissítésének és megújításának ütemezése. Lásd az ütemezést.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
skip_builtin_dashboard logikai Kihagyhatja-e az adatminőségi metrikákat összegző alapértelmezett irányítópult létrehozását.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
slicing_exprs Sequence Az adatok célzott elemzéshez való szeleteléséhez használt oszlopkifejezések listája. Az adatokat egymástól függetlenül csoportosítja az egyes kifejezések, így az egyes predikátumok és azok kiegészítései külön szeletet alkotnak. Magas számosságú oszlopok esetében csak a leggyakoribb 100 egyedi érték alapján készítenek szeleteket.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
snapshot Map Pillanatképtáblák monitorozásának konfigurációja. Tekintse meg a pillanatképet.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
table_name String A tábla teljes neve.
Hozzáadva a Databricks CLI 0.235.0-s verziójához
time_series Map Az idősortáblák monitorozásának konfigurálása. Lásd time_series.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
warehouse_id String Opcionális paraméter a raktár megszabására az irányítópult létrehozásakor. Ha nincs megadva, a rendszer az első futó raktárat használja.
Hozzáadva a Databricks CLI 0.229.0-s verziójához

minőségellenőrző.egyedi_mérőszámok

Type: Sequence

Egyéni metrikadefiníciók listája.

A lista minden eleme egy CustomMetric.

Key Típus Description
definition String Jinja-sablon egy SQL-kifejezéshez, amely meghatározza a metrika kiszámításának módját. Lásd: metrikadefiníció létrehozása.
input_columns Sequence A bemeneti táblában szereplő oszlopnevek listája, amely alapján a metrikát ki kell számítani. :table Azt jelezheti, hogy a metrika több oszlopból származó információra van szüksége.
name String A kimeneti táblák metrikájának neve.
output_data_type String Az egyéni metrika kimeneti típusa.
type String Csak az egyik lehet: CUSTOM_METRIC_TYPE_AGGREGATE, CUSTOM_METRIC_TYPE_DERIVED vagy CUSTOM_METRIC_TYPE_DRIFT. A CUSTOM_METRIC_TYPE_AGGREGATE és CUSTOM_METRIC_TYPE_DERIVED metrikák egyetlen táblán vannak kiszámítva, míg a CUSTOM_METRIC_TYPE_DRIFT metrikák összehasonlítják az alapszintet és a bemeneti táblát, vagy a két egymást követő időablak metrikáit.
  • CUSTOM_METRIC_TYPE_AGGREGATE: csak a tábla meglévő oszlopaitól függ
  • CUSTOM_METRIC_TYPE_DERIVED: a korábban kiszámított összesített metrikáktól függ
  • CUSTOM_METRIC_TYPE_DRIFT: a korábban kiszámított összesített vagy származtatott metrikáktól függ

quality_monitor.inference_log

Type: Map

Konfigurálás a következtetési naplók figyeléséhez.

Key Típus Description
granularities Sequence A következtetési naplók összesítésének időrészletei (például ["1 day"]).
model_id_col String A modellazonosítót tartalmazó oszlop neve.
prediction_col String Az előrejelzést tartalmazó oszlop neve.
timestamp_col String Az időbélyeget tartalmazó oszlop neve.
problem_type String A ML-probléma típusa. Az érvényes értékek a következők: PROBLEM_TYPE_CLASSIFICATION. PROBLEM_TYPE_REGRESSION
label_col String Az oszlop neve, amely a címkét (valós adat) tartalmazza.
prediction_proba_col String Az előrejelzési valószínűségeket tartalmazó oszlop neve.

minőségellenőrző.értesítések

Type: Map

A monitor értesítési beállításai.

Key Típus Description
on_failure Map Értesítési beállítások, ha a figyelő meghibásodik. Lásd : on_failure.
on_new_classification_tag_detected Map Értesítési beállítások új besorolási címkék észlelésekor. Lásd : on_new_classification_tag_detected.

minőség_monitor.értesítések.hiba_esetén

Type: Map

Értesítési beállítások, ha a figyelő meghibásodik.

Key Típus Description
email_addresses Sequence A monitorhibáról értesítendő e-mail-címek listája.

quality_monitor.értesítések.új_osztályozási_címke_észlelése

Type: Map

Értesítési beállítások új besorolási címkék észlelésekor.

Key Típus Description
email_addresses Sequence Az új besorolási címkék észlelésekor értesítendő e-mail-címek listája.

minőség_monitor.program

Type: Map

Metrikatáblák automatikus frissítésének és újratöltésének ütemezése.

Key Típus Description
quartz_cron_expression String Cron-kifejezés kvarcszintaxissal. Például 0 0 8 * * ? minden nap reggel 8:00-kor fut.
timezone_id String Az ütemezés időzónája (például UTC, America/Los_Angeles).
pause_status String Azt jelzi, hogy az ütemezés szüneteltetve van-e. Érvényes értékek: PAUSED, UNPAUSED.

minőségfigyelő.pillanatkép

Type: Map

Pillanatképtáblák monitorozásának konfigurációja.

minőségfigyelő.idősor

Az idősortáblák monitorozásának konfigurálása.

Key Típus Description
granularities Sequence Az idősoradatok összesítésének időrészletei (például ["30 minutes"]).
timestamp_col String Az időbélyeget tartalmazó oszlop neve.

Examples

Az alábbi példák minőségi monitorokat határoznak meg az InferenceLog, a TimeSeries és a Snapshot profiltípusokhoz.

# InferenceLog profile type
resources:
  quality_monitors:
    my_quality_monitor:
      table_name: dev.mlops_schema.predictions
      output_schema_name: ${bundle.target}.mlops_schema
      assets_dir: /Workspace/Users/${workspace.current_user.userName}/databricks_lakehouse_monitoring
      inference_log:
        granularities: [1 day]
        model_id_col: model_id
        prediction_col: prediction
        label_col: price
        problem_type: PROBLEM_TYPE_REGRESSION
        timestamp_col: timestamp
      schedule:
        quartz_cron_expression: 0 0 8 * * ? # Run Every day at 8am
        timezone_id: UTC
# TimeSeries profile type
resources:
  quality_monitors:
    my_quality_monitor:
      table_name: dev.mlops_schema.predictions
      output_schema_name: ${bundle.target}.mlops_schema
      assets_dir: /Workspace/Users/${workspace.current_user.userName}/databricks_lakehouse_monitoring
      time_series:
        granularities: [30 minutes]
        timestamp_col: timestamp
      schedule:
        quartz_cron_expression: 0 0 8 * * ? # Run Every day at 8am
        timezone_id: UTC
# Snapshot profile type
resources:
  quality_monitors:
    my_quality_monitor:
      table_name: dev.mlops_schema.predictions
      output_schema_name: ${bundle.target}.mlops_schema
      assets_dir: /Workspace/Users/${workspace.current_user.userName}/databricks_lakehouse_monitoring
      snapshot: {}
      schedule:
        quartz_cron_expression: 0 0 8 * * ? # Run Every day at 8am
        timezone_id: UTC

Az alábbi példa egy minőségfigyelőt és egy megfelelő modell újratanítási feladatátképzési feladatot konfigurál a figyelés alapján:

# Quality monitoring workflow
resources:
  quality_monitors:
    mlops_quality_monitor:
      table_name: ${bundle.target}.mlops_demo.predictions
      output_schema_name: ${bundle.target}.mlops_demo
      assets_dir: /Users/${workspace.current_user.userName}/databricks_lakehouse_monitoring
      inference_log:
        granularities: [1 hour]
        model_id_col: model_version
        prediction_col: prediction
        label_col: fare_amount
        problem_type: PROBLEM_TYPE_REGRESSION
        timestamp_col: inference_timestamp
      schedule:
        quartz_cron_expression: 57 0 14 * * ? # refresh monitoring metrics every day at 7 am PT
        timezone_id: UTC
  jobs:
    retraining_job:
      name: ${bundle.target}-mlops_demo-monitoring-retraining-job
      tasks:
        - task_key: monitored_metric_violation_check
          notebook_task:
            notebook_path: ../monitoring/notebooks/MonitoredMetricViolationCheck.py
            base_parameters:
              env: ${bundle.target}
              table_name_under_monitor: ${bundle.target}.mlops_demo.predictions
              metric_to_monitor: r2_score
              metric_violation_threshold: 0.7
              num_evaluation_windows: 24
              num_violation_windows: 5 # 5 out of the past 24 windows have metrics lower than threshold

        - task_key: is_metric_violated
          depends_on:
            - task_key: monitored_metric_violation_check
          condition_task:
            op: EQUAL_TO
            left: '{{tasks.monitored_metric_violation_check.values.is_metric_violated}}'
            right: 'true'

        - task_key: trigger_retraining
          depends_on:
            - task_key: is_metric_violated
              outcome: 'true'
          run_job_task:
            job_id: ${resources.jobs.model_training_job.id}

      schedule:
        quartz_cron_expression: '0 0 15 * * ?' # daily at 8 am PDT
        timezone_id: UTC

      # To get notifications, provide a list of emails to the on_failure argument.
      #
      #  email_notifications:
      #    on_failure:
      #      - someone@example.com

regisztrált_modell (Unity Catalog)

Type: Map

A regisztrált modellerőforrás lehetővé teszi modellek meghatározását a Unity Catalogban. További információ a Unity Catalog regisztrált modellekrőla "A modell életciklusának kezelése a Unity Katalógusban"című témakörben található.

Hozzáadva a Databricks CLI 0.229.0-s verziójához

registered_models:
  <registered_model-name>:
    <registered_model-field-name>: <registered_model-field-value>
Key Típus Description
aliases Sequence A regisztrált modellhez társított aliasok listája. Lásd registered_model.aliases.
Hozzáadva a Databricks CLI 0.273.0-s verziójához
browse_only logikai Azt jelzi, hogy a rendszerbiztonsági tag csak akkor tudja-e lekérni a társított objektum metaadatait a BROWSE jogosultságon keresztül, ha include_browse engedélyezve van a kérésben.
Hozzáadva a Databricks CLI 0.273.0-s verziójához
catalog_name String Annak a katalógusnak a neve, amelyben a séma és a regisztrált modell található.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
comment String A regisztrált modellhez csatolt megjegyzés.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
created_at Integer A regisztrált modell létrehozási időbélyege ezredmásodpercben, a Unix-korszak óta.
Hozzáadva a Databricks CLI 0.273.0-s verziójához
created_by String A regisztrált modellt létrehozó felhasználó azonosítója.
Hozzáadva a Databricks CLI 0.273.0-s verziójához
full_name String A regisztrált modell háromszintű (teljesen minősített) neve.
Hozzáadva a Databricks CLI 0.273.0-s verziójához
grants Sequence A regisztrált modellhez társított támogatások. Lásd adomány.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
lifecycle Map Az erőforrás életciklus-beállításait tartalmazza. Ez szabályozza az erőforrás viselkedését az üzembe helyezéskor vagy megsemmisítéskor. Lásd az életciklust.
Hozzáadva a Databricks CLI 0.268.0-s verziójához
metastore_id String A metaadattár egyedi azonosítója.
Hozzáadva a Databricks CLI 0.273.0-s verziójához
name String A regisztrált modell neve.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
owner String A regisztrált modell tulajdonosának azonosítója.
Hozzáadva a Databricks CLI 0.273.0-s verziójához
schema_name String Annak a sémának a neve, amelyben a regisztrált modell található.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
storage_location String A felhőben található tárolási hely, amely alatt a modellverzió adatfájljait tárolja a rendszer.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
updated_at String A regisztrált modell utolsó frissítési időbélyege ezredmásodpercben, a Unix-korszak óta.
Hozzáadva a Databricks CLI 0.273.0-s verziójához
updated_by String Annak a felhasználónak az azonosítója, aki legutóbb frissítette a regisztrált modellt.
Hozzáadva a Databricks CLI 0.273.0-s verziójához

registered_model.aliaszok

Type: Sequence

A regisztrált modellhez társított aliasok listája.

A lista minden eleme egy Alias:

Key Típus Description
alias_name String Az alias neve, például "bajnok" vagy "latest_stable"
catalog_name String A modellverziót tartalmazó katalógus neve
id String Az alias egyedi azonosítója
model_name String A modellverzió szülő regisztrált modelljének neve, viszonyítva a szülősémához.
schema_name String A modellverziót tartalmazó séma neve a szülőkatalógushoz viszonyítva
version_num Integer Annak a modellverziónak az egész számú verziószáma, amelyre ez az álnév utal.

Example

Az alábbi példa egy regisztrált modellt határoz meg a Unity Catalogban:

resources:
  registered_models:
    model:
      name: my_model
      catalog_name: ${bundle.target}
      schema_name: mlops_schema
      comment: Registered model in Unity Catalog for ${bundle.target} deployment target
      grants:
        - privileges:
            - EXECUTE
          principal: account users

séma (Unity Catalog)

Type: Map

A sémák a Python for Databricks Asset Bundlesben támogatottak. Lásd : databricks.bundles.schemas.

A sémaerőforrás-típus lehetővé teszi, hogy a Unity Catalog sémáit meghatározza a táblákhoz és egyéb erőforrásokhoz a csomag részeként létrehozott munkafolyamatok és adatcsővezetétek során. A más erőforrástípusoktól eltérő sémákra a következő korlátozások vonatkoznak:

  • A sémaerőforrás tulajdonosa mindig az üzembe helyezés felhasználója, és nem módosítható. Ha a csomagban run_as van megadva, azt a séma műveletei figyelmen kívül hagyják.
  • Csak azok a mezők érhetők el a séma erőforráshoz, amelyeket a megfelelő Sémaobjektum létrehozó API támogat. A enable_predictive_optimization például nem támogatott, mivel csak a frissítési API-érhető el.

Hozzáadva a Databricks CLI 0.229.0-s verziójához

schemas:
  <schema-name>:
    <schema-field-name>: <schema-field-value>
Key Típus Description
catalog_name String A szülői katalógus neve.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
comment String Felhasználó által megadott szabad formátumú szöveges leírás.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
grants Sequence A sémához társított támogatások. Lásd adomány.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
lifecycle Map Az erőforrás életciklus-beállításait tartalmazza. Ez szabályozza az erőforrás viselkedését az üzembe helyezéskor vagy megsemmisítéskor. Lásd az életciklust.
Hozzáadva a Databricks CLI 0.268.0-s verziójához
name String A séma neve a szülőkatalógushoz viszonyítva.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
properties Map A sémához csatolt kulcs-érték tulajdonságok térképe.
Hozzáadva a Databricks CLI 0.229.0-s verziójához
storage_root String A séma felügyelt tábláinak tárolási gyökér URL-címe.
Hozzáadva a Databricks CLI 0.229.0-s verziójához

Examples

Az alábbi példa egy my_pipeline erőforráskulccsal rendelkező folyamatot határoz meg, amely létrehoz egy Unity Catalog sémát my_schema kulccsal, mint célt.

resources:
  pipelines:
    my_pipeline:
      name: test-pipeline-{{.unique_id}}
      libraries:
        - notebook:
            path: ../src/nb.ipynb
        - file:
            path: ../src/range.sql
      development: true
      catalog: ${resources.schemas.my_schema.catalog_name}
      target: ${resources.schemas.my_schema.id}

  schemas:
    my_schema:
      name: test-schema-{{.unique_id}}
      catalog_name: main
      comment: This schema was created by Databricks Asset Bundles.

A Databricks-eszközcsomagok nem támogatják a legfelső szintű vissza nem térítendő támogatásokat, ezért ha egy sémához szeretne támogatást beállítani, adja meg a sémához tartozó támogatásokat a schemas leképezésen belül. További információ a támogatásokról: Jogosultságok megjelenítése, megadása és visszavonása.

Az alábbi példa egy Unity Catalog-sémát határoz meg támogatásokkal:

resources:
  schemas:
    my_schema:
      name: test-schema
      grants:
        - principal: users
          privileges:
            - SELECT
        - principal: my_team
          privileges:
            - CAN_MANAGE
      catalog_name: main

titkos_terület

Type: Map

A secret_scope erőforrás lehetővé teszi a titkos kulcsok hatóköreinek meghatározását egy csomagban. A titkos kódok hatóköreiről további információt a Titkos kódok kezelése című témakörben talál.

Hozzáadva a Databricks CLI 0.252.0-s verziójához

secret_scopes:
  <secret_scope-name>:
    <secret_scope-field-name>: <secret_scope-field-value>
Key Típus Description
backend_type String A háttérrendszer típusa, amellyel a hatókör létrejön. Ha nincs megadva, ez az alapértelmezett érték.DATABRICKS
Hozzáadva a Databricks CLI 0.252.0-s verziójához
keyvault_metadata Map A titkos hatókör metaadatai, ha a backend_typeAZURE_KEYVAULT. Lásd keyvault_metadata.
Hozzáadva a Databricks CLI 0.252.0-s verziójához
lifecycle Map Az erőforrás életciklus-beállításait tartalmazza. Ez szabályozza az erőforrás viselkedését az üzembe helyezéskor vagy megsemmisítéskor. Lásd az életciklust.
Hozzáadva a Databricks CLI 0.268.0-s verziójához
name String A felhasználó által kért hatókörnév. A hatókörnevek egyediek.
Hozzáadva a Databricks CLI 0.252.0-s verziójához
permissions Sequence A titkos hatókörre vonatkozó engedélyek. Az engedélyek titkos hatókörű ACL-ekkel kezelhetők. Tekintse meg az engedélyeket.
Hozzáadva a Databricks CLI 0.252.0-s verziójához

secret_scope.keyvault_metadata

Type: Map

Az Azure Key Vault által támogatott titkos kulcstartományok metaadatai.

Key Típus Description
resource_id String A Key Vault Azure-erőforrás-azonosítója.
dns_name String Az Azure Key Vault DNS neve.

Examples

Az alábbi példa egy kulcstár háttérrendszerét használó titkos hatókört határoz meg.

resources:
  secret_scopes:
    secret_scope_azure:
      name: test-secrets-azure-backend
      backend_type: 'AZURE_KEYVAULT'
      keyvault_metadata:
        resource_id: my_azure_keyvault_id
        dns_name: my_azure_keyvault_dns_name

Az alábbi példa egy egyéni ACL-t állít be titkos hatókörök és engedélyek használatával:

resources:
  secret_scopes:
    my_secret_scope:
      name: my_secret_scope
      permissions:
        - user_name: admins
          level: WRITE
        - user_name: users
          level: READ

Egy példa csomagra, amely bemutatja, hogyan definiálhat titkos hatókört és munkát egy olyan feladattal, amely olvas belőle egy csomagban, tekintse meg a csomagpéldák GitHub-adattárát.

sql_warehouse (SQL tárház)

Type: Map

Az SQL Warehouse-erőforrással egy csomagban definiálhat EGY SQL-raktárt . Az SQL Warehouse-okkal kapcsolatos információkért lásd az Azure Databricks adattárházait.

Hozzáadva a Databricks CLI 0.260.0-s verziójához

sql_warehouses:
  <sql-warehouse-name>:
    <sql-warehouse-field-name>: <sql-warehouse-field-value>
Key Típus Description
auto_stop_mins Integer Az az idő percek alatt, amikor egy SQL-raktárnak tétlennek kell lennie (például nem futnak lekérdezések), mielőtt az automatikusan leáll. Az érvényes értékek 0, ami azt jelzi, hogy nincs automatikus leállás, vagy nagyobb vagy egyenlő, mint 10. Az alapértelmezett érték 120.
Hozzáadva a Databricks CLI 0.260.0-s verziójához
channel Map A csatorna részletei. Lásd a csatornát.
Hozzáadva a Databricks CLI 0.260.0-s verziójához
cluster_size String A raktárhoz kiosztott klaszterek mérete. A Spark-fürt méretének növelésével nagyobb lekérdezéseket futtathatunk rajta. Ha növelni szeretné az egyidejű lekérdezések számát, hangolja max_num_clusters. A támogatott értékekért lásd: cluster_size.
Hozzáadva a Databricks CLI 0.260.0-s verziójához
creator_name String A raktárt létrehozó felhasználó neve.
Hozzáadva a Databricks CLI 0.260.0-s verziójához
enable_photon logikai A raktárnak Photon optimalizált fürtöket kell-e használnia. Alapértelmezés szerint hamis.
Hozzáadva a Databricks CLI 0.260.0-s verziójához
enable_serverless_compute logikai Azt határozza meg, hogy a raktár kiszolgáló nélküli számítást használjon-e.
Hozzáadva a Databricks CLI 0.260.0-s verziójához
instance_profile_arn String Deprecated. Az IAM-szerepkör fürtnek való átadásához használt példányprofil.
Hozzáadva a Databricks CLI 0.260.0-s verziójához
lifecycle Map Az erőforrás életciklus-beállításait tartalmazza. Ez szabályozza az erőforrás viselkedését az üzembe helyezéskor vagy megsemmisítéskor. Lásd az életciklust.
Hozzáadva a Databricks CLI 0.268.0-s verziójához
max_num_clusters Integer Az automatikus skálázó által az egyidejű lekérdezések kezeléséhez létrehozott fürtök maximális száma. Az értékeknek 30-nál kisebbnek vagy egyenlőnek kell lenniük, és nagyobbnak vagy egyenlőnek kell lenniük min_num_clusters. Alapértelmezés szerint a min_clusters értéket használja, ha nincs beállítva.
Hozzáadva a Databricks CLI 0.260.0-s verziójához
min_num_clusters Integer Az SQL Warehouse-hoz fenntartott elérhető fürtök minimális száma. Ennek növelésével biztosítható, hogy a klaszterek nagyobb számban mindig fussanak, ezért csökkentheti az új lekérdezések hidegindítási idejét. Ez hasonló az erőforrás-kezelő fenntartott és visszavonható magjaihoz. Az értékeknek 0-nál nagyobbnak és kisebbnek vagy egyenlőnek kell lenniük a min(max_num_clusters, 30) értéknél. Alapértelmezett érték: 1.
Hozzáadva a Databricks CLI 0.260.0-s verziójához
name String A fürt logikai neve. A névnek egy szervezeten belül egyedinek kell lennie, és 100 karakternél kisebbnek kell lennie.
Hozzáadva a Databricks CLI 0.260.0-s verziójához
permissions Sequence A raktárra vonatkozó engedélyek. Tekintse meg az engedélyeket.
Hozzáadva a Databricks CLI 0.260.0-s verziójához
spot_instance_policy String Alkalmi példányok használata. Az érvényes értékek a következőkPOLICY_UNSPECIFIED: , COST_OPTIMIZEDRELIABILITY_OPTIMIZED. Az alapértelmezett érték a COST_OPTIMIZED.
Hozzáadva a Databricks CLI 0.260.0-s verziójához
tags Map Kulcs-érték párok készlete, amelyek az SQL Warehouse-hoz társított összes erőforráson (például AWS-példányokon és EBS-köteteken) címkézve lesznek. A címkék számának 45-nél kevesebbnek kell lennie.
Hozzáadva a Databricks CLI 0.260.0-s verziójához
warehouse_type String A raktár típusa PRO vagy CLASSIC. Ha kiszolgáló nélküli számítást szeretne használni, állítsa be ezt a mezőt PRO értékre, és állítsa be a mezőt enable_serverless_compute értékre true.
Hozzáadva a Databricks CLI 0.260.0-s verziójához

sql_warehouse.csatorna

Type: Map

Az SQL Warehouse csatornakonfigurációja.

Key Típus Description
name String A csatorna neve. Az érvényes értékek a következők: CHANNEL_NAME_CURRENT, CHANNEL_NAME_PREVIEWCHANNEL_NAME_CUSTOM.
dbsql_version String Az egyéni csatornák DBSQL-verziója.

Example

Az alábbi példa egy SQL Warehouse-t határoz meg:

resources:
  sql_warehouses:
    my_sql_warehouse:
      name: my_sql_warehouse
      cluster_size: X-Large
      enable_serverless_compute: true
      max_num_clusters: 3
      min_num_clusters: 1
      auto_stop_mins: 60
      warehouse_type: PRO

szinkronizált_adatbázis_tábla

Type: Map

A szinkronizált adatbázistábla-erőforrás lehetővé teszi a Lakebase-adatbázistáblák csomagban való meghatározását.

A szinkronizált adatbázistáblákról további információt a Mi az adatbázispéldány? című témakörben talál.

Hozzáadva a Databricks CLI 0.266.0-s verziójához

synced_database_tables:
  <synced_database_table-name>:
    <synced_database_table-field-name>: <synced_database_table-field-value>
Key Típus Description
database_instance_name String A céladatbázis-példány neve. Erre akkor van szükség, ha szabványos katalógusokban hoz létre szinkronizált adatbázistáblákat. Ez nem kötelező, ha szinkronizált adatbázistáblákat hoz létre regisztrált katalógusokban.
Hozzáadva a Databricks CLI 0.266.0-s verziójához
lifecycle Map Az erőforrás életciklus-beállításait tartalmazza. Ez szabályozza az erőforrás viselkedését az üzembe helyezéskor vagy megsemmisítéskor. Lásd az életciklust.
Hozzáadva a Databricks CLI 0.268.0-s verziójához
logical_database_name String A tábla cél Postgres-adatbázis-objektumának (logikai adatbázisának) neve.
Hozzáadva a Databricks CLI 0.266.0-s verziójához
name String A tábla teljes neve az űrlapon catalog.schema.table.
Hozzáadva a Databricks CLI 0.266.0-s verziójához
spec Map Az adatbázistábla specifikációja. Lásd a szinkronizált adatbázistábla specifikációját.
Hozzáadva a Databricks CLI 0.266.0-s verziójához

synced_database_table.spec

Type: Map

Az adatbázistábla specifikációja.

Hozzáadva a Databricks CLI 0.266.0-s verziójához

Key Típus Description
create_database_objects_if_missing logikai Azon kell dönteni, hogy létrehozzuk-e a szinkronizált tábla logikai adatbázisát és sémaerőforrásait, ha még nem léteznek.
existing_pipeline_id String Egy meglévő folyamat azonosítója. Ha ez be van állítva, a szinkronizált tábla be lesz illesztve a hivatkozott meglévő adatfolyamatba. Ez elkerüli az új folyamat létrehozását, és lehetővé teszi a meglévő számítás megosztását. Ebben az esetben ennek a scheduling_policy szinkronizált táblának meg kell egyeznie a meglévő folyamat ütemezési szabályzatával. Legfeljebb az egyik elem, existing_pipeline_id vagy new_pipeline_spec, legyen definiálva.
new_pipeline_spec Map Egy új csővezeték specifikációja. Lásd new_pipeline_spec. Legfeljebb az egyik elem, existing_pipeline_id vagy new_pipeline_spec, legyen definiálva.
primary_key_columns Sequence Az elsődleges kulcsot alkotó oszlopnevek listája.
scheduling_policy String A szinkronizálás ütemezési szabályzata. Az érvényes értékek a következők: SNAPSHOT. CONTINUOUS
source_table_full_name String A forrástábla teljes neve a formátumban catalog.schema.table.
timeseries_key String Idősorkulcs az azonos elsődleges kulccsal rendelkező sorok duplikálásának megszüntetéséhez.

szinkronizált_adatbázis_táblázat.spec.new_pipeline_spec

Type: Map

A szinkronizált adatbázistábla által használt új folyamat specifikációja.

Key Típus Description
budget_policy_id String Az újonnan létrehozott csővezetékhez beállítandó költségvetési szabályzat azonosítója.
storage_catalog String A folyamat katalógusa köztes fájlok, például ellenőrzőpontok és eseménynaplók tárolásához. Ennek egy szabványos katalógusnak kell lennie, amelyben a felhasználó rendelkezik a Delta-táblák létrehozásához szükséges engedélyekkel.
storage_schema String A folyamat sémája köztes fájlok, például ellenőrzőpontok és eseménynaplók tárolására. Ennek a standard katalógusban kell lennie, ahol a felhasználó rendelkezik deltatáblák létrehozására vonatkozó engedélyekkel.

Examples

Az alábbi példa egy szinkronizált adatbázistáblát határoz meg egy megfelelő adatbáziskatalóguson belül:

resources:
  database_instances:
    my_instance:
      name: my-instance
      capacity: CU_1
  database_catalogs:
    my_catalog:
      database_instance_name: my-instance
      database_name: 'my_database'
      name: my_catalog
      create_database_if_not_exists: true
  synced_database_tables:
    my_synced_table:
      name: ${resources.database_catalogs.my_catalog.name}.${resources.database_catalogs.my_catalog.database_name}.my_destination_table
      database_instance_name: ${resources.database_catalogs.my_catalog.database_instance_name}
      logical_database_name: ${resources.database_catalogs.my_catalog.database_name}
      spec:
        source_table_full_name: 'my_source_table'
        scheduling_policy: SNAPSHOT
        primary_key_columns:
          - my_pk_column
        new_pipeline_spec:
          storage_catalog: 'my_delta_catalog'
          storage_schema: 'my_delta_schema'

Az alábbi példa egy szinkronizált adatbázistáblát határoz meg egy standard katalógusban:

resources:
  synced_database_tables:
    my_synced_table:
      name: 'my_standard_catalog.public.synced_table'
      # database_instance_name is required for synced tables created in standard catalogs.
      database_instance_name: 'my-database-instance'
      # logical_database_name is required for synced tables created in standard catalogs:
      logical_database_name: ${resources.database_catalogs.my_catalog.database_name}
      spec:
        source_table_full_name: 'source_catalog.schema.table'
        scheduling_policy: SNAPSHOT
        primary_key_columns:
          - my_pk_column
        create_database_objects_if_missing: true
        new_pipeline_spec:
          storage_catalog: 'my_delta_catalog'
          storage_schema: 'my_delta_schema'

Ez a példa létrehoz egy szinkronizált adatbázistáblát, és testre szabja annak folyamatütemezését. Feltételezi, hogy már rendelkezik a következőkkel:

  • Egy adatbázispéldány neve my-database-instance
  • Egy standard katalógus neve my_standard_catalog
  • A séma a szabványos katalógusban default
  • Az elsődleges kulccsal elnevezett source_delta.schema.customer forrás deltatábla c_custkey
resources:
  synced_database_tables:
    my_synced_table:
      name: 'my_standard_catalog.default.my_synced_table'
      database_instance_name: 'my-database-instance'
      logical_database_name: 'test_db'
      spec:
        source_table_full_name: 'source_delta.schema.customer'
        scheduling_policy: SNAPSHOT
        primary_key_columns:
          - c_custkey
        create_database_objects_if_missing: true
        new_pipeline_spec:
          storage_catalog: 'source_delta'
          storage_schema: 'schema'

  jobs:
    sync_pipeline_schedule_job:
      name: sync_pipeline_schedule_job
      description: 'Job to schedule synced database table pipeline.'
      tasks:
        - task_key: synced-table-pipeline
          pipeline_task:
            pipeline_id: ${resources.synced_database_tables.my_synced_table.data_synchronization_status.pipeline_id}
      schedule:
        quartz_cron_expression: '0 0 0 * * ?'

lemez (Unity Catalog)

Type: Map

A kötetek támogatottak a Python for Databricks Asset Bundles szolgáltatásban. Lásd : databricks.bundles.volumes.

A kötet erőforrástípusa lehetővé teszi a Unity Catalog kötetek definiálását és létrehozását csomag részeként. Amikor egy kötettel rendelkező csomagot helyez üzembe, vegye figyelembe, hogy:

  • Addig nem lehet hivatkozni egy kötetre a artifact_path csomagban, amíg az a munkaterületen nem létezik. Ezért ha a Databricks Asset Bundles segítségével szeretné létrehozni a kötetet, először meg kell határoznia a kötetet a csomagban, telepítenie kell, hogy létrehozza a kötetet, majd hivatkoznia kell rá a artifact_path a későbbi telepítések során.
  • A csomagban lévő kötetek nincsenek dev_${workspace.current_user.short_name} előtaggal ellátva, ha a telepítési célpont mode: development konfigurálva van. Ezt az előtagot azonban manuálisan is konfigurálhatja. Lásd: Egyéni beállítások.

Hozzáadva a Databricks CLI 0.236.0-s verziójához

volumes:
  <volume-name>:
    <volume-field-name>: <volume-field-value>
Key Típus Description
catalog_name String A séma és a kötet katalógusának neve.
Hozzáadva a Databricks CLI 0.236.0-s verziójához
comment String A kötethez csatolt megjegyzés.
Hozzáadva a Databricks CLI 0.236.0-s verziójához
grants Sequence A kötethez kapcsolódó támogatások. Lásd adomány.
Hozzáadva a Databricks CLI 0.236.0-s verziójához
lifecycle Map Az erőforrás életciklus-beállításait tartalmazza. Ez szabályozza az erőforrás viselkedését az üzembe helyezéskor vagy megsemmisítéskor. Lásd az életciklust.
Hozzáadva a Databricks CLI 0.268.0-s verziójához
name String A kötet neve.
Hozzáadva a Databricks CLI 0.236.0-s verziójához
schema_name String Annak a sémának a neve, amelyben a kötet található.
Hozzáadva a Databricks CLI 0.236.0-s verziójához
storage_location String A felhőbeli tárolási hely.
Hozzáadva a Databricks CLI 0.236.0-s verziójához
volume_type String A kötet típusa, lehet EXTERNAL vagy MANAGED. A külső kötet a megadott külső helyen található. A felügyelt kötetek a szülőséma, a szülőkatalógus vagy a metaadattár által megadott alapértelmezett helyen találhatók. Lásd: Felügyelt és külső kötetek.

Example

Az alábbi példa egy Unity Catalog-kötetet hoz létre a my_volume_idkulccsal:

resources:
  volumes:
    my_volume_id:
      catalog_name: main
      name: my_volume
      schema_name: my_schema

A Unity Catalog-kötetben egy fájlba író feladatot futtató példacsomagért tekintse meg a csomagpéldák GitHub-adattárát.

Gyakori objektumok

engedélyez

Type: Map

Meghatározza az adott fő felhasználót és a neki adható jogosultságokat. További információ a támogatásokról: Jogosultságok megjelenítése, megadása és visszavonása.

Hozzáadva a Databricks CLI 0.229.0-s verziójához

Key Típus Description
principal String Annak a felelősnek a neve, aki jogosultságokat kap. Ez lehet felhasználó, csoport vagy szolgáltatásnév.
privileges Sequence A megadott entitásnak adható jogosultságok. Az érvényes értékek az erőforrás típusától függenek (például, SELECT, MODIFY, CREATE, USAGEREAD_FILES, WRITE_FILES, , EXECUTE). ALL_PRIVILEGES

Example

Az alábbi példa egy Unity Catalog-sémát határoz meg támogatásokkal:

resources:
  schemas:
    my_schema:
      name: test-schema
      grants:
        - principal: users
          privileges:
            - SELECT
        - principal: my_team
          privileges:
            - CAN_MANAGE
      catalog_name: main

életciklus

Type: Map

Az erőforrás életciklus-beállításait tartalmazza. Ez szabályozza az erőforrás viselkedését az üzembe helyezéskor vagy megsemmisítéskor.

Hozzáadva a Databricks CLI 0.268.0-s verziójához

Key Típus Description
prevent_destroy logikai Életciklus-beállítás, amely megakadályozza az erőforrás megsemmisülését.
Hozzáadva a Databricks CLI 0.268.0-s verziójához