Megosztás:


Databricks (előzetes verzió)

A Databricks egységes platformot kínál a méretezhető adatkezeléshez, szabályozáshoz és elemzéshez, amely leegyszerűsített munkafolyamatokat és különböző adattípusok hatékony kezelését teszi lehetővé

Ez az összekötő a következő termékekben és régiókban érhető el:

Service Class Régiók
Copilot Studio prémium Az összes Power Automate-régió, kivéve a következőket:
     - USA kormánya (GCC)
     - Amerikai kormány (GCC High)
     - A 21Vianet által üzemeltetett China Cloud
     - Amerikai Védelmi Minisztérium (DoD)
Logikai alkalmazások Standard Az összes Logic Apps-régió , kivéve a következőket:
     - Azure Government-régiók
     - Azure China-régiók
     - Amerikai Védelmi Minisztérium (DoD)
Power Alkalmazások prémium Az összes Power Apps-régió , kivéve a következőket:
     - USA kormánya (GCC)
     - Amerikai kormány (GCC High)
     - A 21Vianet által üzemeltetett China Cloud
     - Amerikai Védelmi Minisztérium (DoD)
Power Automate prémium Az összes Power Automate-régió, kivéve a következőket:
     - USA kormánya (GCC)
     - Amerikai kormány (GCC High)
     - A 21Vianet által üzemeltetett China Cloud
     - Amerikai Védelmi Minisztérium (DoD)
Érintkezés
Név Databricks-támogatás
URL https://help.databricks.com
Email eng-partner-eco-help@databricks.com
Összekötő metaadatai
Kiadó Databricks Inc.
Webhely https://www.databricks.com/
Adatvédelmi irányelvek https://www.databricks.com/legal/privacynotice
Kategóriák Adat

Csatlakozás a Databrickshez a Microsoft Power Platformról

Ez a lap bemutatja, hogyan csatlakozhat a Databrickshez a Microsoft Power Platformról a Databricks adatkapcsolatként való hozzáadásával. Csatlakozáskor a Databricks-adatokat a következő platformokról használhatja:

  • Power Apps: Olyan alkalmazásokat hozhat létre, amelyek olvasásra és írásra képesek a Databricksben, miközben megőrzik a Databricks szabályozási vezérlőit.
  • Power Automate: Folyamatok létrehozása és olyan műveletek hozzáadása, amelyek lehetővé teszik az egyéni SQL vagy egy meglévő feladat végrehajtását, és visszaadják az eredményeket.
  • Copilot Studio: Egyéni ügynökök létrehozása a Databricks-adatok segítségével tudásforrásként.

Mielőtt hozzákezdene

Mielőtt a Power Platformról csatlakozik a Databrickshez, meg kell felelnie az alábbi követelményeknek:

  • Rendelkezik egy személyes hozzáférési jogkivonattal a Databricks-munkaterülethez.
  • Prémium szintű Power Apps-licenccel rendelkezik.
  • Rendelkezik Databricks-fiókkal.
  • Hozzáféréssel rendelkezik egy SQL-raktárhoz a Databricksben.

1. lépés: Databricks-kapcsolat hozzáadása a Power Platformhoz

Jegyzet: Ha a Copilot Studiót használja, javasoljuk, hogy hozza létre a Databricks-kapcsolatot a Power Appsben vagy a Power Automate-ben. Ezután a Copilot Studióban is használható.

Databricks-kapcsolat hozzáadásához tegye a következőket:

  1. A Power Appsben vagy a Power Automate-ben az oldalsávon kattintson a Kapcsolatok elemre.
  2. Kattintson az + Új kapcsolat elemre a bal felső sarokban.
  3. Keressen rá a "Databricks" kifejezésre a jobb felső sarokban található keresősáv használatával.
  4. Válassza ki a Databricks csempét (nem az Azure Databrickset).
  5. Adja meg a hitelesítési adatokat.
    • A jogkivonat esetében adja meg a következő "Tulajdonos <személyes hozzáférés-jogkivonata" kifejezést>
  6. Kattintson a Létrehozás gombra.

2. lépés: A Databricks-kapcsolat használata

Miután létrehozott egy Databricks-kapcsolatot a Power Appsben vagy a Power Automate-ben, a Databricks-adatokkal Power Canvas-alkalmazásokat, Power Automate-folyamatokat és Copilot Studio-ügynököket hozhat létre.

A Databricks-adatok használata Power Canvas-alkalmazások létrehozásához

Important

Csak akkor használhat vászonalapú alkalmazásokat, ha közvetlenül csatlakozik a Databrickshez az alkalmazásban. Nem használhat virtuális táblákat.

A Databricks-adatok alkalmazáshoz való hozzáadásához tegye a következőket:

  1. A bal szélső navigációs sávon kattintson a Létrehozás gombra.
  2. Kattintson a Start gombra egy üres vászonnal , és válassza ki a kívánt vászonméretet egy új vászonalkalmazás létrehozásához.
  3. Az alkalmazásból kattintson azAdatösszekötők>>Databricks elemre. Válassza ki a létrehozott Databricks-kapcsolatot.
  4. Válasszon ki egy katalógust az Adathalmaz kiválasztása oldalsávról.
  5. Az Adathalmaz kiválasztása oldalsávon jelölje ki az összes táblát, amelyhez csatlakoztatni szeretné a vászonalapú alkalmazást.
  6. Kattintson a Csatlakozás gombra.

Adatműveletek a Power Appsben:

Az összekötő támogatja a létrehozási, frissítési és törlési műveleteket, de csak az elsődleges kulccsal rendelkező táblák esetében. Létrehozási műveletek végrehajtásakor mindig meg kell adnia az elsődleges kulcsot.

Jegyzet: A Databricks támogatja a létrehozott identitásoszlopokat. Ebben az esetben a rendszer automatikusan létrehozza az elsődleges kulcsértékeket a kiszolgálón a sorlétrehozás során, és nem lehet manuálisan megadni.

A Databricks-adatok használata Power Automate-folyamatok létrehozásához

Az Utasítás-végrehajtási API és a Jobs API a Power Automate-ben érhető el, így SQL-utasítások írását és meglévő feladatok végrehajtását teszi lehetővé. Ha Power Automate-folyamatot szeretne létrehozni a Databricks használatával műveletként, tegye a következőket:

  1. A bal szélső navigációs sávon kattintson a Létrehozás gombra.
  2. Hozzon létre egy folyamatot, és adjon hozzá bármilyen eseményindítótípust.
  3. Az új folyamatból kattintson + és keressen rá a "Databricks" kifejezésre az elérhető műveletek megtekintéséhez.

SQL írásához válasszon az alábbi műveletek közül:

  • SQL-utasítás végrehajtása: SQL-utasítás írása és futtatása. Adja meg a következőket:

    • Törzs/warehouse_id esetén adja meg annak a raktárnak az azonosítóját, amelyre az SQL-utasítást végre kívánja hajtani.
    • Törzs/statement_id esetén adja meg a végrehajtandó SQL-utasítás azonosítóját.
    • A speciális paraméterekkel kapcsolatos további információkért lásd itt.
  • Állapot ellenőrzése és eredmények lekérése: Ellenőrizze egy SQL-utasítás állapotát, és gyűjtsön eredményeket. Adja meg a következőket:

    • Az Utasításazonosító mezőben adja meg az SQL-utasítás végrehajtásakor visszaadott azonosítót.
    • A paraméterről további információt itt talál.
  • Utasítás végrehajtásának megszakítása: SQL-utasítás végrehajtásának leállása. Adja meg a következőket:

    • Az Utasításazonosító mezőben adja meg a megszüntetni kívánt SQL-utasítás azonosítóját.
    • A paraméterről további információt itt talál.
  • Eredmény lekérése adattömbindex alapján: Eredmények lekérése adattömbindex alapján, amely alkalmas nagy eredményhalmazokhoz. Adja meg a következőket:

    • Az Utasításazonosító mezőben adja meg annak az SQL-utasításnak az azonosítóját, amelynek eredményeit le szeretné kérni.
    • Adattömbindex esetén adja meg a céltömbindexet.
    • A paraméterekkel kapcsolatos további információkért lásd itt.

Meglévő Databricks-feladattal való interakcióhoz válasszon az alábbi műveletek közül:

  • Feladatok listázása: Lekéri a feladatok listáját. További információt itt talál.
  • Új feladatfuttatás aktiválása: Futtat egy feladatot, és visszaadja az aktivált futtatás run_id. További információt itt talál.
  • Egyetlen feladatfuttatás lekérése: Metaadatokat ad vissza egy futtatásról, beleértve a futtatás állapotát (pl. FUTTATÁS, SIKERES, SIKERTELEN), kezdési és befejezési időt, végrehajtási időtartamokat, fürtinformációkat stb. További információt itt talál.
  • Feladatfuttatás megszakítása: Feladatfuttatás vagy feladatfuttatás megszakítása. További információt itt talál.
  • Egyetlen feladatfuttatás kimenetének lekérése: Egyetlen feladatfuttatás kimenetét és metaadatait kéri le. További információt itt talál.

A Databricks használata tudásbázisként a Copilot Studióban

Ha a Databricks-adatokat tudásbázisként szeretné hozzáadni egy Copilot Studio-ügynökhöz, tegye a következőket:

  1. Az oldalsávon kattintson az Ügynök elemre.
  2. Válasszon ki egy meglévő ügynököt, vagy hozzon létre egy új ügynököt az + Új ügynök gombra kattintva.
    • Írja le az ügynököt egy üzenet beírásával, majd kattintson a Létrehozás gombra.
    • Vagy kattintson a Ugrás gombra az ügynök adatainak manuális megadásához.
  3. A Ismeret lapon kattintson a + Ismeret elemre.
  4. Kattintson a Speciális gombra.
  5. Válassza ki a Databrickset tudásforrásként.
  6. Adja meg azt a katalógusnevet, amelyben az adatok szerepelnek.
  7. Kattintson a Csatlakozás gombra.
  8. Jelölje ki a tudásforrásként használni kívánt táblákat, majd kattintson a Hozzáadás gombra.

Dataverse virtuális táblák létrehozása a Databricks-adatokkal

Dataverse virtuális táblákat a Databricks-összekötővel is létrehozhat. A virtuális táblák, más néven virtuális entitások külső rendszerekből származó adatokat integrálnak a Microsoft Dataversevel. A virtuális táblák úgy határoznak meg egy táblát a Dataverse-ben, hogy nem tárolja a fizikai táblát a Dataverse-adatbázisban. A virtuális táblákkal kapcsolatos további információkért tekintse meg a virtuális táblák (entitások) használatának első lépéseit.

Megjegyzés

Bár a virtuális táblák nem használják fel a Dataverse-tárolókapacitást, a Databricks azt javasolja, hogy közvetlen kapcsolatokat használjon a jobb teljesítmény érdekében.

Rendelkeznie kell a Rendszertestreszabó vagy a Rendszeradminisztrátor szerepkörrel. További információt a Power Platform biztonsági szerepköreivel kapcsolatban talál.

Dataverse virtuális tábla létrehozásához kövesse az alábbi lépéseket:

  1. A Power Appsben az oldalsávon kattintson a Táblák elemre.

  2. Kattintson az + Új tábla elemre a menüsávon, és válassza a Virtuális tábla létrehozása lehetőséget.

  3. Válasszon ki egy meglévő Databricks-kapcsolatot, vagy hozzon létre egy új kapcsolatot a Databrickshez. Új kapcsolat hozzáadásához lásd : 1. lépés: Databricks-kapcsolat hozzáadása a Power Platformhoz.

    A Databricks azt javasolja, hogy használjon szolgáltatói főkapcsolatot egy virtuális tábla létrehozásához.

  4. Kattintson a Tovább feliratra.

  5. Jelölje ki a Dataverse virtuális táblaként megjeleníteni kívánt táblákat.

    • A dataverse virtuális táblákhoz elsődleges kulcs szükséges. Ezért a nézetek nem lehetnek virtuális táblák, de a materializált nézetek igen.
  6. Kattintson a Tovább feliratra.

  7. Szükség esetén konfigurálja a virtuális táblát a tábla adatainak frissítésével.

  8. Kattintson a Tovább feliratra.

  9. Erősítse meg az adatforrás részleteit, és kattintson a Befejezés gombra.

  10. Használja a Dataverse virtuális táblát a Power Appsben, a Power Automate-ben és a Copilot Studióban.

A Dataverse virtuális táblák ismert korlátozásainak listáját lásd: Ismert korlátozások és hibaelhárítás.

Kötegfrissítések végrehajtása

Ha tömeges létrehozási, frissítési vagy törlési műveleteket kell végrehajtania a Power Apps bemenetei alapján, a Databricks javasolja a Power Automate-folyamat implementálását. Ehhez tegye a következőket:

  1. Hozzon létre egy vászonalapú alkalmazást a Databricks-kapcsolattal a Power Appsben.

  2. Hozzon létre egy Power Automate-folyamatot a Databricks-kapcsolat használatával, és használja a Power Appst eseményindítóként.

  3. A Power Automate-eseményindítóban adja hozzá a Power Appsből a Power Automate-be átadni kívánt beviteli mezőket.

  4. Hozzon létre egy gyűjteményobjektumot a Power Appsben az összes módosítás összegyűjtéséhez.

  5. Adja hozzá a Power Automate-folyamatot a vászonalapú alkalmazáshoz.

  6. Hívja meg a Power Automate folyamatot a vászonalapú alkalmazásából, és iterálja át a gyűjteményt a ForAll parancs segítségével.

    ForAll(collectionName, FlowName.Run(input field 1, input field 2, input field 3, …)
    

Egyidejű írások

A sorszintű egyidejűség csökkenti az egyidejű írási műveletek közötti ütközéseket azáltal, hogy észleli a sorszintű változásokat, és automatikusan feloldja azokat az ütközéseket, amelyek akkor fordulnak elő, amikor az egyidejű írások ugyanazon adatfájl különböző sorait frissítik vagy törlik.

A sorszintű egyidejűség szerepel a Databricks Runtime 14.2-es vagy újabb verziójában. A sorszintű egyidejűség alapértelmezés szerint a következő típusú táblák esetében támogatott:

  • A törlési vektorok engedélyezésével, de particionálás nélkül rendelkező táblák
  • Folyékony fürtözésű táblák, kivéve, ha a törlési vektorok le vannak tiltva

A törlési vektorok engedélyezéséhez futtassa a következő SQL-parancsot:

ALTER TABLE table_name SET TBLPROPERTIES ('delta.enableDeletionVectors' = true);

Az egyidejű írási ütközésekről a Databricksben az elkülönítési szintek és az írási ütközések a Databricksen című témakörben talál további információt.

Databricks hozzáadása adatszabályzathoz

A Databricks üzleti adatszabályzathoz való hozzáadásával a Databricks nem oszthat meg adatokat más csoportok összekötőivel. Ez védi az adatokat, és megakadályozza, hogy megosszák azokkal, akik nem férhetnek hozzá. További információ: Adatkezelési szabályzatok kezelése.

A Databricks-összekötő hozzáadása Power Platform-adatszabályzathoz:

  1. Bármelyik Power Platform-alkalmazásból kattintson a jobb felső sarokban lévő beállítási fogaskerékre, és válassza a Felügyeleti központ lehetőséget.
  2. Az oldalsávon kattintson a Szabályzatok>adatszabályzatok elemre.
  3. Ha az új felügyeleti központot használja, kattintson a Biztonsági>adatok és adatvédelmi>adatvédelmi szabályzat elemre.
  4. Kattintson az + Új szabályzat elemre, vagy válasszon ki egy meglévő szabályzatot.
  5. Ha új szabályzatot hoz létre, adjon meg egy nevet.
  6. Válasszon ki egy környezetet, amely hozzáadja a szabályzatot, majd kattintson a + Hozzáadás a szabályzathoz elemre.
  7. Kattintson a Tovább feliratra.
  8. Keresse meg és válassza ki a Databricks* összekötőt.
  9. Kattintson a Vállalati verzióba, majd kattintson a Tovább feliratra.
  10. Tekintse át a szabályzatot, és kattintson a Szabályzat létrehozása gombra.

Korlátozások

  • A Power Platform-összekötő nem támogatja a kormányzati felhőket.

A Power App korlátozásai

A következő PowerFx-képletek csak a helyileg lekért adatok használatával számítják ki az értékeket:

Kategória Formula
Táblafüggvény - GroupBy
-Különböző
Aggregation - CountRows
- StdevP
- StdevS

Kapcsolat létrehozása

Az összekötő a következő hitelesítési típusokat támogatja:

Személyes hozzáférési jogkivonat Személyes hozzáférési jogkivonat Minden régió Nem osztható meg
Alapértelmezett [ELAVULT] Ez a beállítás csak olyan régebbi kapcsolatokhoz használható, amelyeknek nincs explicit hitelesítési típusuk, és csak a visszamenőleges kompatibilitást biztosítják. Minden régió Nem osztható meg

Személyes hozzáférési jogkivonat

Hitelesítési azonosító: PAT

Alkalmazható: Minden régió

Személyes hozzáférési jogkivonat

Ez nem megosztható kapcsolat. Ha a power app meg van osztva egy másik felhasználóval, a rendszer kérni fogja, hogy hozzon létre új kapcsolatot.

Név Típus Description Kötelező
API-kulcs (Formátum: Tulajdonos <személyes hozzáférési jogkivonata>) securestring Személyes hozzáférési jogkivonaton alapuló API-kulcs True
Kiszolgáló gazdagépneve (példa: foo.cloud.databricks.com) karakterlánc A Databricks-munkaterület kiszolgálóneve True
HTTP-elérési út (Példa: /sql/1.0/warehouses/a9c4e781bd29f315) karakterlánc A Databricks SQL Warehouse HTTP-elérési útja True

Alapértelmezett [ELAVULT]

Alkalmazható: Minden régió

Ez a beállítás csak olyan régebbi kapcsolatokhoz használható, amelyeknek nincs explicit hitelesítési típusuk, és csak a visszamenőleges kompatibilitást biztosítják.

Ez nem megosztható kapcsolat. Ha a power app meg van osztva egy másik felhasználóval, a rendszer kérni fogja, hogy hozzon létre új kapcsolatot.

Név Típus Description Kötelező
API-kulcs (Formátum: Tulajdonos <személyes hozzáférési jogkivonata>) securestring Személyes hozzáférési jogkivonaton alapuló API-kulcs True
Kiszolgáló gazdagépneve (példa: foo.cloud.databricks.com) karakterlánc A Databricks-munkaterület kiszolgálóneve True
HTTP-elérési út (Példa: /sql/1.0/warehouses/a9c4e781bd29f315) karakterlánc A Databricks SQL Warehouse HTTP-elérési útja True

Szabályozási korlátok

Name Hívások Megújítási időszak
API-hívások kapcsolatonként 100 60 másodperc

Műveletek

Databricks Genie

Genie-szóközök lekérdezése az adatok elemzéséhez.

Egyetlen feladat futtatásának lekérése

Lekéri egy futtatás metaadatait. Az eredményekben lévő nagy tömbök lapszámozottak lesznek, ha azok túllépik a 100 elemet. Egyetlen futtatásra vonatkozó kérelem visszaadja a futtatás összes tulajdonságát, valamint a tömbtulajdonságok első 100 elemét (feladatok, job_clusters, job_parameters és repair_history). A next_page_token mezővel további eredményeket kereshet, és a későbbi kérésekben page_token adja át az értékét. Ha bármely tömbtulajdonság több mint 100 elemből áll, a rendszer további eredményeket ad vissza a későbbi kérések során. A további eredményeket nem tartalmazó tömbök a későbbi oldalakon üresek lesznek.

Egyetlen futtatás kimenetének lekérése

Egyetlen feladatfuttatás kimenetének és metaadatainak lekérése. Ha egy jegyzetfüzet-feladat egy értéket a dbutils.notebook.exit() híváson keresztül ad vissza, ezzel a végpont használatával lekérheti ezt az értéket. A Databricks arra korlátozza ezt az API-t, hogy a kimenet első 5 MB-ját adja vissza. Ha nagyobb eredményt szeretne visszaadni, a feladateredményeket egy felhőalapú tárolási szolgáltatásban tárolhatja. Ez a végpont ellenőrzi, hogy a run_id paraméter érvényes-e, és egy 400-ás HTTP-állapotkódot ad vissza, ha a run_id paraméter érvénytelen. A futtatások 60 nap után automatikusan törlődnek. Ha 60 napon túl szeretne rájuk hivatkozni, a lejárat előtt mentenie kell a régi futtatási eredményeket.

Eredmény lekérése adattömbindex alapján

Miután az utasítás végrehajtása sikeres volt, ez a kérés használható az összes adattömb index szerinti lekérésére.

Feladatok listázása

Lekéri a feladatok listáját.

Futtatás megszakítása

Feladatfuttatás vagy feladatfuttatás megszakítása. A futtatás aszinkron módon megszakad, így a kérés befejeződésekor továbbra is futhat.

SQL-utasítás végrehajtása

Hajt végre egy SQL-utasítást, és opcionálisan várja meg az eredményeket egy adott időre.

Utasítás végrehajtásának megszakítása

A végrehajtási utasítás visszavonását kéri. A hívónak le kell keresnie az állapotot a terminál állapotának megtekintéséhez.

Állapot ellenőrzése és eredmények lekérése

Az utasítás állapotának, jegyzékének és eredményeinek lekérése

Új feladat futtatásának aktiválása

Futtasson egy feladatot, és adja vissza az aktivált futtatás run_id.

Databricks Genie

Genie-szóközök lekérdezése az adatok elemzéséhez.

Paraméterek

Name Kulcs Kötelező Típus Description
Genie szóköz azonosítója
genie_space_id True string

Genie szóköz azonosítója

Egyetlen feladat futtatásának lekérése

Lekéri egy futtatás metaadatait. Az eredményekben lévő nagy tömbök lapszámozottak lesznek, ha azok túllépik a 100 elemet. Egyetlen futtatásra vonatkozó kérelem visszaadja a futtatás összes tulajdonságát, valamint a tömbtulajdonságok első 100 elemét (feladatok, job_clusters, job_parameters és repair_history). A next_page_token mezővel további eredményeket kereshet, és a későbbi kérésekben page_token adja át az értékét. Ha bármely tömbtulajdonság több mint 100 elemből áll, a rendszer további eredményeket ad vissza a későbbi kérések során. A további eredményeket nem tartalmazó tömbök a későbbi oldalakon üresek lesznek.

Paraméterek

Name Kulcs Kötelező Típus Description
Futtatási azonosító
run_id True integer

Annak a futtatásnak a canonical azonosítója, amelyhez le szeretné kérni a metaadatokat. Ez a mező kötelező.

Előzmények belefoglalása
include_history boolean

Adja meg a javítási előzményeket a válaszban.

Feloldott értékek belefoglalása
include_resolved_values boolean

A feloldott paraméterértékek belefoglalása a válaszba.

Lap jogkivonata
page_token string

Az előző GetRun-válaszból visszaadott next_page_token használatával kérje le a futtatás tömbtulajdonságainak következő oldalát.

Válaszok

Törzs
JobsRun

Egyetlen futtatás kimenetének lekérése

Egyetlen feladatfuttatás kimenetének és metaadatainak lekérése. Ha egy jegyzetfüzet-feladat egy értéket a dbutils.notebook.exit() híváson keresztül ad vissza, ezzel a végpont használatával lekérheti ezt az értéket. A Databricks arra korlátozza ezt az API-t, hogy a kimenet első 5 MB-ját adja vissza. Ha nagyobb eredményt szeretne visszaadni, a feladateredményeket egy felhőalapú tárolási szolgáltatásban tárolhatja. Ez a végpont ellenőrzi, hogy a run_id paraméter érvényes-e, és egy 400-ás HTTP-állapotkódot ad vissza, ha a run_id paraméter érvénytelen. A futtatások 60 nap után automatikusan törlődnek. Ha 60 napon túl szeretne rájuk hivatkozni, a lejárat előtt mentenie kell a régi futtatási eredményeket.

Paraméterek

Name Kulcs Kötelező Típus Description
Futtatási azonosító
run_id True integer

A futtatás canonical azonosítója.

Válaszok

Törzs
JobsRunOutput

Eredmény lekérése adattömbindex alapján

Miután az utasítás végrehajtása sikeres volt, ez a kérés használható az összes adattömb index szerinti lekérésére.

Paraméterek

Name Kulcs Kötelező Típus Description
Utasítás azonosítója
statement_id True string

Utasítás azonosítója

Adattömb indexe
chunk_index True string

Adattömb indexe

Válaszok

Törzs
SqlResultData

Feladatok listázása

Lekéri a feladatok listáját.

Paraméterek

Name Kulcs Kötelező Típus Description
Limit
limit integer

A visszaadni kívánt feladatok száma. Ennek az értéknek 0-nál nagyobbnak és 100-nál kisebbnek vagy egyenlőnek kell lennie. Az alapértelmezett érték 20.

Tevékenységek kibontása
expand_tasks boolean

A feladat és a fürt részleteinek megadása a válaszban. Vegye figyelembe, hogy csak az első 100 elem jelenik meg. Használja a :method:jobs/get to paginate to paginate through all tasks and clusters.

Feladat neve
name string

Szűrő a listára a pontos (kis- és nagybetűket nem érzékelyítő) feladatnév alapján.

Lap jogkivonata
page_token string

Az előző kérésből visszaadott next_page_token vagy prev_page_token használatával listázhatja a feladatok következő vagy előző oldalát.

Válaszok

Futtatás megszakítása

Feladatfuttatás vagy feladatfuttatás megszakítása. A futtatás aszinkron módon megszakad, így a kérés befejeződésekor továbbra is futhat.

Paraméterek

Name Kulcs Kötelező Típus Description
run_id
run_id True integer

Ez a mező kötelező.

SQL-utasítás végrehajtása

Hajt végre egy SQL-utasítást, és opcionálisan várja meg az eredményeket egy adott időre.

Paraméterek

Name Kulcs Kötelező Típus Description
warehouse_id
warehouse_id True string

Célraktár azonosítója

kimutatás
statement True string

A végrehajtandó SQL-utasítás. Az utasítás paraméterezhető, lásd a paramétereket

név
name True string

Paraméterjelölő neve

típus
type string

Paraméter adattípusa

value
value string

Paraméter értéke

katalógus
catalog string

Alapértelmezett katalógus a végrehajtáshoz

séma
schema string

Alapértelmezett séma a végrehajtáshoz

hajlam
disposition string

Eredménylehívási mód

format
format string

Eredményhalmaz formátuma

on_wait_timeout
on_wait_timeout string

Művelet időtúllépéskor

wait_timeout
wait_timeout string

Az eredmény várakozási időtúllépése

byte_limit
byte_limit integer

Eredmény bájtkorlátja

row_limit
row_limit integer

Eredménysorkorlát

Válaszok

Utasítás végrehajtási válasza

Utasítás végrehajtásának megszakítása

A végrehajtási utasítás visszavonását kéri. A hívónak le kell keresnie az állapotot a terminál állapotának megtekintéséhez.

Paraméterek

Name Kulcs Kötelező Típus Description
Utasítás azonosítója
statement_id True string

Utasítás azonosítója

Állapot ellenőrzése és eredmények lekérése

Az utasítás állapotának, jegyzékének és eredményeinek lekérése

Paraméterek

Name Kulcs Kötelező Típus Description
Utasítás azonosítója
statement_id True string

Utasítás azonosítója

Válaszok

Utasítás végrehajtási válasza

Új feladat futtatásának aktiválása

Futtasson egy feladatot, és adja vissza az aktivált futtatás run_id.

Paraméterek

Name Kulcs Kötelező Típus Description
idempotency_token
idempotency_token string

Opcionális jogkivonat a feladatfuttatási kérelmek idempotensségének garantálásához. Ha már létezik futtatás a megadott jogkivonattal, a kérés nem hoz létre új futtatásokat, hanem a meglévő futtatás azonosítóját adja vissza. Ha a megadott jogkivonattal rendelkező futtatás törlődik, a rendszer hibát ad vissza. Ha megadja az idempotencia-jogkivonatot, hiba esetén újra próbálkozhat, amíg a kérés sikeres lesz. A Databricks garantálja, hogy pontosan egy futtatás indul el ezzel az idempotencia-jogkivonattal. Ennek a jogkivonatnak legfeljebb 64 karakter hosszúságúnak kell lennie. További információ : A feladatok idempotensségének biztosítása.

job_id
job_id True integer

A végrehajtandó feladat azonosítója

job_parameters
job_parameters object

A futtatás során használt feladatszintű paraméterek. például "param": "overriding_val"

csak
only array of string

A feladaton belül futtatandó feladatkulcsok listája. Ha ez a mező nincs megadva, a feladat összes feladata lefut.

performance_target
performance_target string
full_refresh
full_refresh boolean

Ha igaz, teljes frissítést indít el a delta élő táblán.

enabled
enabled True boolean

Ha igaz, engedélyezze az üzenetsor-készítést a feladathoz. Ez egy kötelező mező.

Válaszok

Definíciók

Objektum

SqlBaseChunkInfo

Az eredményhalmaz-adattömb metaadatai

Name Elérési út Típus Description
byte_count
byte_count integer

Az eredménytömb bájtjainak száma

chunk_index
chunk_index integer

Pozíció az eredményhalmaz-adattömbök sorrendjében

row_count
row_count integer

Az eredménytömb sorainak száma

row_offset
row_offset integer

Kezdősor eltolása az eredményhalmazban

SqlColumnInfo

Name Elérési út Típus Description
név
name string

Oszlop név

pozíció
position integer

Oszlop pozíciója (0-alapú)

type_interval_type
type_interval_type string

Intervallumtípus formátuma

type_name
type_name SqlColumnInfoTypeName

Az alapadattípus neve. Ez nem tartalmazza az olyan összetett típusok részleteit, mint a STRUCT, a MAP vagy a ARRAY.

type_precision
type_precision integer

TIZEDES típusú számjegyek száma

type_scale
type_scale integer

TIZEDES típusú tizedesjegyek száma

type_text
type_text string

Az SQL-típus teljes specifikációja

SqlColumnInfoTypeName

Az alapadattípus neve. Ez nem tartalmazza az olyan összetett típusok részleteit, mint a STRUCT, a MAP vagy a ARRAY.

Az alapadattípus neve. Ez nem tartalmazza az olyan összetett típusok részleteit, mint a STRUCT, a MAP vagy a ARRAY.

SqlStatementResponse

Utasítás végrehajtási válasza

Name Elérési út Típus Description
jegyzékfájl
manifest SqlResultManifest

Eredményhalmaz sémája és metaadatai

eredmény
result SqlResultData
statement_id
statement_id string

Utasítás azonosítója

állapot
status SqlStatementStatus

Utasítás végrehajtási állapota

SqlResultManifest

Eredményhalmaz sémája és metaadatai

Name Elérési út Típus Description
Darabokat
chunks array of SqlBaseChunkInfo

Eredménytömb metaadatai

format
format string
séma
schema SqlResultSchema

Eredményhalmaz oszlopdefiníciói

total_byte_count
total_byte_count integer

Összes bájt az eredményhalmazban

total_chunk_count
total_chunk_count integer

Adattömbök teljes száma

total_row_count
total_row_count integer

Sorok teljes száma

megcsonkított
truncated boolean

Eredmény csonkolásának állapota

SqlStatementStatus

Utasítás végrehajtási állapota

Name Elérési út Típus Description
hiba
error SqlServiceError
state
state SqlStatementState

Utasítás végrehajtási állapota

SqlStatementState

Utasítás végrehajtási állapota

Utasítás végrehajtási állapota

SqlServiceError

Name Elérési út Típus Description
error_code
error_code string
üzenet
message string

Hibaüzenet

SqlResultSchema

Eredményhalmaz oszlopdefiníciói

Name Elérési út Típus Description
column_count
column_count integer
columns
columns array of SqlColumnInfo

SqlResultData

Name Elérési út Típus Description
byte_count
byte_count integer

Bájtok az eredménytömbben

chunk_index
chunk_index integer

Adattömb pozíciója

data_array
data_array SqlJsonArray

Tömbök tömbje sztringértékekkel

external_links
external_links array of SqlExternalLink
next_chunk_index
next_chunk_index integer

Következő adattömbindex

next_chunk_internal_link
next_chunk_internal_link string

Következő adattömb hivatkozása

row_count
row_count integer

Sorok az adattömbben

row_offset
row_offset integer

Kezdő sor eltolása

SqlJsonArray

Tömbök tömbje sztringértékekkel

Name Elérési út Típus Description
Elemek
array of
Name Elérési út Típus Description
byte_count
byte_count integer

Bájtok adattömbben

chunk_index
chunk_index integer

Adattömb pozíciója

kipárolgás
expiration date-time

Hivatkozás lejárati ideje

external_link
external_link string
http_headers
http_headers object

Szükséges HTTP-fejlécek

next_chunk_index
next_chunk_index integer

Következő adattömbindex

next_chunk_internal_link
next_chunk_internal_link string

Következő adattömb hivatkozása

row_count
row_count integer

Sorok az adattömbben

row_offset
row_offset integer

Kezdő sor eltolása

JobsRunNowResponse

Name Elérési út Típus Description
run_id
run_id integer

Az újonnan aktivált futtatás globálisan egyedi azonosítója.

JobsPerformanceTarget

JobsPipelineParams

Name Elérési út Típus Description
full_refresh
full_refresh boolean

Ha igaz, teljes frissítést indít el a delta élő táblán.

JobsQueueSettings

Name Elérési út Típus Description
enabled
enabled boolean

Ha igaz, engedélyezze az üzenetsor-készítést a feladathoz. Ez egy kötelező mező.

JobsListJobsResponse

Name Elérési út Típus Description
jobs
jobs array of JobsBaseJob

A feladatok listája. Csak akkor szerepel a válaszban, ha vannak felsorolandó feladatok.

next_page_token
next_page_token string

Egy jogkivonat, amely a feladatok következő oldalának listázására használható (ha van).

prev_page_token
prev_page_token string

Egy jogkivonat, amely a feladatok előző oldalának listázására használható (ha van ilyen).

JobsBaseJob

Name Elérési út Típus Description
created_time
created_time integer

A feladat létrehozásának időpontja ezredmásodpercben (ezredmásodpercben, 1970. 01. 01. (UTC) óta).

creator_user_name
creator_user_name string

A létrehozó felhasználóneve. Ez a mező nem lesz belefoglalva a válaszba, ha a felhasználót már törölték.

effective_budget_policy_id
effective_budget_policy_id uuid

A feladat által költség-hozzárendelési célokra használt költségvetési szabályzat azonosítója. Ez (sorrendben) beállítható: 1. Költségvetés-rendszergazdák a fiókon vagy a munkaterület 2. konzolján keresztül. A feladatok felhasználói felülete a feladat részletei lapon és a Jobs API a budget_policy_id 3 használatával. Halasztott alapértelmezett érték a run_as identitás akadálymentes költségvetési szabályzatai alapján a feladatlétrehozás vagy -módosítás során.

van_még
has_more boolean

Azt jelzi, hogy a feladat több olyan tömbtulajdonsággal (tevékenység, job_clusters) rendelkezik-e, amelyek nem jelennek meg. Ezek a :method:jobs/get végponton keresztül érhetők el. Ez csak az API 2.2 :method:jobs/list requests with expand_tasks=true(metódus:jobs/list requests with expand_tasks=true) esetében releváns.

job_id
job_id integer

A feladat canonical azonosítója.

beállítások
settings JobsJobSettings
trigger_state
trigger_state JobsTriggerStateProto

JobsJobSettings

Name Elérési út Típus Description
budget_policy_id
budget_policy_id uuid

A felhasználó azonosítója megadta a feladathoz használni kívánt költségvetési szabályzatot. Ha nincs megadva, a feladat létrehozásakor vagy módosításakor egy alapértelmezett költségvetési szabályzat alkalmazható. Tekintse meg a számítási feladat által használt költségvetési szabályzat effective_budget_policy_id.

folyamatos
continuous JobsContinuous
központi telepítés
deployment JobsJobDeployment
leírás
description string

A feladat opcionális leírása. A maximális hossz 27700 karakter az UTF-8 kódolásban.

edit_mode
edit_mode JobsJobEditMode
email_notifications
email_notifications JobsJobEmailNotifications
environments
environments array of JobsJobEnvironment

A feladat kiszolgáló nélküli tevékenységei által hivatkozott feladatvégző környezet specifikációinak listája. A kiszolgáló nélküli feladatokhoz környezet szükséges. Kiszolgáló nélküli jegyzetfüzet-feladatok esetén a környezet elérhető a jegyzetfüzet környezeti paneljén. Más kiszolgáló nélküli tevékenységek esetén a tevékenységkörnyezetet a tevékenységbeállítások environment_key használatával kell megadni.

git_source
git_source JobsGitSource
Egészség
health JobsJobsHealthRules
job_clusters
job_clusters array of JobsJobCluster

A feladatfürt azon specifikációinak listája, amelyeket a feladat tevékenységei megoszthatnak és újra felhasználhatnak. A tárak nem deklarálhatók megosztott feladatfürtökben. Függő kódtárakat kell deklarálnia a feladatbeállításokban.

max_concurrent_runs
max_concurrent_runs integer

A munka egyidejű futtatásainak opcionális, megengedett maximális száma. Állítsa be ezt az értéket, ha egyszerre több futtatás is végrehajtható ugyanabból a feladatból. Ez akkor hasznos, ha a feladatot gyakran ütemezve aktiválja, és engedélyezni szeretné, hogy az egymást követő futtatások átfedésben legyenek egymással, vagy ha több, a bemeneti paraméterektől eltérő futtatásokat szeretne aktiválni. Ez a beállítás csak az új futtatásokat érinti. Tegyük fel például, hogy a feladat egyidejűsége 4, és 4 egyidejű aktív futtatás van. Ha az egyidejűséget 3-ra állítja, az nem öli meg az aktív futtatásokat. Ettől kezdve azonban az új futtatások csak akkor lesznek kihagyva, ha 3-nál kevesebb aktív futtatás van. Ez az érték nem haladhatja meg az 1000-et. Ha ezt az értéket 0 értékre állítja, az összes új futtatást kihagyja.

név
name string

Egy nem kötelező név a munka számára. A maximális hossz 4096 bájt UTF-8 kódolásban.

notification_settings
notification_settings JobsJobNotificationSettings
parameters
parameters array of JobsJobParameterDefinition

Feladatszintű paraméterdefiníciók

performance_target
performance_target JobsPerformanceTarget
üzenetsor
queue JobsQueueSettings
run_as
run_as JobsJobRunAs
ütemterv
schedule JobsCronSchedule
tags
tags object

A feladathoz társított címkék térképe. Ezek a fürtre a feladatfürtök fürtcímkékként kerülnek továbbításra, és ugyanazokra a korlátozásokra vonatkoznak, mint a fürtcímkékre. A feladathoz legfeljebb 25 címke adható hozzá.

tasks
tasks array of JobsTask

A feladat által végrehajtandó feladatspecifikációk listája. Legfeljebb 1000 elemet támogat írási végpontokban (:method:jobs/create, :method:jobs/reset, :method:jobs/update, :method:jobs/submit). Az olvasási végpontok csak 100 feladatot adnak vissza. Ha több mint 100 tevékenység érhető el, a :method:jobs/get paranccsal lapozhatja végig őket. Az objektumgyökér next_page_token mezőjével állapítsa meg, hogy vannak-e további eredmények.

timeout_seconds
timeout_seconds integer

Minden egyes futtatáshoz egy opcionális időkorlát van alkalmazva. A 0 érték azt jelenti, hogy nincs időtúllépés.

aktivál
trigger JobsTriggerSettings
webhook_notifications
webhook_notifications JobsWebhookNotifications

JobsContinuous

Name Elérési út Típus Description
pause_status
pause_status JobsPauseStatus

JobsPauseStatus

JobsJobDeployment

Name Elérési út Típus Description
kedves
kind JobsJobDeploymentKind
metadata_file_path
metadata_file_path string

Az üzembehelyezési metaadatokat tartalmazó fájl elérési útja.

JobsJobDeploymentKind

JobsJobEditMode

JobsJobEmailNotifications

Name Elérési út Típus Description
on_duration_warning_threshold_exceeded
on_duration_warning_threshold_exceeded array of string

Azoknak az e-mail-címeknek a listája, amelyről értesítést kell kapni, ha a futtatás időtartama meghaladja az állapotmező RUN_DURATION_SECONDS metrikájához megadott küszöbértéket. Ha a RUN_DURATION_SECONDS metrika nincs megadva a feladat állapotmezőjében, a rendszer nem küld értesítéseket.

on_failure
on_failure array of string

A sikertelen futtatáskor értesítendő e-mail-címek listája. A futtatás sikertelennek minősül, ha INTERNAL_ERROR life_cycle_state vagy SIKERTELEN vagy TIMED_OUT result_state végződik. Ha ez nincs megadva a feladat létrehozásakor, a lista alaphelyzetbe állítása vagy frissítése üres, és a rendszer nem küld értesítéseket.

on_start
on_start array of string

A futtatás kezdetekor értesítendő e-mail-címek listája. Ha nincs megadva a feladat létrehozása, alaphelyzetbe állítása vagy frissítése során, a lista üres, és a rendszer nem küld értesítéseket.

on_streaming_backlog_exceeded
on_streaming_backlog_exceeded array of string

Azoknak az e-mail-címeknek a listája, amelyek értesítést küldenek arról, ha bármely streamnél túllépik a streamek hátralékának küszöbértékét. A streamelési teendőlista küszöbértékei az állapotmezőben a következő metrikák használatával állíthatók be: STREAMING_BACKLOG_BYTES, STREAMING_BACKLOG_RECORDS, STREAMING_BACKLOG_SECONDS vagy STREAMING_BACKLOG_FILES. A riasztás a metrikák 10 perces átlagán alapul. Ha a probléma továbbra is fennáll, az értesítések 30 percenként újraküldésre kerülnek.

on_success
on_success array of string

A futtatás sikeres befejezésekor értesítendő e-mail-címek listája. A futtatás akkor tekinthető sikeresnek, ha a MŰVELET LEÁLLÍTOTT life_cycle_state és a SUCCESS result_state végződik. Ha nincs megadva a feladat létrehozása, alaphelyzetbe állítása vagy frissítése során, a lista üres, és a rendszer nem küld értesítéseket.

JobsJobEnvironment

Name Elérési út Típus Description
environment_key
environment_key string

Egy környezet kulcsa. Egy feladaton belül egyedinek kell lennie.

Spec
spec ComputeEnvironment

ComputeEnvironment

Name Elérési út Típus Description
Függőségek
dependencies array of string

A pip-függőségek listája a környezet pipverziója által támogatott módon. Minden függőség érvényes pipkövetelmény-fájlsoronként https://pip.pypa.io/en/stable/reference/requirements-file-format/. Az engedélyezett függőségek közé tartozik egy követelménykijelölő, egy archív URL-cím, egy helyi projektútvonal (például WSFS vagy UC-kötetek a Databricksben) vagy egy VCS-projekt URL-címe.

environment_version
environment_version string

Szükséges. A környezet által használt környezeti verzió. Minden verzióhoz tartozik egy adott Python-verzió és egy Python-csomag. A verzió egy egész számból álló sztring.

JobsGitSource

Name Elérési út Típus Description
git_branch
git_branch string

A feladat által kivett és használt ág neve. Ez a mező nem adható meg git_tag vagy git_commit együtt.

git_commit
git_commit string

Véglegesítse a feladat kivételét és használatát. Ez a mező nem adható meg git_branch vagy git_tag együtt.

git_provider
git_provider JobsGitProvider
git_snapshot
git_snapshot JobsGitSnapshot
git_tag
git_tag string

A feladat által kivett és használt címke neve. Ez a mező nem adható meg git_branch vagy git_commit együtt.

git_url
git_url string

A feladat által klónozandó adattár URL-címe.

JobsGitProvider

JobsGitSnapshot

Name Elérési út Típus Description
used_commit
used_commit string

A futtatás végrehajtásához használt véglegesítés. Ha git_branch van megadva, ez az ág fejére mutat a futtatáskor; ha git_tag van megadva, ez arra a véglegesítésre mutat, amely a címkére mutat.

JobsJobsHealthRules

Name Elérési út Típus Description
szabályok
rules array of JobsJobsHealthRule

JobsJobsHealthRule

Name Elérési út Típus Description
metrika
metric JobsJobsHealthMetric
operátor
op JobsJobsHealthOperator
value
value integer

Megadja azt a küszöbértéket, amelyet az állapotmetrikának teljesítenie kell az állapotszabálynak való megfelelés érdekében.

JobsJobsHealthMetric

JobsJobsHealthOperator

JobsJobCluster

Name Elérési út Típus Description
job_cluster_key
job_cluster_key string

A feladatfürt egyedi neve. Ez a mező kötelező, és a feladaton belül egyedinek kell lennie. A JobTaskSettings erre a mezőre hivatkozva meghatározhatja, hogy melyik fürtöt kell elindítani a feladat végrehajtásához.

new_cluster
new_cluster ComputeClusterSpec

ComputeClusterSpec

Name Elérési út Típus Description
apply_policy_default_values
apply_policy_default_values boolean

Ha igaz értékre van állítva, a program a házirend rögzített és alapértelmezett értékeit használja a kihagyott mezőkhöz. Ha hamis értékre van állítva, a rendszer csak a szabályzat rögzített értékeit alkalmazza.

automatikus méretezés
autoscale ComputeAutoScale
autotermination_minutes
autotermination_minutes integer

Automatikusan leállítja a fürtöt, miután az meghatározott percekig inaktív. Ha nincs beállítva, a fürt nem fog automatikusan leállni. Ha meg van adva, a küszöbértéknek 10 és 10000 perc között kell lennie. A felhasználók ezt az értéket 0 értékre is beállíthatják az automatikus leállítás explicit letiltásához.

azure_attributes
azure_attributes ComputeAzureAttributes
cluster_log_conf
cluster_log_conf ComputeClusterLogConf
klaszter_név
cluster_name string

A felhasználó által kért fürtnév. Ennek nem kell egyedinek lennie. Ha a létrehozáskor nincs megadva, a fürt neve üres karakterlánc lesz. Feladatfürtök esetén a rendszer automatikusan beállítja a fürt nevét a feladat- és feladatfuttatási azonosítók alapján.

custom_tags
custom_tags object

További címkék a klaszter erőforrásokhoz. A Databricks a default_tags mellett az összes fürterőforrást (például AWS-példányokat és EBS-köteteket) megjelöli ezekkel a címkékkel. Megjegyzés: – Jelenleg a Databricks legfeljebb 45 egyéni címkét engedélyez – A fürtök csak akkor használhatják újra a felhőbeli erőforrásokat, ha az erőforrások címkéi a fürtcímkék részhalmazai

data_security_mode
data_security_mode ComputeDataSecurityMode
docker_image
docker_image ComputeDockerImage
driver_instance_pool_id
driver_instance_pool_id string

A fürt illesztőprogramjához tartozó példánycsoport opcionális azonosítója. Ha az illesztőprogram-készlet nincs hozzárendelve, a csoport a példánykészletet az (instance_pool_id) azonosítóval használja.

driver_node_type_id
driver_node_type_id string

A Spark-illesztőprogram csomóponttípusa. Vegye figyelembe, hogy ez a mező nem kötelező; ha nincs megadva, az illesztőcsomópont típusa ugyanazzal az értékkel lesz beállítva, mint node_type_id fent definiálva. Ezt a mezőt a node_type_id együtt nem szabad beállítani, ha virtual_cluster_size be van állítva. Ha driver_node_type_id, node_type_id és virtual_cluster_size is meg van adva, driver_node_type_id és node_type_id elsőbbséget élveznek.

enable_elastic_disk
enable_elastic_disk boolean

Helyi tároló automatikus skálázása: ha engedélyezve van, ez a fürt dinamikusan további lemezterületet szerez be, ha a Spark-feldolgozók kevés lemezterületen futnak. Ehhez a funkcióhoz adott AWS-engedélyek szükségesek a megfelelő működéshez – további részletekért tekintse meg a felhasználói útmutatót.

enable_local_disk_encryption
enable_local_disk_encryption boolean

Engedélyezzék-e a LUKS-ot a fürt virtuális gépeinek helyi lemezein?

init_scripts
init_scripts array of ComputeInitScriptInfo

Init-szkriptek tárolásának konfigurációja. Tetszőleges számú célhely megadható. A szkriptek egymás után, a megadott sorrendben lesznek végrehajtva. Ha cluster_log_conf van megadva, az init szkriptnaplók a cél/<>fürtazonosító</init_scripts lesznek elküldve>.

instance_pool_id
instance_pool_id string

Annak a példánykészletnek az opcionális azonosítója, amelyhez a fürt tartozik.

is_single_node
is_single_node boolean

Ez a mező csak akkor használható, ha kind = CLASSIC_PREVIEW. Ha igaz értékre van állítva, a Databricks automatikusan beállít egy csomóponttal kapcsolatos custom_tags, spark_conf és num_workers

kedves
kind ComputeKind
node_type_id
node_type_id string

Ez a mező egyetlen értéken keresztül kódolja a fürtben lévő Spark-csomópontok számára elérhető erőforrásokat. Például, a Spark csomópontok előkészíthetők és optimalizálhatók memória- vagy számításigényes feladatokhoz. Az elérhető csomóponttípusok listája a :method:clusters/listNodeTypes API-hívással kérhető le.

num_workers
num_workers integer

Azoknak a munkavégző csomópontoknak a száma, amellyel ennek a fürtnek rendelkeznie kell. A fürtök egyetlen Spark-illesztőprogramot és num_workers végrehajtókat num_workers + 1 Spark-csomóponthoz. Megjegyzés: Egy fürt tulajdonságainak olvasásakor ez a mező a feldolgozók kívánt számát tükrözi a tényleges feldolgozók száma helyett. Ha például egy fürtöt 5-ről 10-re méreteznek át, ez a mező azonnal frissül a 10 feldolgozó célméretének megfelelően, míg a spark_info felsorolt feldolgozók fokozatosan 5-ről 10-re nőnek az új csomópontok kiépítésekor.

policy_id
policy_id string

A fürt létrehozásához használt fürtszabályzat azonosítója, ha van ilyen.

runtime_engine
runtime_engine ComputeRuntimeEngine
single_user_name
single_user_name string

Egyetlen felhasználónév, ha data_security_mode SINGLE_USER

spark_conf
spark_conf object

Nem kötelező, felhasználó által megadott Spark-konfigurációs kulcs-érték párokat tartalmazó objektum. A felhasználók a spark.driver.extraJavaOptions és a spark.executor.extraJavaOptions használatával további JVM-beállításokat is átadhatnak az illesztőprogramnak és a végrehajtóknak.

spark_env_vars
spark_env_vars object

Nem kötelező, felhasználó által megadott környezeti változókulcs-érték párokat tartalmazó objektum. Vegye figyelembe, hogy az űrlap kulcs-érték párja (X,Y) az illesztőprogram és a feldolgozók indításakor a következőképpen lesz exportálva (például X='Y'). További SPARK_DAEMON_JAVA_OPTS megadásához javasoljuk, hogy fűzze hozzá őket a $SPARK_DAEMON_JAVA_OPTS-hoz az alábbi példában látható módon. Ez biztosítja, hogy az összes alapértelmezett databricks által felügyelt környezeti változó is szerepel benne. Példa Spark-környezeti változók: {"SPARK_WORKER_MEMORY": "28000m", "SPARK_LOCAL_DIRS": "/local_disk0"} vagy {"SPARK_DAEMON_JAVA_OPTS": "$SPARK_DAEMON_JAVA_OPTS -Dspark.shuffle.service.enabled=true"}

spark_version
spark_version string

A fürt Spark-verziója, például 3.3.x-scala2.11. Az elérhető Spark-verziók listája a :method:clusters/sparkVersions API-hívással kérhető le.

ssh_public_keys
ssh_public_keys array of string

Nyilvános SSH-kulcs tartalma, amely a fürt minden Spark-csomópontjára fel lesz adva. A megfelelő titkos kulcsokkal bejelentkezhet az ubuntu felhasználónévvel a 2200-s porton. Legfeljebb 10 kulcs adható meg.

use_ml_runtime
use_ml_runtime boolean

Ez a mező csak akkor használható, ha kind = CLASSIC_PREVIEW. effective_spark_version spark_version (DBR-kiadás) határozza meg, ez a mező use_ml_runtime, és hogy node_type_id gpu-csomópont-e vagy sem.

workload_type
workload_type ComputeWorkloadType

ComputeAutoScale

Name Elérési út Típus Description
max_workers
max_workers integer

Azoknak a dolgozóknak a maximális száma, akikre a fürt túlterhelt állapotban felskálázható. Vegye figyelembe, hogy max_workers szigorúan nagyobbnak kell lennie, mint min_workers.

min_workers
min_workers integer

Azoknak a dolgozóknak a minimális száma, akikre a fürt kihasználatlan állapotban leskálázható. A fürt kezdeti számú feldolgozója is lesz a létrehozás után.

ComputeAzureAttributes

Name Elérési út Típus Description
elérhetőség
availability ComputeAzureAvailability
first_on_demand
first_on_demand integer

A fürt első first_on_demand csomópontja igény szerinti példányokra lesz helyezve. Ennek az értéknek 0-nál nagyobbnak kell lennie annak érdekében, hogy a fürtillesztő csomópont igény szerinti példányon legyen elhelyezve. Ha ez az érték nagyobb vagy egyenlő az aktuális fürtméretnél, az összes csomópont igény szerinti példányokra lesz helyezve. Ha ez az érték kisebb, mint az aktuális fürtméret, first_on_demand csomópontok igény szerinti példányokra kerülnek, a többi pedig rendelkezésre állási példányokra lesz helyezve. Vegye figyelembe, hogy ez az érték nem befolyásolja a fürt méretét, és jelenleg nem mutálható egy fürt élettartama alatt.

log_analytics_info
log_analytics_info ComputeLogAnalyticsInfo
spot_bid_max_price
spot_bid_max_price double

Az Azure-beli kihasználatlan példányokhoz használandó maximális ajánlati ár. Az ajánlat maximális ára nem lehet magasabb, mint a példány igény szerinti ára. Ha nincs megadva, az alapértelmezett érték -1, amely azt határozza meg, hogy a példányt nem lehet kizárni az ár alapján, és csak a rendelkezésre állás alapján. Ezenkívül az értéknek 0 vagy -1 kell lennie > .

ComputeAzureAvailability

ComputeLogAnalyticsInfo

Name Elérési út Típus Description
log_analytics_primary_key
log_analytics_primary_key string
log_analytics_workspace_id
log_analytics_workspace_id string

ComputeClusterLogConf

Name Elérési út Típus Description
dbfs
dbfs ComputeDbfsStorageInfo
volumes
volumes ComputeVolumesStorageInfo

ComputeDbfsStorageInfo

Name Elérési út Típus Description
cél
destination string

dbfs célhely, pl. dbfs:/my/path

ComputeVolumesStorageInfo

Name Elérési út Típus Description
cél
destination string

UC-kötetek célhelye, például /Volumes/catalog/schema/vol1/init-scripts/setup-datadog.sh vagy dbfs:/Volumes/catalog/schema/vol1/init-scripts/setup-datadog.sh

ComputeDataSecurityMode

ComputeDockerImage

Name Elérési út Típus Description
basic_auth
basic_auth ComputeDockerBasicAuth
URL-cím
url string

A Docker-rendszerkép URL-címe.

ComputeDockerBasicAuth

Name Elérési út Típus Description
jelszó
password string

A felhasználó jelszava

felhasználónév
username string

A felhasználó neve

ComputeInitScriptInfo

Name Elérési út Típus Description
abfss
abfss ComputeAdlsgen2Info
fájl
file ComputeLocalFileInfo
Gcs
gcs ComputeGcsStorageInfo
volumes
volumes ComputeVolumesStorageInfo
munkaterület
workspace ComputeWorkspaceStorageInfo

ComputeAdlsgen2Info

Name Elérési út Típus Description
cél
destination string

abfss célhely, például abfss:// container-name<@>storage-account-name.dfs.core.windows.net/<> directory-name<>.

ComputeLocalFileInfo

Name Elérési út Típus Description
cél
destination string

helyi fájl célhelye, például fájl:/my/local/file.sh

ComputeGcsStorageInfo

Name Elérési út Típus Description
cél
destination string

GCS-cél/URI, például gs://my-bucket/some-prefix

ComputeWorkspaceStorageInfo

Name Elérési út Típus Description
cél
destination string

wsfs célhely, például munkaterület:/cluster-init-scripts/setup-datadog.sh

ComputeKind

ComputeRuntimeEngine

ComputeWorkloadType

Name Elérési út Típus Description
clients
clients ComputeClientsTypes

ComputeClientsTypes

Name Elérési út Típus Description
jobs
jobs boolean

A feladatok beállítása esetén a fürt használható feladatokhoz

Notebook
notebooks boolean

A jegyzetfüzetek beállítása esetén ez a fürt használható jegyzetfüzetekhez

JobsJobNotificationSettings

Name Elérési út Típus Description
no_alert_for_canceled_runs
no_alert_for_canceled_runs boolean

Ha igaz, ne küldjön értesítéseket a on_failure megadott címzetteknek, ha a futtatás megszakadt.

no_alert_for_skipped_runs
no_alert_for_skipped_runs boolean

Ha igaz, ne küldjön értesítéseket a on_failure megadott címzetteknek, ha a futtatás kimarad.

JobsJobParameterDefinition

Name Elérési út Típus Description
alapértelmezett
default string

A paraméter alapértelmezett értéke.

név
name string

A megadott paraméter neve. Csak alfanumerikus karaktereket, _, -és .

JobsJobRunAs

Name Elérési út Típus Description
service_principal_name
service_principal_name string

Aktív szolgáltatásnév alkalmazásazonosítója. A mező beállításához a servicePrincipal/user szerepkör szükséges.

user_name
user_name string

Egy aktív munkaterület-felhasználó e-mail-címe. A nem rendszergazdai felhasználók ezt a mezőt csak saját e-mail-címükre állíthatják be.

JobsCronSchedule

Name Elérési út Típus Description
pause_status
pause_status JobsPauseStatus
quartz_cron_expression
quartz_cron_expression string

Cron-kifejezés kvarcszintaxissal, amely egy feladat ütemezését írja le. Részletekért lásd a Cron Triggert . Ez a mező kötelező.

timezone_id
timezone_id string

Java-időzón-azonosító. A feladat ütemezése ezzel az időzónával van megoldva. Részletekért lásd a Java TimeZone-t . Ez a mező kötelező.

JobsTask

Name Elérési út Típus Description
clean_rooms_notebook_task
clean_rooms_notebook_task Object
condition_task
condition_task JobsConditionTask
dashboard_task
dashboard_task JobsDashboardTask
dbt_task
dbt_task Object
depends_on
depends_on array of JobsTaskDependency

A tevékenység függőségi gráfját meghatározó objektumok választható tömbje. A tevékenység végrehajtása előtt az ebben a mezőben megadott összes tevékenységnek be kell fejeződnie. A feladat csak akkor fut, ha a run_if feltétel igaz. A kulcs task_key, az érték pedig a függő tevékenységhez rendelt név.

leírás
description string

A feladat opcionális leírása.

disable_auto_optimization
disable_auto_optimization boolean

Az automatikus optimalizálás letiltásának lehetősége kiszolgáló nélküli környezetben

email_notifications
email_notifications JobsTaskEmailNotifications
environment_key
environment_key string

Az a kulcs, amely egy feladat környezeti specifikációjára hivatkozik. Ez a mező szükséges a Python-szkriptekhez, a Python-kerékhez és a dbt-feladatokhoz kiszolgáló nélküli számítás használatakor.

existing_cluster_id
existing_cluster_id string

Ha existing_cluster_id, az összes futtatáshoz használt meglévő fürt azonosítója. Ha feladatokat vagy feladatokat futtat egy meglévő fürtön, előfordulhat, hogy manuálisan kell újraindítania a fürtöt, ha az nem válaszol. Azt javasoljuk, hogy a nagyobb megbízhatóság érdekében új fürtökön futtassa a feladatokat és a feladatokat

for_each_task
for_each_task JobsForEachTask
Egészség
health JobsJobsHealthRules
job_cluster_key
job_cluster_key string

Ha job_cluster_key, ezt a feladatot a rendszer a job.settings.job_clusters megadott fürt újrafelhasználásával hajtja végre.

libraries
libraries array of ComputeLibrary

A fürtre telepíteni kívánt kódtárak választható listája. Az alapértelmezett érték egy üres lista.

max_retries
max_retries integer

A sikertelen futtatás újrapróbálkozásának maximális száma nem kötelező. A futtatás sikertelennek minősül, ha a SIKERTELEN result_state vagy INTERNAL_ERROR life_cycle_state befejeződik. A -1 érték azt jelenti, hogy határozatlan időre újrapróbálkoznak, a 0 érték pedig azt jelenti, hogy soha nem próbálkozik újra.

min_retry_interval_millis
min_retry_interval_millis integer

Opcionális minimális intervallum ezredmásodpercben a sikertelen futtatás kezdete és az azt követő újrapróbálkozási futtatás között. Az alapértelmezett viselkedés az, hogy a sikertelen futtatások azonnal újra próbálkoznak.

new_cluster
new_cluster ComputeClusterSpec
notebook_task
notebook_task JobsNotebookTask
notification_settings
notification_settings JobsTaskNotificationSettings
pipeline_task
pipeline_task JobsPipelineTask
power_bi_task
power_bi_task Object
python_wheel_task
python_wheel_task JobsPythonWheelTask
retry_on_timeout
retry_on_timeout boolean

Nem kötelező házirend, amely meghatározza, hogy újrapróbálkozjon-e egy feladat, amikor az túllépi az időkorlátot. Az alapértelmezett viselkedés az, hogy ne próbálkozzon újra időtúllépéskor.

run_if
run_if JobsRunIf
run_job_task
run_job_task JobsRunJobTask
spark_jar_task
spark_jar_task JobsSparkJarTask
spark_python_task
spark_python_task JobsSparkPythonTask
spark_submit_task
spark_submit_task JobsSparkSubmitTask
sql_task
sql_task Object
task_key
task_key string

A tevékenység egyedi neve. Ezzel a mezővel hivatkozhat erre a tevékenységre más tevékenységekből. Ez a mező kötelező, és a szülőfeladaton belül egyedinek kell lennie. Frissítéskor vagy alaphelyzetbe állításkor ez a mező a frissíteni vagy alaphelyzetbe állítani kívánt tevékenységekre hivatkozik.

timeout_seconds
timeout_seconds integer

A feladat feladatának minden egyes futtatására alkalmazott opcionális időtúllépés. A 0 érték azt jelenti, hogy nincs időtúllépés.

webhook_notifications
webhook_notifications JobsWebhookNotifications

JobsConditionTask

Name Elérési út Típus Description
Balra
left string

A feltételfeladat bal operandusa. Lehet sztringérték, feladatállapot vagy paraméterhivatkozás.

operátor
op JobsConditionTaskOp
Jobbra
right string

A feltételfeladat megfelelő operandusa. Lehet sztringérték, feladatállapot vagy paraméterhivatkozás.

JobsConditionTaskOp

JobsDashboardTask

Name Elérési út Típus Description
dashboard_id
dashboard_id string

A frissíteni kívánt irányítópult azonosítója.

előfizetés
subscription JobsSubscription
warehouse_id
warehouse_id string

Nem kötelező: Az irányítópult ütemezéshez való végrehajtásához szükséges raktárazonosító. Ha nincs megadva, a rendszer az irányítópult alapértelmezett raktárát használja.

JobsSubscription

Name Elérési út Típus Description
custom_subject
custom_subject string

Nem kötelező: Lehetővé teszi, hogy a felhasználók egyéni tárgysort adjanak meg az előfizetőknek küldött e-mailben.

Szüneteltetett
paused boolean

Ha igaz, az előfizetés nem küld e-maileket.

Előfizetők
subscribers array of JobsSubscriptionSubscriber

Azoknak az előfizetőknek a listája, aki elküldi az irányítópult pillanatképét.

JobsSubscriptionSubscriber

Name Elérési út Típus Description
destination_id
destination_id string

A rendszer pillanatképet küld az irányítópultról a célhelyre, amikor a destination_id mező jelen van.

user_name
user_name string

A rendszer pillanatképet küld az irányítópultról a felhasználó e-mail-címére, amikor a user_name mező jelen van.

JobsSource

JobsTaskDependency

Name Elérési út Típus Description
eredmény
outcome string

Csak feltételtevékenység-függőségek esetén adható meg. Annak a függő tevékenységnek az eredménye, amelyet a tevékenység futtatásához teljesíteni kell.

task_key
task_key string

A tevékenység neve függ a tevékenységtől.

JobsTaskEmailNotifications

Name Elérési út Típus Description
on_duration_warning_threshold_exceeded
on_duration_warning_threshold_exceeded array of string

Azoknak az e-mail-címeknek a listája, amelyről értesítést kell kapni, ha a futtatás időtartama meghaladja az állapotmező RUN_DURATION_SECONDS metrikájához megadott küszöbértéket. Ha a RUN_DURATION_SECONDS metrika nincs megadva a feladat állapotmezőjében, a rendszer nem küld értesítéseket.

on_failure
on_failure array of string

A sikertelen futtatáskor értesítendő e-mail-címek listája. A futtatás sikertelennek minősül, ha INTERNAL_ERROR life_cycle_state vagy SIKERTELEN vagy TIMED_OUT result_state végződik. Ha ez nincs megadva a feladat létrehozásakor, a lista alaphelyzetbe állítása vagy frissítése üres, és a rendszer nem küld értesítéseket.

on_start
on_start array of string

A futtatás kezdetekor értesítendő e-mail-címek listája. Ha nincs megadva a feladat létrehozása, alaphelyzetbe állítása vagy frissítése során, a lista üres, és a rendszer nem küld értesítéseket.

on_streaming_backlog_exceeded
on_streaming_backlog_exceeded array of string

Azoknak az e-mail-címeknek a listája, amelyek értesítést küldenek arról, ha bármely streamnél túllépik a streamek hátralékának küszöbértékét. A streamelési teendőlista küszöbértékei az állapotmezőben a következő metrikák használatával állíthatók be: STREAMING_BACKLOG_BYTES, STREAMING_BACKLOG_RECORDS, STREAMING_BACKLOG_SECONDS vagy STREAMING_BACKLOG_FILES. A riasztás a metrikák 10 perces átlagán alapul. Ha a probléma továbbra is fennáll, az értesítések 30 percenként újraküldésre kerülnek.

on_success
on_success array of string

A futtatás sikeres befejezésekor értesítendő e-mail-címek listája. A futtatás akkor tekinthető sikeresnek, ha a MŰVELET LEÁLLÍTOTT life_cycle_state és a SUCCESS result_state végződik. Ha nincs megadva a feladat létrehozása, alaphelyzetbe állítása vagy frissítése során, a lista üres, és a rendszer nem küld értesítéseket.

ComputeLibrary

Name Elérési út Típus Description
Cran
cran ComputeRCranLibrary
korsó
jar string

A telepíteni kívánt JAR-kódtár URI-ja. A támogatott URI-k közé tartoznak a munkaterület elérési útjai, a Unity Catalog köteteinek elérési útjai és az ADLS-URI-k. Például: {"jar": "/Workspace/path/to/library.jar" }, { "jar" : "/Volumes/path/to/library.jar" } vagy { "jar": "abfss://my-bucket/library.jar" }. Ha ADLS-t használ, győződjön meg arról, hogy a fürt olvasási hozzáféréssel rendelkezik a tárban. Előfordulhat, hogy az ADLS URI eléréséhez Microsoft Entra ID szolgáltatásnévvel kell elindítania a fürtöt.

Maven
maven ComputeMavenLibrary
pypi
pypi ComputePythonPyPiLibrary
Követelmények
requirements string

A telepíteni kívánt requirements.txt fájl URI-ja. Csak a munkaterület elérési útjai és a Unity Katalógus köteteinek elérési útjai támogatottak. Például: {"requirements": "/Workspace/path/to/requirements.txt" } vagy { "requirements" : "/Volumes/path/to/requirements.txt" }

whl
whl string

A telepítendő kerékkódtár URI-ja. A támogatott URI-k közé tartoznak a munkaterület elérési útjai, a Unity Catalog köteteinek elérési útjai és az ADLS-URI-k. Például: {"whl": "/Workspace/path/to/library.whl" }, { "whl" : "/Volumes/path/to/library.whl" } vagy { "whl": "abfss://my-bucket/library.whl" }. Ha ADLS-t használ, győződjön meg arról, hogy a fürt olvasási hozzáféréssel rendelkezik a tárban. Előfordulhat, hogy az ADLS URI eléréséhez Microsoft Entra ID szolgáltatásnévvel kell elindítania a fürtöt.

JobsForEachTask

Name Elérési út Típus Description
egyidejűség
concurrency integer

A tevékenység egyidejű futtatásának megengedett maximális száma nem kötelező. Állítsa be ezt az értéket, ha egyszerre több futtatás is végrehajtható a tevékenységből.

Bemenetek
inputs string

Tömb a tevékenység iterálásához. Ez lehet JSON-sztring vagy tömbparaméterre mutató hivatkozás.

feladat
task Object

ComputeRCranLibrary

Name Elérési út Típus Description
csomag
package string

A telepíteni kívánt CRAN-csomag neve.

adattár
repo string

Az az adattár, ahol a csomag megtalálható. Ha nincs megadva, a rendszer az alapértelmezett CRAN-adattárat használja.

ComputeMavenLibrary

Name Elérési út Típus Description
Koordináták
coordinates string

Gradle stílusú maven koordináták. Például: "org.jsoup:jsoup:1.7.2".

Kizárások
exclusions array of string

Kizárandó függőségek listája. Például: ["slf4j:slf4j", "*:hadoop-client"]. Maven-függőségi kizárások: https://maven.apache.org/guides/introduction/introduction-to-optional-and-excludes-dependencies.html.

adattár
repo string

Maven-adattár a Maven-csomag telepítéséhez. Ha nincs megadva, a Rendszer mind a Maven Central-adattárban, mind a Spark Packagesben keres.

ComputePythonPyPiLibrary

Name Elérési út Típus Description
csomag
package string

A telepíteni kívánt pypi-csomag neve. A választható pontos verziós specifikáció is támogatott. Példák: "simplejson" és "simplejson==3.8.0".

adattár
repo string

Az az adattár, ahol a csomag megtalálható. Ha nincs megadva, a rendszer az alapértelmezett pipindexet használja.

JobsNotebookTask

Name Elérési út Típus Description
base_parameters
base_parameters object

A feladat minden egyes futtatásához használandó alapparaméterek. Ha a futtatás a :method:jobs/run Now metódus meghívásával, megadott paraméterekkel történik, a rendszer egyesíti a két paraméter-leképezést. Ha ugyanaz a kulcs van megadva base_parameters és futtatáskor, a rendszer a futtatásból származó értéket használja. Feladatparaméter-változók használatával állítsa be a feladatfuttatásokkal kapcsolatos információkat tartalmazó paramétereket. Ha a jegyzetfüzet olyan paramétert használ, amely nincs megadva a feladat base_parameters vagy a futtatási felülbírálási paraméterekben, a rendszer a jegyzetfüzet alapértelmezett értékét használja. Kérje le ezeket a paramétereket egy jegyzetfüzetben a dbutils.widgets.get használatával. A mező JSON-ábrázolása nem haladhatja meg az 1 MB-ot.

notebook_path
notebook_path string

A Databricks-munkaterületen vagy távoli adattárban futtatandó jegyzetfüzet elérési útja. A Databricks-munkaterületen tárolt jegyzetfüzetek esetében az elérési útnak abszolútnak kell lennie, és perjellel kell kezdődnie. Távoli adattárban tárolt jegyzetfüzetek esetében az elérési útnak relatívnak kell lennie. Ez a mező kötelező.

adatforrás
source JobsSource
warehouse_id
warehouse_id string

Nem kötelező warehouse_id a jegyzetfüzet SQL-raktáron való futtatásához. A klasszikus SQL-raktárak NEM támogatottak, használjon kiszolgáló nélküli vagy pro SQL-raktárakat. Vegye figyelembe, hogy az SQL-raktárak csak az SQL-cellákat támogatják; ha a jegyzetfüzet nem SQL-cellákat tartalmaz, a futtatás sikertelen lesz.

JobsTaskNotificationSettings

Name Elérési út Típus Description
alert_on_last_attempt
alert_on_last_attempt boolean

Ha igaz, ne küldjön értesítéseket a on_start megadott címzetteknek az újrapróbálkozási futtatásokról, és ne küldjön értesítéseket a on_failure megadott címzetteknek a futtatás utolsó újrapróbálkozásáig.

no_alert_for_canceled_runs
no_alert_for_canceled_runs boolean

Ha igaz, ne küldjön értesítéseket a on_failure megadott címzetteknek, ha a futtatás megszakadt.

no_alert_for_skipped_runs
no_alert_for_skipped_runs boolean

Ha igaz, ne küldjön értesítéseket a on_failure megadott címzetteknek, ha a futtatás kimarad.

JobsPipelineTask

Name Elérési út Típus Description
full_refresh
full_refresh boolean

Ha igaz, teljes frissítést indít el a delta élő táblán.

pipeline_id
pipeline_id string

A végrehajtandó folyamatfeladat teljes neve.

JobsPythonWheelTask

Name Elérési út Típus Description
entry_point
entry_point string

Elnevezett belépési pont, ha nem létezik a csomag metaadataiban, akkor a függvényt közvetlenül a csomagból hajtja végre a $packageName.$entryPoint()

named_parameters
named_parameters object

A Python-kerekes feladatnak átadott parancssori paraméterek ["--name=task", "--data=dbfs:/path/to/data.json"]. Hagyja üresen, ha a paraméterek nem null értékűek.

package_name
package_name string

A végrehajtandó csomag neve

parameters
parameters array of string

A Python-kerekes feladatnak átadott parancssori paraméterek. Hagyja üresen, ha named_parameters nem null értékű.

JobsRunIf

JobsRunJobTask

Name Elérési út Típus Description
job_id
job_id integer

Az eseményindító feladat azonosítója.

job_parameters
job_parameters object

A feladat aktiválásához használt feladatszintű paraméterek.

pipeline_params
pipeline_params JobsPipelineParams

JobsSparkJarTask

Name Elérési út Típus Description
main_class_name
main_class_name string

A végrehajtandó fő metódust tartalmazó osztály teljes neve. Ezt az osztályt egy kódtárként megadott JAR-ben kell tárolni. A kódnak Spark-környezet beszerzéséhez a SparkContext.getOrCreate-ot kell használnia; ellenkező esetben a feladat futtatása sikertelen.

parameters
parameters array of string

A fő metódusnak átadott paraméterek. A feladatfuttatásokkal kapcsolatos információkat tartalmazó paraméterek beállítására használja a Feladat paraméterváltozóit.

JobsSparkPythonTask

Name Elérési út Típus Description
parameters
parameters array of string

A Python-fájlnak átadott parancssori paraméterek. Feladatparaméter-változók használatával állítsa be a feladatfuttatásokkal kapcsolatos információkat tartalmazó paramétereket.

python_file
python_file string

A végrehajtandó Python-fájl. A felhőalapú fájl URL-címei (például dbfs:/, s3:/, adls:/, gcs:/) és a munkaterület elérési útjai támogatottak. A Databricks-munkaterületen tárolt Python-fájlok esetében az elérési útnak abszolútnak kell lennie, és a következővel kell kezdődnie: /. Távoli adattárban tárolt fájlok esetében az elérési útnak relatívnak kell lennie. Ez a mező kötelező.

adatforrás
source JobsSource

JobsSparkSubmitTask

Name Elérési út Típus Description
parameters
parameters array of string

A Spark-küldésnek átadott parancssori paraméterek. Feladatparaméter-változók használatával állítsa be a feladatfuttatásokkal kapcsolatos információkat tartalmazó paramétereket.

JobsWebhookNotifications

Name Elérési út Típus Description
on_duration_warning_threshold_exceeded
on_duration_warning_threshold_exceeded array of JobsWebhook

Választható rendszerértesítési azonosítók listája, ha a futtatás időtartama meghaladja az állapotmező RUN_DURATION_SECONDS metrikájához megadott küszöbértéket. A on_duration_warning_threshold_exceeded tulajdonsághoz legfeljebb 3 cél adható meg.

on_failure
on_failure array of JobsWebhook

A futtatás sikertelensége esetén meghívandó rendszerértesítési azonosítók opcionális listája. A on_failure tulajdonsághoz legfeljebb 3 cél adható meg.

on_start
on_start array of JobsWebhook

A futtatás indításakor meghívandó rendszerértesítési azonosítók választható listája. A on_start tulajdonsághoz legfeljebb 3 célhely adható meg.

on_streaming_backlog_exceeded
on_streaming_backlog_exceeded array of JobsWebhook

A rendszerértesítés azonosítóinak opcionális listája, amelyet meghívhat, ha bármely stream esetében túllépi a streameléssel kapcsolatos hátralék küszöbértékét. A streamelési teendőlista küszöbértékei az állapotmezőben a következő metrikák használatával állíthatók be: STREAMING_BACKLOG_BYTES, STREAMING_BACKLOG_RECORDS, STREAMING_BACKLOG_SECONDS vagy STREAMING_BACKLOG_FILES. A riasztás a metrikák 10 perces átlagán alapul. Ha a probléma továbbra is fennáll, az értesítések 30 percenként újraküldésre kerülnek. A on_streaming_backlog_exceeded tulajdonsághoz legfeljebb 3 cél adható meg.

on_success
on_success array of JobsWebhook

A futtatás sikeres befejezésekor meghívandó rendszerértesítési azonosítók opcionális listája. A on_success tulajdonsághoz legfeljebb 3 célhely adható meg.

JobsWebhook

Name Elérési út Típus Description
azonosító
id string

JobsTriggerSettings

Name Elérési út Típus Description
file_arrival
file_arrival JobsFileArrivalTriggerConfiguration
pause_status
pause_status JobsPauseStatus
időszaki
periodic JobsPeriodicTriggerConfiguration

JobsFileArrivalTriggerConfiguration

Name Elérési út Típus Description
min_time_between_triggers_seconds
min_time_between_triggers_seconds integer

Ha be van állítva, az eseményindító csak az eseményindító legutóbbi elindítása óta eltelt idő után indítja el a futtatásokat. A minimálisan megengedett érték 60 másodperc

URL-cím
url string

A fájl érkezésekor monitorozni kívánt URL-cím. Az elérési útnak a külső hely gyökerére vagy alútjára kell mutatnia.

wait_after_last_change_seconds
wait_after_last_change_seconds integer

Ha be van állítva, az eseményindító csak akkor indítja el a futtatásokat, ha a megadott ideig nem történt fájltevékenység. Ez lehetővé teszi, hogy megvárja a bejövő fájlok kötegének érkezését, mielőtt elindítja a futtatást. A minimálisan megengedett érték 60 másodperc.

JobsPeriodicTriggerConfiguration

Name Elérési út Típus Description
interval
interval integer

Az az időköz, amelyen az eseményindítónak futnia kell.

egység
unit JobsPeriodicTriggerConfigurationTimeUnit

JobsPeriodicTriggerConfigurationTimeUnit

JobsTriggerStateProto

Name Elérési út Típus Description
file_arrival
file_arrival JobsFileArrivalTriggerState

JobsFileArrivalTriggerState

Name Elérési út Típus Description
using_file_events
using_file_events boolean

Azt jelzi, hogy az eseményindító fájlesemények használatával észleli-e a fájl érkezését.

JobsRun

Name Elérési út Típus Description
attempt_number
attempt_number integer

A futtatási kísérlet sorszáma aktivált feladatfuttatás esetén. A futtatás kezdeti kísérlete 0 attempt_number. Ha a kezdeti futtatási kísérlet meghiúsul, és a feladat újrapróbálkozási szabályzattal (max_retries > 0) rendelkezik, a rendszer a következő futtatásokat az eredeti kísérlet azonosítójának original_attempt_run_id és egy növekvő attempt_number hozza létre. A futtatások csak addig próbálkoznak újra, amíg sikeresek nem lesznek, és a maximális attempt_number megegyezik a feladat max_retries értékével.

cleanup_duration
cleanup_duration integer

Ezredmásodperc alatt leállítja a fürtöt, és megtisztítja a kapcsolódó összetevőket. A tevékenységfuttatás időtartama a setup_duration, a execution_duration és a cleanup_duration összege. A cleanup_duration mező 0 értékre van állítva többfeladatos feladatok futtatása esetén. A többfeladatos feladatfuttatás teljes időtartama a run_duration mező értéke.

cluster_instance
cluster_instance JobsClusterInstance
cluster_spec
cluster_spec JobsClusterSpec
creator_user_name
creator_user_name string

A létrehozó felhasználóneve. Ez a mező nem lesz belefoglalva a válaszba, ha a felhasználót már törölték.

leírás
description string

A futtatás leírása

effective_performance_target
effective_performance_target JobsPerformanceTarget
befejezési_idő
end_time integer

Az időpont, amikor ez a futtatás a korszak ezredmásodpercében végződött (ezredmásodperc 1970. 01. 01. (UTC) óta). Ez a mező 0 értékre van állítva, ha a feladat még fut.

execution_duration
execution_duration integer

Ezredmásodpercben eltelt idő a JAR-ban vagy a jegyzetfüzetben lévő parancsok végrehajtásához, amíg azok befejeződtek, sikertelenek, időtúllépések, megszakítások vagy váratlan hiba nem történt. A tevékenységfuttatás időtartama a setup_duration, a execution_duration és a cleanup_duration összege. A execution_duration mező 0 értékre van állítva többfeladatos feladatfuttatásokhoz. A többfeladatos feladatfuttatás teljes időtartama a run_duration mező értéke.

git_source
git_source JobsGitSource
van_még
has_more boolean

Azt jelzi, hogy a futtatás több olyan tömbtulajdonsággal (feladatokkal, job_clusters) rendelkezik-e, amelyek nem jelennek meg. Ezek a :method:jobs/getrun végponton keresztül érhetők el. Ez csak az API 2.2 :method:jobs/listruns kérelmek esetében releváns expand_tasks=true értékekkel.

job_clusters
job_clusters array of JobsJobCluster

A feladatfürt azon specifikációinak listája, amelyeket a feladat tevékenységei megoszthatnak és újra felhasználhatnak. A tárak nem deklarálhatók megosztott feladatfürtökben. Függő kódtárakat kell deklarálnia a feladatbeállításokban. Ha több mint 100 feladatfürt érhető el, a :method:jobs/getrun paranccsal lapozhatja őket.

job_id
job_id integer

A futtatásokat tartalmazó feladat canonical azonosítója.

job_parameters
job_parameters array of JobsJobParameter

A futtatás során használt feladatszintű paraméterek

job_run_id
job_run_id integer

Annak a feladatfuttatásnak az azonosítója, amelyhez ez a futtatás tartozik. Az örökölt és egyfeladatos feladatok futtatásakor a mező a feladatfuttatás azonosítójával van feltöltve. Tevékenységfuttatások esetén a mező annak a feladatfuttatásnak az azonosítójával van feltöltve, amelyhez a tevékenységfuttatás tartozik.

next_page_token
next_page_token string

A tömbtulajdonságok következő oldalának listázására használható jogkivonat.

original_attempt_run_id
original_attempt_run_id integer

Ha ez a futtatás egy korábbi futtatási kísérlet újrapróbálkozása, akkor ez a mező az eredeti kísérlet run_id tartalmazza; ellenkező esetben ugyanaz, mint a run_id.

overriding_parameters
overriding_parameters JobsRunParameters
queue_duration
queue_duration integer

Ezredmásodpercben megadott idő, amelyet a futtatás az üzenetsorban töltött.

repair_history
repair_history array of JobsRepairHistoryItem

A futtatás javítási előzményei.

run_duration
run_duration integer

Az ezredmásodpercben eltelt idő alatt a feladat lefutott, és az összes javítás befejeződött.

run_id
run_id integer

A futtatás canonical azonosítója. Ez az azonosító az összes feladat összes futtatása során egyedi.

run_name
run_name string

A futtatás nem kötelező neve. A maximális hossz 4096 bájt UTF-8 kódolásban.

run_page_url
run_page_url string

A futtatás részletes oldalának URL-címe.

futtatás_típusa
run_type JobsRunType
ütemterv
schedule JobsCronSchedule
setup_duration
setup_duration integer

Ezredmásodpercben eltelt idő a fürt beállításához. Az új fürtökön futó futtatások esetében ez a fürtlétrehozási idő, a meglévő fürtökön futó futtatások esetében ez az idő nagyon rövid. A tevékenységfuttatás időtartama a setup_duration, a execution_duration és a cleanup_duration összege. A setup_duration mező 0 értékre van állítva többfeladatos feladatok futtatása esetén. A többfeladatos feladatfuttatás teljes időtartama a run_duration mező értéke.

kezdési_idő
start_time integer

A futás kezdetének időpontja ezredmásodpercben (ezredmásodperc 1970. 01. 01. (UTC) óta). Lehet, hogy nem ez az az időpont, amikor a feladat feladat végrehajtása elkezdődött, például ha a feladat egy új fürtre van ütemezve, akkor a fürtlétrehozási hívás ekkor lesz kiadva.

állapot
status JobsRunStatus
tasks
tasks array of JobsRunTask

A futtatás által végrehajtott feladatok listája. Minden tevékenység saját run_id rendelkezik, amellyel meghívhatja a JobsGetOutput parancsot a futtatási újraszutlsok lekéréséhez. Ha több mint 100 tevékenység érhető el, a :method:jobs/getrun paranccsal lapozhatja végig őket. Az objektumgyökér next_page_token mezőjével állapítsa meg, hogy vannak-e további eredmények.

aktivál
trigger JobsTriggerType
trigger_info
trigger_info JobsTriggerInfo

JobsClusterInstance

Name Elérési út Típus Description
cluster_id
cluster_id string

A futtatás által használt fürt canonical azonosítója. Ez a mező mindig elérhető a meglévő fürtökön futó futtatásokhoz. Új fürtökön futó futtatások esetén a fürt létrehozása után elérhetővé válik. Ez az érték a naplók megtekintésére használható a /#setting/sparkui/$cluster_id/driver-logs webhelyen való böngészéssel. A naplók a futtatás befejezése után is elérhetők maradnak. A válasz nem tartalmazza ezt a mezőt, ha az azonosító még nem érhető el.

spark_context_id
spark_context_id string

A futtatás által használt Spark-környezet canonical azonosítója. Ezt a mezőt a futtatás megkezdése után tölti ki a rendszer. Ez az érték a Spark felhasználói felületének megtekintéséhez használható a /#setting/sparkui/$cluster_id/$spark_context_id webhelyre való tallózással. A Spark felhasználói felülete a futtatás befejezése után is elérhető marad. A válasz nem tartalmazza ezt a mezőt, ha az azonosító még nem érhető el.

JobsClusterSpec

Name Elérési út Típus Description
existing_cluster_id
existing_cluster_id string

Ha existing_cluster_id, az összes futtatáshoz használt meglévő fürt azonosítója. Ha feladatokat vagy feladatokat futtat egy meglévő fürtön, előfordulhat, hogy manuálisan kell újraindítania a fürtöt, ha az nem válaszol. Azt javasoljuk, hogy a nagyobb megbízhatóság érdekében új fürtökön futtassa a feladatokat és a feladatokat

job_cluster_key
job_cluster_key string

Ha job_cluster_key, ezt a feladatot a rendszer a job.settings.job_clusters megadott fürt újrafelhasználásával hajtja végre.

libraries
libraries array of ComputeLibrary

A fürtre telepíteni kívánt kódtárak választható listája. Az alapértelmezett érték egy üres lista.

new_cluster
new_cluster ComputeClusterSpec

JobsJobParameter

Name Elérési út Típus Description
alapértelmezett
default string

A paraméter opcionális alapértelmezett értéke

név
name string

A paraméter neve

value
value string

A futtatáskor használt érték

JobsRunParameters

Name Elérési út Típus Description
pipeline_params
pipeline_params JobsPipelineParams

JobsRepairHistoryItem

Name Elérési út Típus Description
effective_performance_target
effective_performance_target JobsPerformanceTarget
befejezési_idő
end_time integer

A (javított) futtatás befejezési ideje.

azonosító
id integer

A javítás azonosítója. Csak azokhoz az elemekhez ad vissza, amelyek javítást jelentenek repair_history.

kezdési_idő
start_time integer

A (javított) futtatás kezdő időpontja.

állapot
status JobsRunStatus
task_run_ids
task_run_ids array of integer

A javítási előzmények elem részeként futtatott feladatfuttatások futtatási azonosítói.

típus
type JobsRepairHistoryItemType

JobsRunStatus

Name Elérési út Típus Description
queue_details
queue_details JobsQueueDetails
state
state JobsRunLifecycleStateV2State
termination_details
termination_details JobsTerminationDetails

JobsQueueDetails

Name Elérési út Típus Description
kód
code JobsQueueDetailsCodeCode
üzenet
message string

Egy leíró üzenet a sorba állítás részleteivel. Ez a mező strukturálatlan, és pontos formátuma változhat.

JobsQueueDetailsCodeCode

JobsRunLifecycleStateV2State

JobsTerminationDetails

Name Elérési út Típus Description
kód
code JobsTerminationCodeCode
üzenet
message string

Egy leíró üzenet a felmondás részleteivel. Ez a mező strukturálatlan, és a formátum változhat.

típus
type JobsTerminationTypeType

JobsTerminationCode

JobsTerminationTypeType

JobsRepairHistoryItemType

JobsRunType

JobsRunTask

Name Elérési út Típus Description
attempt_number
attempt_number integer

A futtatási kísérlet sorszáma aktivált feladatfuttatás esetén. A futtatás kezdeti kísérlete 0 attempt_number. Ha a kezdeti futtatási kísérlet meghiúsul, és a feladat újrapróbálkozási szabályzattal (max_retries > 0) rendelkezik, a rendszer a következő futtatásokat az eredeti kísérlet azonosítójának original_attempt_run_id és egy növekvő attempt_number hozza létre. A futtatások csak addig próbálkoznak újra, amíg sikeresek nem lesznek, és a maximális attempt_number megegyezik a feladat max_retries értékével.

clean_rooms_notebook_task
clean_rooms_notebook_task Object
cleanup_duration
cleanup_duration integer

Ezredmásodperc alatt leállítja a fürtöt, és megtisztítja a kapcsolódó összetevőket. A tevékenységfuttatás időtartama a setup_duration, a execution_duration és a cleanup_duration összege. A cleanup_duration mező 0 értékre van állítva többfeladatos feladatok futtatása esetén. A többfeladatos feladatfuttatás teljes időtartama a run_duration mező értéke.

cluster_instance
cluster_instance JobsClusterInstance
condition_task
condition_task JobsRunConditionTask
dashboard_task
dashboard_task Object
dbt_task
dbt_task Object
depends_on
depends_on array of JobsTaskDependency

A tevékenység függőségi gráfját meghatározó objektumok választható tömbje. A tevékenység végrehajtása előtt az ebben a mezőben megadott összes tevékenységnek sikeresen le kell fejeződnie. A kulcs task_key, az érték pedig a függő tevékenységhez rendelt név.

leírás
description string

A feladat opcionális leírása.

effective_performance_target
effective_performance_target JobsPerformanceTarget
email_notifications
email_notifications JobsJobEmailNotifications
befejezési_idő
end_time integer

Az időpont, amikor ez a futtatás a korszak ezredmásodpercében végződött (ezredmásodperc 1970. 01. 01. (UTC) óta). Ez a mező 0 értékre van állítva, ha a feladat még fut.

environment_key
environment_key string

Az a kulcs, amely egy feladat környezeti specifikációjára hivatkozik. Ez a mező szükséges a Python-szkriptekhez, a Python-kerékhez és a dbt-feladatokhoz kiszolgáló nélküli számítás használatakor.

execution_duration
execution_duration integer

Ezredmásodpercben eltelt idő a JAR-ban vagy a jegyzetfüzetben lévő parancsok végrehajtásához, amíg azok befejeződtek, sikertelenek, időtúllépések, megszakítások vagy váratlan hiba nem történt. A tevékenységfuttatás időtartama a setup_duration, a execution_duration és a cleanup_duration összege. A execution_duration mező 0 értékre van állítva többfeladatos feladatfuttatásokhoz. A többfeladatos feladatfuttatás teljes időtartama a run_duration mező értéke.

existing_cluster_id
existing_cluster_id string

Ha existing_cluster_id, az összes futtatáshoz használt meglévő fürt azonosítója. Ha feladatokat vagy feladatokat futtat egy meglévő fürtön, előfordulhat, hogy manuálisan kell újraindítania a fürtöt, ha az nem válaszol. Azt javasoljuk, hogy a nagyobb megbízhatóság érdekében új fürtökön futtassa a feladatokat és a feladatokat

for_each_task
for_each_task Object
git_source
git_source JobsGitSource
job_cluster_key
job_cluster_key string

Ha job_cluster_key, ezt a feladatot a rendszer a job.settings.job_clusters megadott fürt újrafelhasználásával hajtja végre.

libraries
libraries array of Object

A fürtre telepíteni kívánt kódtárak választható listája. Az alapértelmezett érték egy üres lista.

new_cluster
new_cluster Object
notebook_task
notebook_task JobsNotebookTask
notification_settings
notification_settings Object
pipeline_task
pipeline_task Object
power_bi_task
power_bi_task Object
python_wheel_task
python_wheel_task Object
queue_duration
queue_duration integer

Ezredmásodpercben megadott idő, amelyet a futtatás az üzenetsorban töltött.

resolved_values
resolved_values JobsResolvedValues
run_duration
run_duration integer

Az ezredmásodpercben eltelt idő alatt a feladat lefutott, és az összes javítás befejeződött.

run_id
run_id integer

A feladatfuttatás azonosítója.

run_if
run_if JobsRunIf
run_job_task
run_job_task JobsRunJobTask
run_page_url
run_page_url string
setup_duration
setup_duration integer

Ezredmásodpercben eltelt idő a fürt beállításához. Az új fürtökön futó futtatások esetében ez a fürtlétrehozási idő, a meglévő fürtökön futó futtatások esetében ez az idő nagyon rövid. A tevékenységfuttatás időtartama a setup_duration, a execution_duration és a cleanup_duration összege. A setup_duration mező 0 értékre van állítva többfeladatos feladatok futtatása esetén. A többfeladatos feladatfuttatás teljes időtartama a run_duration mező értéke.

spark_jar_task
spark_jar_task Object
spark_python_task
spark_python_task Object
spark_submit_task
spark_submit_task Object
sql_task
sql_task Object
kezdési_idő
start_time integer

A futás kezdetének időpontja ezredmásodpercben (ezredmásodperc 1970. 01. 01. (UTC) óta). Lehet, hogy nem ez az az időpont, amikor a feladat feladat végrehajtása elkezdődött, például ha a feladat egy új fürtre van ütemezve, akkor a fürtlétrehozási hívás ekkor lesz kiadva.

állapot
status JobsRunStatus
task_key
task_key string

A tevékenység egyedi neve. Ezzel a mezővel hivatkozhat erre a tevékenységre más tevékenységekből. Ez a mező kötelező, és a szülőfeladaton belül egyedinek kell lennie. Frissítéskor vagy alaphelyzetbe állításkor ez a mező a frissíteni vagy alaphelyzetbe állítani kívánt tevékenységekre hivatkozik.

timeout_seconds
timeout_seconds integer

A feladat feladatának minden egyes futtatására alkalmazott opcionális időtúllépés. A 0 érték azt jelenti, hogy nincs időtúllépés.

webhook_notifications
webhook_notifications Object

JobsRunConditionTask

Name Elérési út Típus Description
Balra
left string

A feltételfeladat bal operandusa. Lehet sztringérték, feladatállapot vagy paraméterhivatkozás.

operátor
op JobsConditionTaskOp
eredmény
outcome string

A feltételkifejezés kiértékelési eredménye. Kitöltve, ha a feladat sikeresen befejeződött. Lehet "igaz" vagy "hamis"

Jobbra
right string

A feltételfeladat megfelelő operandusa. Lehet sztringérték, feladatállapot vagy paraméterhivatkozás.

JobsTriggerType

JobsTriggerInfo

Name Elérési út Típus Description
run_id
run_id integer

A Feladatfuttatás futtatása feladatfuttatásának futtatási azonosítója

JobsRunOutput

Name Elérési út Típus Description
clean_rooms_notebook_output
clean_rooms_notebook_output Object
dashboard_output
dashboard_output Object
dbt_output
dbt_output Object
hiba
error string

Hibaüzenet, amely jelzi, hogy egy feladat miért nem sikerült, vagy miért nem érhető el a kimenet. Az üzenet strukturálatlan, és pontos formátuma változhat.

error_trace
error_trace string

Ha hiba történt a futtatás végrehajtásakor, ez a mező tartalmaz minden elérhető veremkövetést.

információ
info string
naplók
logs string

A standard streamekbe (stdout/stderr) írt feladatok kimenete, például spark_jar_task, spark_python_task, python_wheel_task. A notebook_task, pipeline_task vagy spark_submit_task nem támogatott. A Databricks korlátozza ezt az API-t, hogy a naplókból az utolsó 5 MB-ot adja vissza.

logs_truncated
logs_truncated boolean

A naplók csonkolt-e.

metaadat
metadata Object
notebook_output
notebook_output JobsNotebookOutput
run_job_output
run_job_output JobsRunJobOutput
sql_output
sql_output Object

JobsNotebookOutput

Name Elérési út Típus Description
eredmény
result string

A dbutils.notebook.exit()-nek átadott érték. A Databricks korlátozza ezt az API-t, hogy az első 5 MB értéket adja vissza. Nagyobb eredmény érdekében a feladat egy felhőalapú tárolási szolgáltatásban tárolhatja az eredményeket. Ez a mező hiányzik, ha a dbutils.notebook.exit() soha nem lett meghívva.

megcsonkított
truncated boolean

Azt jelzi, hogy csonkolt-e az eredmény.

JobsRunJobOutput

Name Elérési út Típus Description
run_id
run_id integer

Az aktivált feladat futtatásának futtatási azonosítója

JobsResolvedValues

Name Elérési út Típus Description
condition_task
condition_task JobsResolvedConditionTaskValues
dbt_task
dbt_task JobsResolvedDbtTaskValues
notebook_task
notebook_task JobsResolvedNotebookTaskValues
python_wheel_task
python_wheel_task JobsResolvedPythonWheelTaskValues
run_job_task
run_job_task JobsResolvedRunJobTaskValues
simulation_task
simulation_task JobsResolvedParamPairValues
spark_jar_task
spark_jar_task JobsResolvedStringParamsValues
spark_python_task
spark_python_task JobsResolvedStringParamsValues
spark_submit_task
spark_submit_task JobsResolvedStringParamsValues
sql_task
sql_task JobsResolvedParamPairValues

JobsResolvedConditionTaskValues

Name Elérési út Típus Description
Balra
left string
Jobbra
right string

JobsResolvedDbtTaskValues

Name Elérési út Típus Description
commands
commands array of string

JobsResolvedNotebookTaskValues

Name Elérési út Típus Description
base_parameters
base_parameters object

JobsResolvedPythonWheelTaskValues

Name Elérési út Típus Description
named_parameters
named_parameters object
parameters
parameters array of string

JobsResolvedRunJobTaskValues

Name Elérési út Típus Description
job_parameters
job_parameters object
parameters
parameters object

JobsResolvedParamPairValues

Name Elérési út Típus Description
parameters
parameters object

JobsResolvedStringParamsValues

Name Elérési út Típus Description
parameters
parameters array of string