Databricks (előzetes verzió)
A Databricks egységes platformot kínál a méretezhető adatkezeléshez, szabályozáshoz és elemzéshez, amely leegyszerűsített munkafolyamatokat és különböző adattípusok hatékony kezelését teszi lehetővé
Ez az összekötő a következő termékekben és régiókban érhető el:
| Service | Class | Régiók |
|---|---|---|
| Copilot Studio | prémium | Az összes Power Automate-régió, kivéve a következőket: - USA kormánya (GCC) - Amerikai kormány (GCC High) - A 21Vianet által üzemeltetett China Cloud - Amerikai Védelmi Minisztérium (DoD) |
| Logikai alkalmazások | Standard | Az összes Logic Apps-régió , kivéve a következőket: - Azure Government-régiók - Azure China-régiók - Amerikai Védelmi Minisztérium (DoD) |
| Power Alkalmazások | prémium | Az összes Power Apps-régió , kivéve a következőket: - USA kormánya (GCC) - Amerikai kormány (GCC High) - A 21Vianet által üzemeltetett China Cloud - Amerikai Védelmi Minisztérium (DoD) |
| Power Automate | prémium | Az összes Power Automate-régió, kivéve a következőket: - USA kormánya (GCC) - Amerikai kormány (GCC High) - A 21Vianet által üzemeltetett China Cloud - Amerikai Védelmi Minisztérium (DoD) |
| Érintkezés | |
|---|---|
| Név | Databricks-támogatás |
| URL | https://help.databricks.com |
| eng-partner-eco-help@databricks.com |
| Összekötő metaadatai | |
|---|---|
| Kiadó | Databricks Inc. |
| Webhely | https://www.databricks.com/ |
| Adatvédelmi irányelvek | https://www.databricks.com/legal/privacynotice |
| Kategóriák | Adat |
Csatlakozás a Databrickshez a Microsoft Power Platformról
Ez a lap bemutatja, hogyan csatlakozhat a Databrickshez a Microsoft Power Platformról a Databricks adatkapcsolatként való hozzáadásával. Csatlakozáskor a Databricks-adatokat a következő platformokról használhatja:
- Power Apps: Olyan alkalmazásokat hozhat létre, amelyek olvasásra és írásra képesek a Databricksben, miközben megőrzik a Databricks szabályozási vezérlőit.
- Power Automate: Folyamatok létrehozása és olyan műveletek hozzáadása, amelyek lehetővé teszik az egyéni SQL vagy egy meglévő feladat végrehajtását, és visszaadják az eredményeket.
- Copilot Studio: Egyéni ügynökök létrehozása a Databricks-adatok segítségével tudásforrásként.
Mielőtt hozzákezdene
Mielőtt a Power Platformról csatlakozik a Databrickshez, meg kell felelnie az alábbi követelményeknek:
- Rendelkezik egy személyes hozzáférési jogkivonattal a Databricks-munkaterülethez.
- Prémium szintű Power Apps-licenccel rendelkezik.
- Rendelkezik Databricks-fiókkal.
- Hozzáféréssel rendelkezik egy SQL-raktárhoz a Databricksben.
1. lépés: Databricks-kapcsolat hozzáadása a Power Platformhoz
Jegyzet: Ha a Copilot Studiót használja, javasoljuk, hogy hozza létre a Databricks-kapcsolatot a Power Appsben vagy a Power Automate-ben. Ezután a Copilot Studióban is használható.
Databricks-kapcsolat hozzáadásához tegye a következőket:
- A Power Appsben vagy a Power Automate-ben az oldalsávon kattintson a Kapcsolatok elemre.
- Kattintson az + Új kapcsolat elemre a bal felső sarokban.
- Keressen rá a "Databricks" kifejezésre a jobb felső sarokban található keresősáv használatával.
- Válassza ki a Databricks csempét (nem az Azure Databrickset).
- Adja meg a hitelesítési adatokat.
- A jogkivonat esetében adja meg a következő "Tulajdonos <személyes hozzáférés-jogkivonata" kifejezést>
- Megjegyzés: személyes hozzáférési jogkivonat (PAT) létrehozásához kövesse az alábbi lépéseket
- A jogkivonat esetében adja meg a következő "Tulajdonos <személyes hozzáférés-jogkivonata" kifejezést>
- Kattintson a Létrehozás gombra.
2. lépés: A Databricks-kapcsolat használata
Miután létrehozott egy Databricks-kapcsolatot a Power Appsben vagy a Power Automate-ben, a Databricks-adatokkal Power Canvas-alkalmazásokat, Power Automate-folyamatokat és Copilot Studio-ügynököket hozhat létre.
A Databricks-adatok használata Power Canvas-alkalmazások létrehozásához
Important
Csak akkor használhat vászonalapú alkalmazásokat, ha közvetlenül csatlakozik a Databrickshez az alkalmazásban. Nem használhat virtuális táblákat.
A Databricks-adatok alkalmazáshoz való hozzáadásához tegye a következőket:
- A bal szélső navigációs sávon kattintson a Létrehozás gombra.
- Kattintson a Start gombra egy üres vászonnal , és válassza ki a kívánt vászonméretet egy új vászonalkalmazás létrehozásához.
- Az alkalmazásból kattintson azAdatösszekötők>>Databricks elemre. Válassza ki a létrehozott Databricks-kapcsolatot.
- Válasszon ki egy katalógust az Adathalmaz kiválasztása oldalsávról.
- Az Adathalmaz kiválasztása oldalsávon jelölje ki az összes táblát, amelyhez csatlakoztatni szeretné a vászonalapú alkalmazást.
- Kattintson a Csatlakozás gombra.
Adatműveletek a Power Appsben:
Az összekötő támogatja a létrehozási, frissítési és törlési műveleteket, de csak az elsődleges kulccsal rendelkező táblák esetében. Létrehozási műveletek végrehajtásakor mindig meg kell adnia az elsődleges kulcsot.
Jegyzet: A Databricks támogatja a létrehozott identitásoszlopokat. Ebben az esetben a rendszer automatikusan létrehozza az elsődleges kulcsértékeket a kiszolgálón a sorlétrehozás során, és nem lehet manuálisan megadni.
A Databricks-adatok használata Power Automate-folyamatok létrehozásához
Az Utasítás-végrehajtási API és a Jobs API a Power Automate-ben érhető el, így SQL-utasítások írását és meglévő feladatok végrehajtását teszi lehetővé. Ha Power Automate-folyamatot szeretne létrehozni a Databricks használatával műveletként, tegye a következőket:
- A bal szélső navigációs sávon kattintson a Létrehozás gombra.
- Hozzon létre egy folyamatot, és adjon hozzá bármilyen eseményindítótípust.
- Az új folyamatból kattintson + és keressen rá a "Databricks" kifejezésre az elérhető műveletek megtekintéséhez.
SQL írásához válasszon az alábbi műveletek közül:
SQL-utasítás végrehajtása: SQL-utasítás írása és futtatása. Adja meg a következőket:
- Törzs/warehouse_id esetén adja meg annak a raktárnak az azonosítóját, amelyre az SQL-utasítást végre kívánja hajtani.
- Törzs/statement_id esetén adja meg a végrehajtandó SQL-utasítás azonosítóját.
- A speciális paraméterekkel kapcsolatos további információkért lásd itt.
Állapot ellenőrzése és eredmények lekérése: Ellenőrizze egy SQL-utasítás állapotát, és gyűjtsön eredményeket. Adja meg a következőket:
- Az Utasításazonosító mezőben adja meg az SQL-utasítás végrehajtásakor visszaadott azonosítót.
- A paraméterről további információt itt talál.
Utasítás végrehajtásának megszakítása: SQL-utasítás végrehajtásának leállása. Adja meg a következőket:
- Az Utasításazonosító mezőben adja meg a megszüntetni kívánt SQL-utasítás azonosítóját.
- A paraméterről további információt itt talál.
Eredmény lekérése adattömbindex alapján: Eredmények lekérése adattömbindex alapján, amely alkalmas nagy eredményhalmazokhoz. Adja meg a következőket:
- Az Utasításazonosító mezőben adja meg annak az SQL-utasításnak az azonosítóját, amelynek eredményeit le szeretné kérni.
- Adattömbindex esetén adja meg a céltömbindexet.
- A paraméterekkel kapcsolatos további információkért lásd itt.
Meglévő Databricks-feladattal való interakcióhoz válasszon az alábbi műveletek közül:
- Feladatok listázása: Lekéri a feladatok listáját. További információt itt talál.
- Új feladatfuttatás aktiválása: Futtat egy feladatot, és visszaadja az aktivált futtatás run_id. További információt itt talál.
- Egyetlen feladatfuttatás lekérése: Metaadatokat ad vissza egy futtatásról, beleértve a futtatás állapotát (pl. FUTTATÁS, SIKERES, SIKERTELEN), kezdési és befejezési időt, végrehajtási időtartamokat, fürtinformációkat stb. További információt itt talál.
- Feladatfuttatás megszakítása: Feladatfuttatás vagy feladatfuttatás megszakítása. További információt itt talál.
- Egyetlen feladatfuttatás kimenetének lekérése: Egyetlen feladatfuttatás kimenetét és metaadatait kéri le. További információt itt talál.
A Databricks használata tudásbázisként a Copilot Studióban
Ha a Databricks-adatokat tudásbázisként szeretné hozzáadni egy Copilot Studio-ügynökhöz, tegye a következőket:
- Az oldalsávon kattintson az Ügynök elemre.
- Válasszon ki egy meglévő ügynököt, vagy hozzon létre egy új ügynököt az + Új ügynök gombra kattintva.
- Írja le az ügynököt egy üzenet beírásával, majd kattintson a Létrehozás gombra.
- Vagy kattintson a Ugrás gombra az ügynök adatainak manuális megadásához.
- A Ismeret lapon kattintson a + Ismeret elemre.
- Kattintson a Speciális gombra.
- Válassza ki a Databrickset tudásforrásként.
- Adja meg azt a katalógusnevet, amelyben az adatok szerepelnek.
- Kattintson a Csatlakozás gombra.
- Jelölje ki a tudásforrásként használni kívánt táblákat, majd kattintson a Hozzáadás gombra.
Dataverse virtuális táblák létrehozása a Databricks-adatokkal
Dataverse virtuális táblákat a Databricks-összekötővel is létrehozhat. A virtuális táblák, más néven virtuális entitások külső rendszerekből származó adatokat integrálnak a Microsoft Dataversevel. A virtuális táblák úgy határoznak meg egy táblát a Dataverse-ben, hogy nem tárolja a fizikai táblát a Dataverse-adatbázisban. A virtuális táblákkal kapcsolatos további információkért tekintse meg a virtuális táblák (entitások) használatának első lépéseit.
Megjegyzés
Bár a virtuális táblák nem használják fel a Dataverse-tárolókapacitást, a Databricks azt javasolja, hogy közvetlen kapcsolatokat használjon a jobb teljesítmény érdekében.
Rendelkeznie kell a Rendszertestreszabó vagy a Rendszeradminisztrátor szerepkörrel. További információt a Power Platform biztonsági szerepköreivel kapcsolatban talál.
Dataverse virtuális tábla létrehozásához kövesse az alábbi lépéseket:
A Power Appsben az oldalsávon kattintson a Táblák elemre.
Kattintson az + Új tábla elemre a menüsávon, és válassza a Virtuális tábla létrehozása lehetőséget.
Válasszon ki egy meglévő Databricks-kapcsolatot, vagy hozzon létre egy új kapcsolatot a Databrickshez. Új kapcsolat hozzáadásához lásd : 1. lépés: Databricks-kapcsolat hozzáadása a Power Platformhoz.
A Databricks azt javasolja, hogy használjon szolgáltatói főkapcsolatot egy virtuális tábla létrehozásához.
Kattintson a Tovább feliratra.
Jelölje ki a Dataverse virtuális táblaként megjeleníteni kívánt táblákat.
- A dataverse virtuális táblákhoz elsődleges kulcs szükséges. Ezért a nézetek nem lehetnek virtuális táblák, de a materializált nézetek igen.
Kattintson a Tovább feliratra.
Szükség esetén konfigurálja a virtuális táblát a tábla adatainak frissítésével.
Kattintson a Tovább feliratra.
Erősítse meg az adatforrás részleteit, és kattintson a Befejezés gombra.
Használja a Dataverse virtuális táblát a Power Appsben, a Power Automate-ben és a Copilot Studióban.
A Dataverse virtuális táblák ismert korlátozásainak listáját lásd: Ismert korlátozások és hibaelhárítás.
Kötegfrissítések végrehajtása
Ha tömeges létrehozási, frissítési vagy törlési műveleteket kell végrehajtania a Power Apps bemenetei alapján, a Databricks javasolja a Power Automate-folyamat implementálását. Ehhez tegye a következőket:
Hozzon létre egy vászonalapú alkalmazást a Databricks-kapcsolattal a Power Appsben.
Hozzon létre egy Power Automate-folyamatot a Databricks-kapcsolat használatával, és használja a Power Appst eseményindítóként.
A Power Automate-eseményindítóban adja hozzá a Power Appsből a Power Automate-be átadni kívánt beviteli mezőket.
Hozzon létre egy gyűjteményobjektumot a Power Appsben az összes módosítás összegyűjtéséhez.
Adja hozzá a Power Automate-folyamatot a vászonalapú alkalmazáshoz.
Hívja meg a Power Automate folyamatot a vászonalapú alkalmazásából, és iterálja át a gyűjteményt a
ForAllparancs segítségével.ForAll(collectionName, FlowName.Run(input field 1, input field 2, input field 3, …)
Egyidejű írások
A sorszintű egyidejűség csökkenti az egyidejű írási műveletek közötti ütközéseket azáltal, hogy észleli a sorszintű változásokat, és automatikusan feloldja azokat az ütközéseket, amelyek akkor fordulnak elő, amikor az egyidejű írások ugyanazon adatfájl különböző sorait frissítik vagy törlik.
A sorszintű egyidejűség szerepel a Databricks Runtime 14.2-es vagy újabb verziójában. A sorszintű egyidejűség alapértelmezés szerint a következő típusú táblák esetében támogatott:
- A törlési vektorok engedélyezésével, de particionálás nélkül rendelkező táblák
- Folyékony fürtözésű táblák, kivéve, ha a törlési vektorok le vannak tiltva
A törlési vektorok engedélyezéséhez futtassa a következő SQL-parancsot:
ALTER TABLE table_name SET TBLPROPERTIES ('delta.enableDeletionVectors' = true);
Az egyidejű írási ütközésekről a Databricksben az elkülönítési szintek és az írási ütközések a Databricksen című témakörben talál további információt.
Databricks hozzáadása adatszabályzathoz
A Databricks üzleti adatszabályzathoz való hozzáadásával a Databricks nem oszthat meg adatokat más csoportok összekötőivel. Ez védi az adatokat, és megakadályozza, hogy megosszák azokkal, akik nem férhetnek hozzá. További információ: Adatkezelési szabályzatok kezelése.
A Databricks-összekötő hozzáadása Power Platform-adatszabályzathoz:
- Bármelyik Power Platform-alkalmazásból kattintson a jobb felső sarokban lévő beállítási fogaskerékre, és válassza a Felügyeleti központ lehetőséget.
- Az oldalsávon kattintson a Szabályzatok>adatszabályzatok elemre.
- Ha az új felügyeleti központot használja, kattintson a Biztonsági>adatok és adatvédelmi>adatvédelmi szabályzat elemre.
- Kattintson az + Új szabályzat elemre, vagy válasszon ki egy meglévő szabályzatot.
- Ha új szabályzatot hoz létre, adjon meg egy nevet.
- Válasszon ki egy környezetet, amely hozzáadja a szabályzatot, majd kattintson a + Hozzáadás a szabályzathoz elemre.
- Kattintson a Tovább feliratra.
- Keresse meg és válassza ki a Databricks* összekötőt.
- Kattintson a Vállalati verzióba, majd kattintson a Tovább feliratra.
- Tekintse át a szabályzatot, és kattintson a Szabályzat létrehozása gombra.
Korlátozások
- A Power Platform-összekötő nem támogatja a kormányzati felhőket.
A Power App korlátozásai
A következő PowerFx-képletek csak a helyileg lekért adatok használatával számítják ki az értékeket:
| Kategória | Formula |
|---|---|
| Táblafüggvény | - GroupBy -Különböző |
| Aggregation | - CountRows - StdevP - StdevS |
Kapcsolat létrehozása
Az összekötő a következő hitelesítési típusokat támogatja:
| Személyes hozzáférési jogkivonat | Személyes hozzáférési jogkivonat | Minden régió | Nem osztható meg |
| Alapértelmezett [ELAVULT] | Ez a beállítás csak olyan régebbi kapcsolatokhoz használható, amelyeknek nincs explicit hitelesítési típusuk, és csak a visszamenőleges kompatibilitást biztosítják. | Minden régió | Nem osztható meg |
Személyes hozzáférési jogkivonat
Hitelesítési azonosító: PAT
Alkalmazható: Minden régió
Személyes hozzáférési jogkivonat
Ez nem megosztható kapcsolat. Ha a power app meg van osztva egy másik felhasználóval, a rendszer kérni fogja, hogy hozzon létre új kapcsolatot.
| Név | Típus | Description | Kötelező |
|---|---|---|---|
| API-kulcs (Formátum: Tulajdonos <személyes hozzáférési jogkivonata>) | securestring | Személyes hozzáférési jogkivonaton alapuló API-kulcs | True |
| Kiszolgáló gazdagépneve (példa: foo.cloud.databricks.com) | karakterlánc | A Databricks-munkaterület kiszolgálóneve | True |
| HTTP-elérési út (Példa: /sql/1.0/warehouses/a9c4e781bd29f315) | karakterlánc | A Databricks SQL Warehouse HTTP-elérési útja | True |
Alapértelmezett [ELAVULT]
Alkalmazható: Minden régió
Ez a beállítás csak olyan régebbi kapcsolatokhoz használható, amelyeknek nincs explicit hitelesítési típusuk, és csak a visszamenőleges kompatibilitást biztosítják.
Ez nem megosztható kapcsolat. Ha a power app meg van osztva egy másik felhasználóval, a rendszer kérni fogja, hogy hozzon létre új kapcsolatot.
| Név | Típus | Description | Kötelező |
|---|---|---|---|
| API-kulcs (Formátum: Tulajdonos <személyes hozzáférési jogkivonata>) | securestring | Személyes hozzáférési jogkivonaton alapuló API-kulcs | True |
| Kiszolgáló gazdagépneve (példa: foo.cloud.databricks.com) | karakterlánc | A Databricks-munkaterület kiszolgálóneve | True |
| HTTP-elérési út (Példa: /sql/1.0/warehouses/a9c4e781bd29f315) | karakterlánc | A Databricks SQL Warehouse HTTP-elérési útja | True |
Szabályozási korlátok
| Name | Hívások | Megújítási időszak |
|---|---|---|
| API-hívások kapcsolatonként | 100 | 60 másodperc |
Műveletek
| Databricks Genie |
Genie-szóközök lekérdezése az adatok elemzéséhez. |
| Egyetlen feladat futtatásának lekérése |
Lekéri egy futtatás metaadatait. Az eredményekben lévő nagy tömbök lapszámozottak lesznek, ha azok túllépik a 100 elemet. Egyetlen futtatásra vonatkozó kérelem visszaadja a futtatás összes tulajdonságát, valamint a tömbtulajdonságok első 100 elemét (feladatok, job_clusters, job_parameters és repair_history). A next_page_token mezővel további eredményeket kereshet, és a későbbi kérésekben page_token adja át az értékét. Ha bármely tömbtulajdonság több mint 100 elemből áll, a rendszer további eredményeket ad vissza a későbbi kérések során. A további eredményeket nem tartalmazó tömbök a későbbi oldalakon üresek lesznek. |
| Egyetlen futtatás kimenetének lekérése |
Egyetlen feladatfuttatás kimenetének és metaadatainak lekérése. Ha egy jegyzetfüzet-feladat egy értéket a dbutils.notebook.exit() híváson keresztül ad vissza, ezzel a végpont használatával lekérheti ezt az értéket. A Databricks arra korlátozza ezt az API-t, hogy a kimenet első 5 MB-ját adja vissza. Ha nagyobb eredményt szeretne visszaadni, a feladateredményeket egy felhőalapú tárolási szolgáltatásban tárolhatja. Ez a végpont ellenőrzi, hogy a run_id paraméter érvényes-e, és egy 400-ás HTTP-állapotkódot ad vissza, ha a run_id paraméter érvénytelen. A futtatások 60 nap után automatikusan törlődnek. Ha 60 napon túl szeretne rájuk hivatkozni, a lejárat előtt mentenie kell a régi futtatási eredményeket. |
| Eredmény lekérése adattömbindex alapján |
Miután az utasítás végrehajtása sikeres volt, ez a kérés használható az összes adattömb index szerinti lekérésére. |
| Feladatok listázása |
Lekéri a feladatok listáját. |
| Futtatás megszakítása |
Feladatfuttatás vagy feladatfuttatás megszakítása. A futtatás aszinkron módon megszakad, így a kérés befejeződésekor továbbra is futhat. |
| SQL-utasítás végrehajtása |
Hajt végre egy SQL-utasítást, és opcionálisan várja meg az eredményeket egy adott időre. |
| Utasítás végrehajtásának megszakítása |
A végrehajtási utasítás visszavonását kéri. A hívónak le kell keresnie az állapotot a terminál állapotának megtekintéséhez. |
| Állapot ellenőrzése és eredmények lekérése |
Az utasítás állapotának, jegyzékének és eredményeinek lekérése |
| Új feladat futtatásának aktiválása |
Futtasson egy feladatot, és adja vissza az aktivált futtatás run_id. |
Databricks Genie
Genie-szóközök lekérdezése az adatok elemzéséhez.
Paraméterek
| Name | Kulcs | Kötelező | Típus | Description |
|---|---|---|---|---|
|
Genie szóköz azonosítója
|
genie_space_id | True | string |
Genie szóköz azonosítója |
Egyetlen feladat futtatásának lekérése
Lekéri egy futtatás metaadatait. Az eredményekben lévő nagy tömbök lapszámozottak lesznek, ha azok túllépik a 100 elemet. Egyetlen futtatásra vonatkozó kérelem visszaadja a futtatás összes tulajdonságát, valamint a tömbtulajdonságok első 100 elemét (feladatok, job_clusters, job_parameters és repair_history). A next_page_token mezővel további eredményeket kereshet, és a későbbi kérésekben page_token adja át az értékét. Ha bármely tömbtulajdonság több mint 100 elemből áll, a rendszer további eredményeket ad vissza a későbbi kérések során. A további eredményeket nem tartalmazó tömbök a későbbi oldalakon üresek lesznek.
Paraméterek
| Name | Kulcs | Kötelező | Típus | Description |
|---|---|---|---|---|
|
Futtatási azonosító
|
run_id | True | integer |
Annak a futtatásnak a canonical azonosítója, amelyhez le szeretné kérni a metaadatokat. Ez a mező kötelező. |
|
Előzmények belefoglalása
|
include_history | boolean |
Adja meg a javítási előzményeket a válaszban. |
|
|
Feloldott értékek belefoglalása
|
include_resolved_values | boolean |
A feloldott paraméterértékek belefoglalása a válaszba. |
|
|
Lap jogkivonata
|
page_token | string |
Az előző GetRun-válaszból visszaadott next_page_token használatával kérje le a futtatás tömbtulajdonságainak következő oldalát. |
Válaszok
- Törzs
- JobsRun
Egyetlen futtatás kimenetének lekérése
Egyetlen feladatfuttatás kimenetének és metaadatainak lekérése. Ha egy jegyzetfüzet-feladat egy értéket a dbutils.notebook.exit() híváson keresztül ad vissza, ezzel a végpont használatával lekérheti ezt az értéket. A Databricks arra korlátozza ezt az API-t, hogy a kimenet első 5 MB-ját adja vissza. Ha nagyobb eredményt szeretne visszaadni, a feladateredményeket egy felhőalapú tárolási szolgáltatásban tárolhatja. Ez a végpont ellenőrzi, hogy a run_id paraméter érvényes-e, és egy 400-ás HTTP-állapotkódot ad vissza, ha a run_id paraméter érvénytelen. A futtatások 60 nap után automatikusan törlődnek. Ha 60 napon túl szeretne rájuk hivatkozni, a lejárat előtt mentenie kell a régi futtatási eredményeket.
Paraméterek
| Name | Kulcs | Kötelező | Típus | Description |
|---|---|---|---|---|
|
Futtatási azonosító
|
run_id | True | integer |
A futtatás canonical azonosítója. |
Válaszok
- Törzs
- JobsRunOutput
Eredmény lekérése adattömbindex alapján
Miután az utasítás végrehajtása sikeres volt, ez a kérés használható az összes adattömb index szerinti lekérésére.
Paraméterek
| Name | Kulcs | Kötelező | Típus | Description |
|---|---|---|---|---|
|
Utasítás azonosítója
|
statement_id | True | string |
Utasítás azonosítója |
|
Adattömb indexe
|
chunk_index | True | string |
Adattömb indexe |
Válaszok
- Törzs
- SqlResultData
Feladatok listázása
Lekéri a feladatok listáját.
Paraméterek
| Name | Kulcs | Kötelező | Típus | Description |
|---|---|---|---|---|
|
Limit
|
limit | integer |
A visszaadni kívánt feladatok száma. Ennek az értéknek 0-nál nagyobbnak és 100-nál kisebbnek vagy egyenlőnek kell lennie. Az alapértelmezett érték 20. |
|
|
Tevékenységek kibontása
|
expand_tasks | boolean |
A feladat és a fürt részleteinek megadása a válaszban. Vegye figyelembe, hogy csak az első 100 elem jelenik meg. Használja a :method:jobs/get to paginate to paginate through all tasks and clusters. |
|
|
Feladat neve
|
name | string |
Szűrő a listára a pontos (kis- és nagybetűket nem érzékelyítő) feladatnév alapján. |
|
|
Lap jogkivonata
|
page_token | string |
Az előző kérésből visszaadott next_page_token vagy prev_page_token használatával listázhatja a feladatok következő vagy előző oldalát. |
Válaszok
- Törzs
- JobsListJobsResponse
Futtatás megszakítása
Feladatfuttatás vagy feladatfuttatás megszakítása. A futtatás aszinkron módon megszakad, így a kérés befejeződésekor továbbra is futhat.
Paraméterek
| Name | Kulcs | Kötelező | Típus | Description |
|---|---|---|---|---|
|
run_id
|
run_id | True | integer |
Ez a mező kötelező. |
SQL-utasítás végrehajtása
Hajt végre egy SQL-utasítást, és opcionálisan várja meg az eredményeket egy adott időre.
Paraméterek
| Name | Kulcs | Kötelező | Típus | Description |
|---|---|---|---|---|
|
warehouse_id
|
warehouse_id | True | string |
Célraktár azonosítója |
|
kimutatás
|
statement | True | string |
A végrehajtandó SQL-utasítás. Az utasítás paraméterezhető, lásd a paramétereket |
|
név
|
name | True | string |
Paraméterjelölő neve |
|
típus
|
type | string |
Paraméter adattípusa |
|
|
value
|
value | string |
Paraméter értéke |
|
|
katalógus
|
catalog | string |
Alapértelmezett katalógus a végrehajtáshoz |
|
|
séma
|
schema | string |
Alapértelmezett séma a végrehajtáshoz |
|
|
hajlam
|
disposition | string |
Eredménylehívási mód |
|
|
format
|
format | string |
Eredményhalmaz formátuma |
|
|
on_wait_timeout
|
on_wait_timeout | string |
Művelet időtúllépéskor |
|
|
wait_timeout
|
wait_timeout | string |
Az eredmény várakozási időtúllépése |
|
|
byte_limit
|
byte_limit | integer |
Eredmény bájtkorlátja |
|
|
row_limit
|
row_limit | integer |
Eredménysorkorlát |
Válaszok
Utasítás végrehajtási válasza
- Törzs
- SqlStatementResponse
Utasítás végrehajtásának megszakítása
A végrehajtási utasítás visszavonását kéri. A hívónak le kell keresnie az állapotot a terminál állapotának megtekintéséhez.
Paraméterek
| Name | Kulcs | Kötelező | Típus | Description |
|---|---|---|---|---|
|
Utasítás azonosítója
|
statement_id | True | string |
Utasítás azonosítója |
Állapot ellenőrzése és eredmények lekérése
Az utasítás állapotának, jegyzékének és eredményeinek lekérése
Paraméterek
| Name | Kulcs | Kötelező | Típus | Description |
|---|---|---|---|---|
|
Utasítás azonosítója
|
statement_id | True | string |
Utasítás azonosítója |
Válaszok
Utasítás végrehajtási válasza
- Törzs
- SqlStatementResponse
Új feladat futtatásának aktiválása
Futtasson egy feladatot, és adja vissza az aktivált futtatás run_id.
Paraméterek
| Name | Kulcs | Kötelező | Típus | Description |
|---|---|---|---|---|
|
idempotency_token
|
idempotency_token | string |
Opcionális jogkivonat a feladatfuttatási kérelmek idempotensségének garantálásához. Ha már létezik futtatás a megadott jogkivonattal, a kérés nem hoz létre új futtatásokat, hanem a meglévő futtatás azonosítóját adja vissza. Ha a megadott jogkivonattal rendelkező futtatás törlődik, a rendszer hibát ad vissza. Ha megadja az idempotencia-jogkivonatot, hiba esetén újra próbálkozhat, amíg a kérés sikeres lesz. A Databricks garantálja, hogy pontosan egy futtatás indul el ezzel az idempotencia-jogkivonattal. Ennek a jogkivonatnak legfeljebb 64 karakter hosszúságúnak kell lennie. További információ : A feladatok idempotensségének biztosítása. |
|
|
job_id
|
job_id | True | integer |
A végrehajtandó feladat azonosítója |
|
job_parameters
|
job_parameters | object |
A futtatás során használt feladatszintű paraméterek. például "param": "overriding_val" |
|
|
csak
|
only | array of string |
A feladaton belül futtatandó feladatkulcsok listája. Ha ez a mező nincs megadva, a feladat összes feladata lefut. |
|
|
performance_target
|
performance_target | string | ||
|
full_refresh
|
full_refresh | boolean |
Ha igaz, teljes frissítést indít el a delta élő táblán. |
|
|
enabled
|
enabled | True | boolean |
Ha igaz, engedélyezze az üzenetsor-készítést a feladathoz. Ez egy kötelező mező. |
Válaszok
- Törzs
- JobsRunNowResponse
Definíciók
Objektum
SqlBaseChunkInfo
Az eredményhalmaz-adattömb metaadatai
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
byte_count
|
byte_count | integer |
Az eredménytömb bájtjainak száma |
|
chunk_index
|
chunk_index | integer |
Pozíció az eredményhalmaz-adattömbök sorrendjében |
|
row_count
|
row_count | integer |
Az eredménytömb sorainak száma |
|
row_offset
|
row_offset | integer |
Kezdősor eltolása az eredményhalmazban |
SqlColumnInfo
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
név
|
name | string |
Oszlop név |
|
pozíció
|
position | integer |
Oszlop pozíciója (0-alapú) |
|
type_interval_type
|
type_interval_type | string |
Intervallumtípus formátuma |
|
type_name
|
type_name | SqlColumnInfoTypeName |
Az alapadattípus neve. Ez nem tartalmazza az olyan összetett típusok részleteit, mint a STRUCT, a MAP vagy a ARRAY. |
|
type_precision
|
type_precision | integer |
TIZEDES típusú számjegyek száma |
|
type_scale
|
type_scale | integer |
TIZEDES típusú tizedesjegyek száma |
|
type_text
|
type_text | string |
Az SQL-típus teljes specifikációja |
SqlColumnInfoTypeName
Az alapadattípus neve. Ez nem tartalmazza az olyan összetett típusok részleteit, mint a STRUCT, a MAP vagy a ARRAY.
Az alapadattípus neve. Ez nem tartalmazza az olyan összetett típusok részleteit, mint a STRUCT, a MAP vagy a ARRAY.
SqlStatementResponse
Utasítás végrehajtási válasza
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
jegyzékfájl
|
manifest | SqlResultManifest |
Eredményhalmaz sémája és metaadatai |
|
eredmény
|
result | SqlResultData | |
|
statement_id
|
statement_id | string |
Utasítás azonosítója |
|
állapot
|
status | SqlStatementStatus |
Utasítás végrehajtási állapota |
SqlResultManifest
Eredményhalmaz sémája és metaadatai
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
Darabokat
|
chunks | array of SqlBaseChunkInfo |
Eredménytömb metaadatai |
|
format
|
format | string | |
|
séma
|
schema | SqlResultSchema |
Eredményhalmaz oszlopdefiníciói |
|
total_byte_count
|
total_byte_count | integer |
Összes bájt az eredményhalmazban |
|
total_chunk_count
|
total_chunk_count | integer |
Adattömbök teljes száma |
|
total_row_count
|
total_row_count | integer |
Sorok teljes száma |
|
megcsonkított
|
truncated | boolean |
Eredmény csonkolásának állapota |
SqlStatementStatus
Utasítás végrehajtási állapota
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
hiba
|
error | SqlServiceError | |
|
state
|
state | SqlStatementState |
Utasítás végrehajtási állapota |
SqlStatementState
SqlServiceError
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
error_code
|
error_code | string | |
|
üzenet
|
message | string |
Hibaüzenet |
SqlResultSchema
Eredményhalmaz oszlopdefiníciói
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
column_count
|
column_count | integer | |
|
columns
|
columns | array of SqlColumnInfo |
SqlResultData
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
byte_count
|
byte_count | integer |
Bájtok az eredménytömbben |
|
chunk_index
|
chunk_index | integer |
Adattömb pozíciója |
|
data_array
|
data_array | SqlJsonArray |
Tömbök tömbje sztringértékekkel |
|
external_links
|
external_links | array of SqlExternalLink | |
|
next_chunk_index
|
next_chunk_index | integer |
Következő adattömbindex |
|
next_chunk_internal_link
|
next_chunk_internal_link | string |
Következő adattömb hivatkozása |
|
row_count
|
row_count | integer |
Sorok az adattömbben |
|
row_offset
|
row_offset | integer |
Kezdő sor eltolása |
SqlJsonArray
Tömbök tömbje sztringértékekkel
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
Elemek
|
array of |
SqlExternalLink
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
byte_count
|
byte_count | integer |
Bájtok adattömbben |
|
chunk_index
|
chunk_index | integer |
Adattömb pozíciója |
|
kipárolgás
|
expiration | date-time |
Hivatkozás lejárati ideje |
|
external_link
|
external_link | string | |
|
http_headers
|
http_headers | object |
Szükséges HTTP-fejlécek |
|
next_chunk_index
|
next_chunk_index | integer |
Következő adattömbindex |
|
next_chunk_internal_link
|
next_chunk_internal_link | string |
Következő adattömb hivatkozása |
|
row_count
|
row_count | integer |
Sorok az adattömbben |
|
row_offset
|
row_offset | integer |
Kezdő sor eltolása |
JobsRunNowResponse
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
run_id
|
run_id | integer |
Az újonnan aktivált futtatás globálisan egyedi azonosítója. |
JobsPerformanceTarget
JobsPipelineParams
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
full_refresh
|
full_refresh | boolean |
Ha igaz, teljes frissítést indít el a delta élő táblán. |
JobsQueueSettings
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
enabled
|
enabled | boolean |
Ha igaz, engedélyezze az üzenetsor-készítést a feladathoz. Ez egy kötelező mező. |
JobsListJobsResponse
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
jobs
|
jobs | array of JobsBaseJob |
A feladatok listája. Csak akkor szerepel a válaszban, ha vannak felsorolandó feladatok. |
|
next_page_token
|
next_page_token | string |
Egy jogkivonat, amely a feladatok következő oldalának listázására használható (ha van). |
|
prev_page_token
|
prev_page_token | string |
Egy jogkivonat, amely a feladatok előző oldalának listázására használható (ha van ilyen). |
JobsBaseJob
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
created_time
|
created_time | integer |
A feladat létrehozásának időpontja ezredmásodpercben (ezredmásodpercben, 1970. 01. 01. (UTC) óta). |
|
creator_user_name
|
creator_user_name | string |
A létrehozó felhasználóneve. Ez a mező nem lesz belefoglalva a válaszba, ha a felhasználót már törölték. |
|
effective_budget_policy_id
|
effective_budget_policy_id | uuid |
A feladat által költség-hozzárendelési célokra használt költségvetési szabályzat azonosítója. Ez (sorrendben) beállítható: 1. Költségvetés-rendszergazdák a fiókon vagy a munkaterület 2. konzolján keresztül. A feladatok felhasználói felülete a feladat részletei lapon és a Jobs API a budget_policy_id 3 használatával. Halasztott alapértelmezett érték a run_as identitás akadálymentes költségvetési szabályzatai alapján a feladatlétrehozás vagy -módosítás során. |
|
van_még
|
has_more | boolean |
Azt jelzi, hogy a feladat több olyan tömbtulajdonsággal (tevékenység, job_clusters) rendelkezik-e, amelyek nem jelennek meg. Ezek a :method:jobs/get végponton keresztül érhetők el. Ez csak az API 2.2 :method:jobs/list requests with expand_tasks=true(metódus:jobs/list requests with expand_tasks=true) esetében releváns. |
|
job_id
|
job_id | integer |
A feladat canonical azonosítója. |
|
beállítások
|
settings | JobsJobSettings | |
|
trigger_state
|
trigger_state | JobsTriggerStateProto |
JobsJobSettings
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
budget_policy_id
|
budget_policy_id | uuid |
A felhasználó azonosítója megadta a feladathoz használni kívánt költségvetési szabályzatot. Ha nincs megadva, a feladat létrehozásakor vagy módosításakor egy alapértelmezett költségvetési szabályzat alkalmazható. Tekintse meg a számítási feladat által használt költségvetési szabályzat effective_budget_policy_id. |
|
folyamatos
|
continuous | JobsContinuous | |
|
központi telepítés
|
deployment | JobsJobDeployment | |
|
leírás
|
description | string |
A feladat opcionális leírása. A maximális hossz 27700 karakter az UTF-8 kódolásban. |
|
edit_mode
|
edit_mode | JobsJobEditMode | |
|
email_notifications
|
email_notifications | JobsJobEmailNotifications | |
|
environments
|
environments | array of JobsJobEnvironment |
A feladat kiszolgáló nélküli tevékenységei által hivatkozott feladatvégző környezet specifikációinak listája. A kiszolgáló nélküli feladatokhoz környezet szükséges. Kiszolgáló nélküli jegyzetfüzet-feladatok esetén a környezet elérhető a jegyzetfüzet környezeti paneljén. Más kiszolgáló nélküli tevékenységek esetén a tevékenységkörnyezetet a tevékenységbeállítások environment_key használatával kell megadni. |
|
git_source
|
git_source | JobsGitSource | |
|
Egészség
|
health | JobsJobsHealthRules | |
|
job_clusters
|
job_clusters | array of JobsJobCluster |
A feladatfürt azon specifikációinak listája, amelyeket a feladat tevékenységei megoszthatnak és újra felhasználhatnak. A tárak nem deklarálhatók megosztott feladatfürtökben. Függő kódtárakat kell deklarálnia a feladatbeállításokban. |
|
max_concurrent_runs
|
max_concurrent_runs | integer |
A munka egyidejű futtatásainak opcionális, megengedett maximális száma. Állítsa be ezt az értéket, ha egyszerre több futtatás is végrehajtható ugyanabból a feladatból. Ez akkor hasznos, ha a feladatot gyakran ütemezve aktiválja, és engedélyezni szeretné, hogy az egymást követő futtatások átfedésben legyenek egymással, vagy ha több, a bemeneti paraméterektől eltérő futtatásokat szeretne aktiválni. Ez a beállítás csak az új futtatásokat érinti. Tegyük fel például, hogy a feladat egyidejűsége 4, és 4 egyidejű aktív futtatás van. Ha az egyidejűséget 3-ra állítja, az nem öli meg az aktív futtatásokat. Ettől kezdve azonban az új futtatások csak akkor lesznek kihagyva, ha 3-nál kevesebb aktív futtatás van. Ez az érték nem haladhatja meg az 1000-et. Ha ezt az értéket 0 értékre állítja, az összes új futtatást kihagyja. |
|
név
|
name | string |
Egy nem kötelező név a munka számára. A maximális hossz 4096 bájt UTF-8 kódolásban. |
|
notification_settings
|
notification_settings | JobsJobNotificationSettings | |
|
parameters
|
parameters | array of JobsJobParameterDefinition |
Feladatszintű paraméterdefiníciók |
|
performance_target
|
performance_target | JobsPerformanceTarget | |
|
üzenetsor
|
queue | JobsQueueSettings | |
|
run_as
|
run_as | JobsJobRunAs | |
|
ütemterv
|
schedule | JobsCronSchedule | |
|
tags
|
tags | object |
A feladathoz társított címkék térképe. Ezek a fürtre a feladatfürtök fürtcímkékként kerülnek továbbításra, és ugyanazokra a korlátozásokra vonatkoznak, mint a fürtcímkékre. A feladathoz legfeljebb 25 címke adható hozzá. |
|
tasks
|
tasks | array of JobsTask |
A feladat által végrehajtandó feladatspecifikációk listája. Legfeljebb 1000 elemet támogat írási végpontokban (:method:jobs/create, :method:jobs/reset, :method:jobs/update, :method:jobs/submit). Az olvasási végpontok csak 100 feladatot adnak vissza. Ha több mint 100 tevékenység érhető el, a :method:jobs/get paranccsal lapozhatja végig őket. Az objektumgyökér next_page_token mezőjével állapítsa meg, hogy vannak-e további eredmények. |
|
timeout_seconds
|
timeout_seconds | integer |
Minden egyes futtatáshoz egy opcionális időkorlát van alkalmazva. A 0 érték azt jelenti, hogy nincs időtúllépés. |
|
aktivál
|
trigger | JobsTriggerSettings | |
|
webhook_notifications
|
webhook_notifications | JobsWebhookNotifications |
JobsContinuous
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
pause_status
|
pause_status | JobsPauseStatus |
JobsPauseStatus
JobsJobDeployment
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
kedves
|
kind | JobsJobDeploymentKind | |
|
metadata_file_path
|
metadata_file_path | string |
Az üzembehelyezési metaadatokat tartalmazó fájl elérési útja. |
JobsJobDeploymentKind
JobsJobEditMode
JobsJobEmailNotifications
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
on_duration_warning_threshold_exceeded
|
on_duration_warning_threshold_exceeded | array of string |
Azoknak az e-mail-címeknek a listája, amelyről értesítést kell kapni, ha a futtatás időtartama meghaladja az állapotmező RUN_DURATION_SECONDS metrikájához megadott küszöbértéket. Ha a RUN_DURATION_SECONDS metrika nincs megadva a feladat állapotmezőjében, a rendszer nem küld értesítéseket. |
|
on_failure
|
on_failure | array of string |
A sikertelen futtatáskor értesítendő e-mail-címek listája. A futtatás sikertelennek minősül, ha INTERNAL_ERROR life_cycle_state vagy SIKERTELEN vagy TIMED_OUT result_state végződik. Ha ez nincs megadva a feladat létrehozásakor, a lista alaphelyzetbe állítása vagy frissítése üres, és a rendszer nem küld értesítéseket. |
|
on_start
|
on_start | array of string |
A futtatás kezdetekor értesítendő e-mail-címek listája. Ha nincs megadva a feladat létrehozása, alaphelyzetbe állítása vagy frissítése során, a lista üres, és a rendszer nem küld értesítéseket. |
|
on_streaming_backlog_exceeded
|
on_streaming_backlog_exceeded | array of string |
Azoknak az e-mail-címeknek a listája, amelyek értesítést küldenek arról, ha bármely streamnél túllépik a streamek hátralékának küszöbértékét. A streamelési teendőlista küszöbértékei az állapotmezőben a következő metrikák használatával állíthatók be: STREAMING_BACKLOG_BYTES, STREAMING_BACKLOG_RECORDS, STREAMING_BACKLOG_SECONDS vagy STREAMING_BACKLOG_FILES. A riasztás a metrikák 10 perces átlagán alapul. Ha a probléma továbbra is fennáll, az értesítések 30 percenként újraküldésre kerülnek. |
|
on_success
|
on_success | array of string |
A futtatás sikeres befejezésekor értesítendő e-mail-címek listája. A futtatás akkor tekinthető sikeresnek, ha a MŰVELET LEÁLLÍTOTT life_cycle_state és a SUCCESS result_state végződik. Ha nincs megadva a feladat létrehozása, alaphelyzetbe állítása vagy frissítése során, a lista üres, és a rendszer nem küld értesítéseket. |
JobsJobEnvironment
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
environment_key
|
environment_key | string |
Egy környezet kulcsa. Egy feladaton belül egyedinek kell lennie. |
|
Spec
|
spec | ComputeEnvironment |
ComputeEnvironment
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
Függőségek
|
dependencies | array of string |
A pip-függőségek listája a környezet pipverziója által támogatott módon. Minden függőség érvényes pipkövetelmény-fájlsoronként https://pip.pypa.io/en/stable/reference/requirements-file-format/. Az engedélyezett függőségek közé tartozik egy követelménykijelölő, egy archív URL-cím, egy helyi projektútvonal (például WSFS vagy UC-kötetek a Databricksben) vagy egy VCS-projekt URL-címe. |
|
environment_version
|
environment_version | string |
Szükséges. A környezet által használt környezeti verzió. Minden verzióhoz tartozik egy adott Python-verzió és egy Python-csomag. A verzió egy egész számból álló sztring. |
JobsGitSource
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
git_branch
|
git_branch | string |
A feladat által kivett és használt ág neve. Ez a mező nem adható meg git_tag vagy git_commit együtt. |
|
git_commit
|
git_commit | string |
Véglegesítse a feladat kivételét és használatát. Ez a mező nem adható meg git_branch vagy git_tag együtt. |
|
git_provider
|
git_provider | JobsGitProvider | |
|
git_snapshot
|
git_snapshot | JobsGitSnapshot | |
|
git_tag
|
git_tag | string |
A feladat által kivett és használt címke neve. Ez a mező nem adható meg git_branch vagy git_commit együtt. |
|
git_url
|
git_url | string |
A feladat által klónozandó adattár URL-címe. |
JobsGitProvider
JobsGitSnapshot
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
used_commit
|
used_commit | string |
A futtatás végrehajtásához használt véglegesítés. Ha git_branch van megadva, ez az ág fejére mutat a futtatáskor; ha git_tag van megadva, ez arra a véglegesítésre mutat, amely a címkére mutat. |
JobsJobsHealthRules
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
szabályok
|
rules | array of JobsJobsHealthRule |
JobsJobsHealthRule
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
metrika
|
metric | JobsJobsHealthMetric | |
|
operátor
|
op | JobsJobsHealthOperator | |
|
value
|
value | integer |
Megadja azt a küszöbértéket, amelyet az állapotmetrikának teljesítenie kell az állapotszabálynak való megfelelés érdekében. |
JobsJobsHealthMetric
JobsJobsHealthOperator
JobsJobCluster
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
job_cluster_key
|
job_cluster_key | string |
A feladatfürt egyedi neve. Ez a mező kötelező, és a feladaton belül egyedinek kell lennie. A JobTaskSettings erre a mezőre hivatkozva meghatározhatja, hogy melyik fürtöt kell elindítani a feladat végrehajtásához. |
|
new_cluster
|
new_cluster | ComputeClusterSpec |
ComputeClusterSpec
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
apply_policy_default_values
|
apply_policy_default_values | boolean |
Ha igaz értékre van állítva, a program a házirend rögzített és alapértelmezett értékeit használja a kihagyott mezőkhöz. Ha hamis értékre van állítva, a rendszer csak a szabályzat rögzített értékeit alkalmazza. |
|
automatikus méretezés
|
autoscale | ComputeAutoScale | |
|
autotermination_minutes
|
autotermination_minutes | integer |
Automatikusan leállítja a fürtöt, miután az meghatározott percekig inaktív. Ha nincs beállítva, a fürt nem fog automatikusan leállni. Ha meg van adva, a küszöbértéknek 10 és 10000 perc között kell lennie. A felhasználók ezt az értéket 0 értékre is beállíthatják az automatikus leállítás explicit letiltásához. |
|
azure_attributes
|
azure_attributes | ComputeAzureAttributes | |
|
cluster_log_conf
|
cluster_log_conf | ComputeClusterLogConf | |
|
klaszter_név
|
cluster_name | string |
A felhasználó által kért fürtnév. Ennek nem kell egyedinek lennie. Ha a létrehozáskor nincs megadva, a fürt neve üres karakterlánc lesz. Feladatfürtök esetén a rendszer automatikusan beállítja a fürt nevét a feladat- és feladatfuttatási azonosítók alapján. |
|
custom_tags
|
custom_tags | object |
További címkék a klaszter erőforrásokhoz. A Databricks a default_tags mellett az összes fürterőforrást (például AWS-példányokat és EBS-köteteket) megjelöli ezekkel a címkékkel. Megjegyzés: – Jelenleg a Databricks legfeljebb 45 egyéni címkét engedélyez – A fürtök csak akkor használhatják újra a felhőbeli erőforrásokat, ha az erőforrások címkéi a fürtcímkék részhalmazai |
|
data_security_mode
|
data_security_mode | ComputeDataSecurityMode | |
|
docker_image
|
docker_image | ComputeDockerImage | |
|
driver_instance_pool_id
|
driver_instance_pool_id | string |
A fürt illesztőprogramjához tartozó példánycsoport opcionális azonosítója. Ha az illesztőprogram-készlet nincs hozzárendelve, a csoport a példánykészletet az (instance_pool_id) azonosítóval használja. |
|
driver_node_type_id
|
driver_node_type_id | string |
A Spark-illesztőprogram csomóponttípusa. Vegye figyelembe, hogy ez a mező nem kötelező; ha nincs megadva, az illesztőcsomópont típusa ugyanazzal az értékkel lesz beállítva, mint node_type_id fent definiálva. Ezt a mezőt a node_type_id együtt nem szabad beállítani, ha virtual_cluster_size be van állítva. Ha driver_node_type_id, node_type_id és virtual_cluster_size is meg van adva, driver_node_type_id és node_type_id elsőbbséget élveznek. |
|
enable_elastic_disk
|
enable_elastic_disk | boolean |
Helyi tároló automatikus skálázása: ha engedélyezve van, ez a fürt dinamikusan további lemezterületet szerez be, ha a Spark-feldolgozók kevés lemezterületen futnak. Ehhez a funkcióhoz adott AWS-engedélyek szükségesek a megfelelő működéshez – további részletekért tekintse meg a felhasználói útmutatót. |
|
enable_local_disk_encryption
|
enable_local_disk_encryption | boolean |
Engedélyezzék-e a LUKS-ot a fürt virtuális gépeinek helyi lemezein? |
|
init_scripts
|
init_scripts | array of ComputeInitScriptInfo |
Init-szkriptek tárolásának konfigurációja. Tetszőleges számú célhely megadható. A szkriptek egymás után, a megadott sorrendben lesznek végrehajtva. Ha cluster_log_conf van megadva, az init szkriptnaplók a cél/<>fürtazonosító</init_scripts lesznek elküldve>. |
|
instance_pool_id
|
instance_pool_id | string |
Annak a példánykészletnek az opcionális azonosítója, amelyhez a fürt tartozik. |
|
is_single_node
|
is_single_node | boolean |
Ez a mező csak akkor használható, ha kind = CLASSIC_PREVIEW. Ha igaz értékre van állítva, a Databricks automatikusan beállít egy csomóponttal kapcsolatos custom_tags, spark_conf és num_workers |
|
kedves
|
kind | ComputeKind | |
|
node_type_id
|
node_type_id | string |
Ez a mező egyetlen értéken keresztül kódolja a fürtben lévő Spark-csomópontok számára elérhető erőforrásokat. Például, a Spark csomópontok előkészíthetők és optimalizálhatók memória- vagy számításigényes feladatokhoz. Az elérhető csomóponttípusok listája a :method:clusters/listNodeTypes API-hívással kérhető le. |
|
num_workers
|
num_workers | integer |
Azoknak a munkavégző csomópontoknak a száma, amellyel ennek a fürtnek rendelkeznie kell. A fürtök egyetlen Spark-illesztőprogramot és num_workers végrehajtókat num_workers + 1 Spark-csomóponthoz. Megjegyzés: Egy fürt tulajdonságainak olvasásakor ez a mező a feldolgozók kívánt számát tükrözi a tényleges feldolgozók száma helyett. Ha például egy fürtöt 5-ről 10-re méreteznek át, ez a mező azonnal frissül a 10 feldolgozó célméretének megfelelően, míg a spark_info felsorolt feldolgozók fokozatosan 5-ről 10-re nőnek az új csomópontok kiépítésekor. |
|
policy_id
|
policy_id | string |
A fürt létrehozásához használt fürtszabályzat azonosítója, ha van ilyen. |
|
runtime_engine
|
runtime_engine | ComputeRuntimeEngine | |
|
single_user_name
|
single_user_name | string |
Egyetlen felhasználónév, ha data_security_mode SINGLE_USER |
|
spark_conf
|
spark_conf | object |
Nem kötelező, felhasználó által megadott Spark-konfigurációs kulcs-érték párokat tartalmazó objektum. A felhasználók a spark.driver.extraJavaOptions és a spark.executor.extraJavaOptions használatával további JVM-beállításokat is átadhatnak az illesztőprogramnak és a végrehajtóknak. |
|
spark_env_vars
|
spark_env_vars | object |
Nem kötelező, felhasználó által megadott környezeti változókulcs-érték párokat tartalmazó objektum. Vegye figyelembe, hogy az űrlap kulcs-érték párja (X,Y) az illesztőprogram és a feldolgozók indításakor a következőképpen lesz exportálva (például X='Y'). További SPARK_DAEMON_JAVA_OPTS megadásához javasoljuk, hogy fűzze hozzá őket a $SPARK_DAEMON_JAVA_OPTS-hoz az alábbi példában látható módon. Ez biztosítja, hogy az összes alapértelmezett databricks által felügyelt környezeti változó is szerepel benne. Példa Spark-környezeti változók: {"SPARK_WORKER_MEMORY": "28000m", "SPARK_LOCAL_DIRS": "/local_disk0"} vagy {"SPARK_DAEMON_JAVA_OPTS": "$SPARK_DAEMON_JAVA_OPTS -Dspark.shuffle.service.enabled=true"} |
|
spark_version
|
spark_version | string |
A fürt Spark-verziója, például 3.3.x-scala2.11. Az elérhető Spark-verziók listája a :method:clusters/sparkVersions API-hívással kérhető le. |
|
ssh_public_keys
|
ssh_public_keys | array of string |
Nyilvános SSH-kulcs tartalma, amely a fürt minden Spark-csomópontjára fel lesz adva. A megfelelő titkos kulcsokkal bejelentkezhet az ubuntu felhasználónévvel a 2200-s porton. Legfeljebb 10 kulcs adható meg. |
|
use_ml_runtime
|
use_ml_runtime | boolean |
Ez a mező csak akkor használható, ha kind = CLASSIC_PREVIEW. effective_spark_version spark_version (DBR-kiadás) határozza meg, ez a mező use_ml_runtime, és hogy node_type_id gpu-csomópont-e vagy sem. |
|
workload_type
|
workload_type | ComputeWorkloadType |
ComputeAutoScale
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
max_workers
|
max_workers | integer |
Azoknak a dolgozóknak a maximális száma, akikre a fürt túlterhelt állapotban felskálázható. Vegye figyelembe, hogy max_workers szigorúan nagyobbnak kell lennie, mint min_workers. |
|
min_workers
|
min_workers | integer |
Azoknak a dolgozóknak a minimális száma, akikre a fürt kihasználatlan állapotban leskálázható. A fürt kezdeti számú feldolgozója is lesz a létrehozás után. |
ComputeAzureAttributes
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
elérhetőség
|
availability | ComputeAzureAvailability | |
|
first_on_demand
|
first_on_demand | integer |
A fürt első first_on_demand csomópontja igény szerinti példányokra lesz helyezve. Ennek az értéknek 0-nál nagyobbnak kell lennie annak érdekében, hogy a fürtillesztő csomópont igény szerinti példányon legyen elhelyezve. Ha ez az érték nagyobb vagy egyenlő az aktuális fürtméretnél, az összes csomópont igény szerinti példányokra lesz helyezve. Ha ez az érték kisebb, mint az aktuális fürtméret, first_on_demand csomópontok igény szerinti példányokra kerülnek, a többi pedig rendelkezésre állási példányokra lesz helyezve. Vegye figyelembe, hogy ez az érték nem befolyásolja a fürt méretét, és jelenleg nem mutálható egy fürt élettartama alatt. |
|
log_analytics_info
|
log_analytics_info | ComputeLogAnalyticsInfo | |
|
spot_bid_max_price
|
spot_bid_max_price | double |
Az Azure-beli kihasználatlan példányokhoz használandó maximális ajánlati ár. Az ajánlat maximális ára nem lehet magasabb, mint a példány igény szerinti ára. Ha nincs megadva, az alapértelmezett érték -1, amely azt határozza meg, hogy a példányt nem lehet kizárni az ár alapján, és csak a rendelkezésre állás alapján. Ezenkívül az értéknek 0 vagy -1 kell lennie > . |
ComputeAzureAvailability
ComputeLogAnalyticsInfo
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
log_analytics_primary_key
|
log_analytics_primary_key | string | |
|
log_analytics_workspace_id
|
log_analytics_workspace_id | string |
ComputeClusterLogConf
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
dbfs
|
dbfs | ComputeDbfsStorageInfo | |
|
volumes
|
volumes | ComputeVolumesStorageInfo |
ComputeDbfsStorageInfo
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
cél
|
destination | string |
dbfs célhely, pl. dbfs:/my/path |
ComputeVolumesStorageInfo
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
cél
|
destination | string |
UC-kötetek célhelye, például /Volumes/catalog/schema/vol1/init-scripts/setup-datadog.sh vagy dbfs:/Volumes/catalog/schema/vol1/init-scripts/setup-datadog.sh |
ComputeDataSecurityMode
ComputeDockerImage
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
basic_auth
|
basic_auth | ComputeDockerBasicAuth | |
|
URL-cím
|
url | string |
A Docker-rendszerkép URL-címe. |
ComputeDockerBasicAuth
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
jelszó
|
password | string |
A felhasználó jelszava |
|
felhasználónév
|
username | string |
A felhasználó neve |
ComputeInitScriptInfo
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
abfss
|
abfss | ComputeAdlsgen2Info | |
|
fájl
|
file | ComputeLocalFileInfo | |
|
Gcs
|
gcs | ComputeGcsStorageInfo | |
|
volumes
|
volumes | ComputeVolumesStorageInfo | |
|
munkaterület
|
workspace | ComputeWorkspaceStorageInfo |
ComputeAdlsgen2Info
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
cél
|
destination | string |
abfss célhely, például abfss:// container-name<@>storage-account-name.dfs.core.windows.net/<> directory-name<>. |
ComputeLocalFileInfo
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
cél
|
destination | string |
helyi fájl célhelye, például fájl:/my/local/file.sh |
ComputeGcsStorageInfo
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
cél
|
destination | string |
GCS-cél/URI, például gs://my-bucket/some-prefix |
ComputeWorkspaceStorageInfo
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
cél
|
destination | string |
wsfs célhely, például munkaterület:/cluster-init-scripts/setup-datadog.sh |
ComputeKind
ComputeRuntimeEngine
ComputeWorkloadType
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
clients
|
clients | ComputeClientsTypes |
ComputeClientsTypes
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
jobs
|
jobs | boolean |
A feladatok beállítása esetén a fürt használható feladatokhoz |
|
Notebook
|
notebooks | boolean |
A jegyzetfüzetek beállítása esetén ez a fürt használható jegyzetfüzetekhez |
JobsJobNotificationSettings
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
no_alert_for_canceled_runs
|
no_alert_for_canceled_runs | boolean |
Ha igaz, ne küldjön értesítéseket a on_failure megadott címzetteknek, ha a futtatás megszakadt. |
|
no_alert_for_skipped_runs
|
no_alert_for_skipped_runs | boolean |
Ha igaz, ne küldjön értesítéseket a on_failure megadott címzetteknek, ha a futtatás kimarad. |
JobsJobParameterDefinition
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
alapértelmezett
|
default | string |
A paraméter alapértelmezett értéke. |
|
név
|
name | string |
A megadott paraméter neve. Csak alfanumerikus karaktereket, _, -és . |
JobsJobRunAs
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
service_principal_name
|
service_principal_name | string |
Aktív szolgáltatásnév alkalmazásazonosítója. A mező beállításához a servicePrincipal/user szerepkör szükséges. |
|
user_name
|
user_name | string |
Egy aktív munkaterület-felhasználó e-mail-címe. A nem rendszergazdai felhasználók ezt a mezőt csak saját e-mail-címükre állíthatják be. |
JobsCronSchedule
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
pause_status
|
pause_status | JobsPauseStatus | |
|
quartz_cron_expression
|
quartz_cron_expression | string |
Cron-kifejezés kvarcszintaxissal, amely egy feladat ütemezését írja le. Részletekért lásd a Cron Triggert . Ez a mező kötelező. |
|
timezone_id
|
timezone_id | string |
Java-időzón-azonosító. A feladat ütemezése ezzel az időzónával van megoldva. Részletekért lásd a Java TimeZone-t . Ez a mező kötelező. |
JobsTask
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
clean_rooms_notebook_task
|
clean_rooms_notebook_task | Object | |
|
condition_task
|
condition_task | JobsConditionTask | |
|
dashboard_task
|
dashboard_task | JobsDashboardTask | |
|
dbt_task
|
dbt_task | Object | |
|
depends_on
|
depends_on | array of JobsTaskDependency |
A tevékenység függőségi gráfját meghatározó objektumok választható tömbje. A tevékenység végrehajtása előtt az ebben a mezőben megadott összes tevékenységnek be kell fejeződnie. A feladat csak akkor fut, ha a run_if feltétel igaz. A kulcs task_key, az érték pedig a függő tevékenységhez rendelt név. |
|
leírás
|
description | string |
A feladat opcionális leírása. |
|
disable_auto_optimization
|
disable_auto_optimization | boolean |
Az automatikus optimalizálás letiltásának lehetősége kiszolgáló nélküli környezetben |
|
email_notifications
|
email_notifications | JobsTaskEmailNotifications | |
|
environment_key
|
environment_key | string |
Az a kulcs, amely egy feladat környezeti specifikációjára hivatkozik. Ez a mező szükséges a Python-szkriptekhez, a Python-kerékhez és a dbt-feladatokhoz kiszolgáló nélküli számítás használatakor. |
|
existing_cluster_id
|
existing_cluster_id | string |
Ha existing_cluster_id, az összes futtatáshoz használt meglévő fürt azonosítója. Ha feladatokat vagy feladatokat futtat egy meglévő fürtön, előfordulhat, hogy manuálisan kell újraindítania a fürtöt, ha az nem válaszol. Azt javasoljuk, hogy a nagyobb megbízhatóság érdekében új fürtökön futtassa a feladatokat és a feladatokat |
|
for_each_task
|
for_each_task | JobsForEachTask | |
|
Egészség
|
health | JobsJobsHealthRules | |
|
job_cluster_key
|
job_cluster_key | string |
Ha job_cluster_key, ezt a feladatot a rendszer a job.settings.job_clusters megadott fürt újrafelhasználásával hajtja végre. |
|
libraries
|
libraries | array of ComputeLibrary |
A fürtre telepíteni kívánt kódtárak választható listája. Az alapértelmezett érték egy üres lista. |
|
max_retries
|
max_retries | integer |
A sikertelen futtatás újrapróbálkozásának maximális száma nem kötelező. A futtatás sikertelennek minősül, ha a SIKERTELEN result_state vagy INTERNAL_ERROR life_cycle_state befejeződik. A -1 érték azt jelenti, hogy határozatlan időre újrapróbálkoznak, a 0 érték pedig azt jelenti, hogy soha nem próbálkozik újra. |
|
min_retry_interval_millis
|
min_retry_interval_millis | integer |
Opcionális minimális intervallum ezredmásodpercben a sikertelen futtatás kezdete és az azt követő újrapróbálkozási futtatás között. Az alapértelmezett viselkedés az, hogy a sikertelen futtatások azonnal újra próbálkoznak. |
|
new_cluster
|
new_cluster | ComputeClusterSpec | |
|
notebook_task
|
notebook_task | JobsNotebookTask | |
|
notification_settings
|
notification_settings | JobsTaskNotificationSettings | |
|
pipeline_task
|
pipeline_task | JobsPipelineTask | |
|
power_bi_task
|
power_bi_task | Object | |
|
python_wheel_task
|
python_wheel_task | JobsPythonWheelTask | |
|
retry_on_timeout
|
retry_on_timeout | boolean |
Nem kötelező házirend, amely meghatározza, hogy újrapróbálkozjon-e egy feladat, amikor az túllépi az időkorlátot. Az alapértelmezett viselkedés az, hogy ne próbálkozzon újra időtúllépéskor. |
|
run_if
|
run_if | JobsRunIf | |
|
run_job_task
|
run_job_task | JobsRunJobTask | |
|
spark_jar_task
|
spark_jar_task | JobsSparkJarTask | |
|
spark_python_task
|
spark_python_task | JobsSparkPythonTask | |
|
spark_submit_task
|
spark_submit_task | JobsSparkSubmitTask | |
|
sql_task
|
sql_task | Object | |
|
task_key
|
task_key | string |
A tevékenység egyedi neve. Ezzel a mezővel hivatkozhat erre a tevékenységre más tevékenységekből. Ez a mező kötelező, és a szülőfeladaton belül egyedinek kell lennie. Frissítéskor vagy alaphelyzetbe állításkor ez a mező a frissíteni vagy alaphelyzetbe állítani kívánt tevékenységekre hivatkozik. |
|
timeout_seconds
|
timeout_seconds | integer |
A feladat feladatának minden egyes futtatására alkalmazott opcionális időtúllépés. A 0 érték azt jelenti, hogy nincs időtúllépés. |
|
webhook_notifications
|
webhook_notifications | JobsWebhookNotifications |
JobsConditionTask
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
Balra
|
left | string |
A feltételfeladat bal operandusa. Lehet sztringérték, feladatállapot vagy paraméterhivatkozás. |
|
operátor
|
op | JobsConditionTaskOp | |
|
Jobbra
|
right | string |
A feltételfeladat megfelelő operandusa. Lehet sztringérték, feladatállapot vagy paraméterhivatkozás. |
JobsConditionTaskOp
JobsDashboardTask
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
dashboard_id
|
dashboard_id | string |
A frissíteni kívánt irányítópult azonosítója. |
|
előfizetés
|
subscription | JobsSubscription | |
|
warehouse_id
|
warehouse_id | string |
Nem kötelező: Az irányítópult ütemezéshez való végrehajtásához szükséges raktárazonosító. Ha nincs megadva, a rendszer az irányítópult alapértelmezett raktárát használja. |
JobsSubscription
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
custom_subject
|
custom_subject | string |
Nem kötelező: Lehetővé teszi, hogy a felhasználók egyéni tárgysort adjanak meg az előfizetőknek küldött e-mailben. |
|
Szüneteltetett
|
paused | boolean |
Ha igaz, az előfizetés nem küld e-maileket. |
|
Előfizetők
|
subscribers | array of JobsSubscriptionSubscriber |
Azoknak az előfizetőknek a listája, aki elküldi az irányítópult pillanatképét. |
JobsSubscriptionSubscriber
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
destination_id
|
destination_id | string |
A rendszer pillanatképet küld az irányítópultról a célhelyre, amikor a destination_id mező jelen van. |
|
user_name
|
user_name | string |
A rendszer pillanatképet küld az irányítópultról a felhasználó e-mail-címére, amikor a user_name mező jelen van. |
JobsSource
JobsTaskDependency
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
eredmény
|
outcome | string |
Csak feltételtevékenység-függőségek esetén adható meg. Annak a függő tevékenységnek az eredménye, amelyet a tevékenység futtatásához teljesíteni kell. |
|
task_key
|
task_key | string |
A tevékenység neve függ a tevékenységtől. |
JobsTaskEmailNotifications
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
on_duration_warning_threshold_exceeded
|
on_duration_warning_threshold_exceeded | array of string |
Azoknak az e-mail-címeknek a listája, amelyről értesítést kell kapni, ha a futtatás időtartama meghaladja az állapotmező RUN_DURATION_SECONDS metrikájához megadott küszöbértéket. Ha a RUN_DURATION_SECONDS metrika nincs megadva a feladat állapotmezőjében, a rendszer nem küld értesítéseket. |
|
on_failure
|
on_failure | array of string |
A sikertelen futtatáskor értesítendő e-mail-címek listája. A futtatás sikertelennek minősül, ha INTERNAL_ERROR life_cycle_state vagy SIKERTELEN vagy TIMED_OUT result_state végződik. Ha ez nincs megadva a feladat létrehozásakor, a lista alaphelyzetbe állítása vagy frissítése üres, és a rendszer nem küld értesítéseket. |
|
on_start
|
on_start | array of string |
A futtatás kezdetekor értesítendő e-mail-címek listája. Ha nincs megadva a feladat létrehozása, alaphelyzetbe állítása vagy frissítése során, a lista üres, és a rendszer nem küld értesítéseket. |
|
on_streaming_backlog_exceeded
|
on_streaming_backlog_exceeded | array of string |
Azoknak az e-mail-címeknek a listája, amelyek értesítést küldenek arról, ha bármely streamnél túllépik a streamek hátralékának küszöbértékét. A streamelési teendőlista küszöbértékei az állapotmezőben a következő metrikák használatával állíthatók be: STREAMING_BACKLOG_BYTES, STREAMING_BACKLOG_RECORDS, STREAMING_BACKLOG_SECONDS vagy STREAMING_BACKLOG_FILES. A riasztás a metrikák 10 perces átlagán alapul. Ha a probléma továbbra is fennáll, az értesítések 30 percenként újraküldésre kerülnek. |
|
on_success
|
on_success | array of string |
A futtatás sikeres befejezésekor értesítendő e-mail-címek listája. A futtatás akkor tekinthető sikeresnek, ha a MŰVELET LEÁLLÍTOTT life_cycle_state és a SUCCESS result_state végződik. Ha nincs megadva a feladat létrehozása, alaphelyzetbe állítása vagy frissítése során, a lista üres, és a rendszer nem küld értesítéseket. |
ComputeLibrary
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
Cran
|
cran | ComputeRCranLibrary | |
|
korsó
|
jar | string |
A telepíteni kívánt JAR-kódtár URI-ja. A támogatott URI-k közé tartoznak a munkaterület elérési útjai, a Unity Catalog köteteinek elérési útjai és az ADLS-URI-k. Például: {"jar": "/Workspace/path/to/library.jar" }, { "jar" : "/Volumes/path/to/library.jar" } vagy { "jar": "abfss://my-bucket/library.jar" }. Ha ADLS-t használ, győződjön meg arról, hogy a fürt olvasási hozzáféréssel rendelkezik a tárban. Előfordulhat, hogy az ADLS URI eléréséhez Microsoft Entra ID szolgáltatásnévvel kell elindítania a fürtöt. |
|
Maven
|
maven | ComputeMavenLibrary | |
|
pypi
|
pypi | ComputePythonPyPiLibrary | |
|
Követelmények
|
requirements | string |
A telepíteni kívánt requirements.txt fájl URI-ja. Csak a munkaterület elérési útjai és a Unity Katalógus köteteinek elérési útjai támogatottak. Például: {"requirements": "/Workspace/path/to/requirements.txt" } vagy { "requirements" : "/Volumes/path/to/requirements.txt" } |
|
whl
|
whl | string |
A telepítendő kerékkódtár URI-ja. A támogatott URI-k közé tartoznak a munkaterület elérési útjai, a Unity Catalog köteteinek elérési útjai és az ADLS-URI-k. Például: {"whl": "/Workspace/path/to/library.whl" }, { "whl" : "/Volumes/path/to/library.whl" } vagy { "whl": "abfss://my-bucket/library.whl" }. Ha ADLS-t használ, győződjön meg arról, hogy a fürt olvasási hozzáféréssel rendelkezik a tárban. Előfordulhat, hogy az ADLS URI eléréséhez Microsoft Entra ID szolgáltatásnévvel kell elindítania a fürtöt. |
JobsForEachTask
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
egyidejűség
|
concurrency | integer |
A tevékenység egyidejű futtatásának megengedett maximális száma nem kötelező. Állítsa be ezt az értéket, ha egyszerre több futtatás is végrehajtható a tevékenységből. |
|
Bemenetek
|
inputs | string |
Tömb a tevékenység iterálásához. Ez lehet JSON-sztring vagy tömbparaméterre mutató hivatkozás. |
|
feladat
|
task | Object |
ComputeRCranLibrary
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
csomag
|
package | string |
A telepíteni kívánt CRAN-csomag neve. |
|
adattár
|
repo | string |
Az az adattár, ahol a csomag megtalálható. Ha nincs megadva, a rendszer az alapértelmezett CRAN-adattárat használja. |
ComputeMavenLibrary
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
Koordináták
|
coordinates | string |
Gradle stílusú maven koordináták. Például: "org.jsoup:jsoup:1.7.2". |
|
Kizárások
|
exclusions | array of string |
Kizárandó függőségek listája. Például: ["slf4j:slf4j", "*:hadoop-client"]. Maven-függőségi kizárások: https://maven.apache.org/guides/introduction/introduction-to-optional-and-excludes-dependencies.html. |
|
adattár
|
repo | string |
Maven-adattár a Maven-csomag telepítéséhez. Ha nincs megadva, a Rendszer mind a Maven Central-adattárban, mind a Spark Packagesben keres. |
ComputePythonPyPiLibrary
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
csomag
|
package | string |
A telepíteni kívánt pypi-csomag neve. A választható pontos verziós specifikáció is támogatott. Példák: "simplejson" és "simplejson==3.8.0". |
|
adattár
|
repo | string |
Az az adattár, ahol a csomag megtalálható. Ha nincs megadva, a rendszer az alapértelmezett pipindexet használja. |
JobsNotebookTask
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
base_parameters
|
base_parameters | object |
A feladat minden egyes futtatásához használandó alapparaméterek. Ha a futtatás a :method:jobs/run Now metódus meghívásával, megadott paraméterekkel történik, a rendszer egyesíti a két paraméter-leképezést. Ha ugyanaz a kulcs van megadva base_parameters és futtatáskor, a rendszer a futtatásból származó értéket használja. Feladatparaméter-változók használatával állítsa be a feladatfuttatásokkal kapcsolatos információkat tartalmazó paramétereket. Ha a jegyzetfüzet olyan paramétert használ, amely nincs megadva a feladat base_parameters vagy a futtatási felülbírálási paraméterekben, a rendszer a jegyzetfüzet alapértelmezett értékét használja. Kérje le ezeket a paramétereket egy jegyzetfüzetben a dbutils.widgets.get használatával. A mező JSON-ábrázolása nem haladhatja meg az 1 MB-ot. |
|
notebook_path
|
notebook_path | string |
A Databricks-munkaterületen vagy távoli adattárban futtatandó jegyzetfüzet elérési útja. A Databricks-munkaterületen tárolt jegyzetfüzetek esetében az elérési útnak abszolútnak kell lennie, és perjellel kell kezdődnie. Távoli adattárban tárolt jegyzetfüzetek esetében az elérési útnak relatívnak kell lennie. Ez a mező kötelező. |
|
adatforrás
|
source | JobsSource | |
|
warehouse_id
|
warehouse_id | string |
Nem kötelező warehouse_id a jegyzetfüzet SQL-raktáron való futtatásához. A klasszikus SQL-raktárak NEM támogatottak, használjon kiszolgáló nélküli vagy pro SQL-raktárakat. Vegye figyelembe, hogy az SQL-raktárak csak az SQL-cellákat támogatják; ha a jegyzetfüzet nem SQL-cellákat tartalmaz, a futtatás sikertelen lesz. |
JobsTaskNotificationSettings
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
alert_on_last_attempt
|
alert_on_last_attempt | boolean |
Ha igaz, ne küldjön értesítéseket a on_start megadott címzetteknek az újrapróbálkozási futtatásokról, és ne küldjön értesítéseket a on_failure megadott címzetteknek a futtatás utolsó újrapróbálkozásáig. |
|
no_alert_for_canceled_runs
|
no_alert_for_canceled_runs | boolean |
Ha igaz, ne küldjön értesítéseket a on_failure megadott címzetteknek, ha a futtatás megszakadt. |
|
no_alert_for_skipped_runs
|
no_alert_for_skipped_runs | boolean |
Ha igaz, ne küldjön értesítéseket a on_failure megadott címzetteknek, ha a futtatás kimarad. |
JobsPipelineTask
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
full_refresh
|
full_refresh | boolean |
Ha igaz, teljes frissítést indít el a delta élő táblán. |
|
pipeline_id
|
pipeline_id | string |
A végrehajtandó folyamatfeladat teljes neve. |
JobsPythonWheelTask
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
entry_point
|
entry_point | string |
Elnevezett belépési pont, ha nem létezik a csomag metaadataiban, akkor a függvényt közvetlenül a csomagból hajtja végre a $packageName.$entryPoint() |
|
named_parameters
|
named_parameters | object |
A Python-kerekes feladatnak átadott parancssori paraméterek ["--name=task", "--data=dbfs:/path/to/data.json"]. Hagyja üresen, ha a paraméterek nem null értékűek. |
|
package_name
|
package_name | string |
A végrehajtandó csomag neve |
|
parameters
|
parameters | array of string |
A Python-kerekes feladatnak átadott parancssori paraméterek. Hagyja üresen, ha named_parameters nem null értékű. |
JobsRunIf
JobsRunJobTask
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
job_id
|
job_id | integer |
Az eseményindító feladat azonosítója. |
|
job_parameters
|
job_parameters | object |
A feladat aktiválásához használt feladatszintű paraméterek. |
|
pipeline_params
|
pipeline_params | JobsPipelineParams |
JobsSparkJarTask
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
main_class_name
|
main_class_name | string |
A végrehajtandó fő metódust tartalmazó osztály teljes neve. Ezt az osztályt egy kódtárként megadott JAR-ben kell tárolni. A kódnak Spark-környezet beszerzéséhez a SparkContext.getOrCreate-ot kell használnia; ellenkező esetben a feladat futtatása sikertelen. |
|
parameters
|
parameters | array of string |
A fő metódusnak átadott paraméterek. A feladatfuttatásokkal kapcsolatos információkat tartalmazó paraméterek beállítására használja a Feladat paraméterváltozóit. |
JobsSparkPythonTask
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
parameters
|
parameters | array of string |
A Python-fájlnak átadott parancssori paraméterek. Feladatparaméter-változók használatával állítsa be a feladatfuttatásokkal kapcsolatos információkat tartalmazó paramétereket. |
|
python_file
|
python_file | string |
A végrehajtandó Python-fájl. A felhőalapú fájl URL-címei (például dbfs:/, s3:/, adls:/, gcs:/) és a munkaterület elérési útjai támogatottak. A Databricks-munkaterületen tárolt Python-fájlok esetében az elérési útnak abszolútnak kell lennie, és a következővel kell kezdődnie: /. Távoli adattárban tárolt fájlok esetében az elérési útnak relatívnak kell lennie. Ez a mező kötelező. |
|
adatforrás
|
source | JobsSource |
JobsSparkSubmitTask
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
parameters
|
parameters | array of string |
A Spark-küldésnek átadott parancssori paraméterek. Feladatparaméter-változók használatával állítsa be a feladatfuttatásokkal kapcsolatos információkat tartalmazó paramétereket. |
JobsWebhookNotifications
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
on_duration_warning_threshold_exceeded
|
on_duration_warning_threshold_exceeded | array of JobsWebhook |
Választható rendszerértesítési azonosítók listája, ha a futtatás időtartama meghaladja az állapotmező RUN_DURATION_SECONDS metrikájához megadott küszöbértéket. A on_duration_warning_threshold_exceeded tulajdonsághoz legfeljebb 3 cél adható meg. |
|
on_failure
|
on_failure | array of JobsWebhook |
A futtatás sikertelensége esetén meghívandó rendszerértesítési azonosítók opcionális listája. A on_failure tulajdonsághoz legfeljebb 3 cél adható meg. |
|
on_start
|
on_start | array of JobsWebhook |
A futtatás indításakor meghívandó rendszerértesítési azonosítók választható listája. A on_start tulajdonsághoz legfeljebb 3 célhely adható meg. |
|
on_streaming_backlog_exceeded
|
on_streaming_backlog_exceeded | array of JobsWebhook |
A rendszerértesítés azonosítóinak opcionális listája, amelyet meghívhat, ha bármely stream esetében túllépi a streameléssel kapcsolatos hátralék küszöbértékét. A streamelési teendőlista küszöbértékei az állapotmezőben a következő metrikák használatával állíthatók be: STREAMING_BACKLOG_BYTES, STREAMING_BACKLOG_RECORDS, STREAMING_BACKLOG_SECONDS vagy STREAMING_BACKLOG_FILES. A riasztás a metrikák 10 perces átlagán alapul. Ha a probléma továbbra is fennáll, az értesítések 30 percenként újraküldésre kerülnek. A on_streaming_backlog_exceeded tulajdonsághoz legfeljebb 3 cél adható meg. |
|
on_success
|
on_success | array of JobsWebhook |
A futtatás sikeres befejezésekor meghívandó rendszerértesítési azonosítók opcionális listája. A on_success tulajdonsághoz legfeljebb 3 célhely adható meg. |
JobsWebhook
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
azonosító
|
id | string |
JobsTriggerSettings
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
file_arrival
|
file_arrival | JobsFileArrivalTriggerConfiguration | |
|
pause_status
|
pause_status | JobsPauseStatus | |
|
időszaki
|
periodic | JobsPeriodicTriggerConfiguration |
JobsFileArrivalTriggerConfiguration
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
min_time_between_triggers_seconds
|
min_time_between_triggers_seconds | integer |
Ha be van állítva, az eseményindító csak az eseményindító legutóbbi elindítása óta eltelt idő után indítja el a futtatásokat. A minimálisan megengedett érték 60 másodperc |
|
URL-cím
|
url | string |
A fájl érkezésekor monitorozni kívánt URL-cím. Az elérési útnak a külső hely gyökerére vagy alútjára kell mutatnia. |
|
wait_after_last_change_seconds
|
wait_after_last_change_seconds | integer |
Ha be van állítva, az eseményindító csak akkor indítja el a futtatásokat, ha a megadott ideig nem történt fájltevékenység. Ez lehetővé teszi, hogy megvárja a bejövő fájlok kötegének érkezését, mielőtt elindítja a futtatást. A minimálisan megengedett érték 60 másodperc. |
JobsPeriodicTriggerConfiguration
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
interval
|
interval | integer |
Az az időköz, amelyen az eseményindítónak futnia kell. |
|
egység
|
unit | JobsPeriodicTriggerConfigurationTimeUnit |
JobsPeriodicTriggerConfigurationTimeUnit
JobsTriggerStateProto
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
file_arrival
|
file_arrival | JobsFileArrivalTriggerState |
JobsFileArrivalTriggerState
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
using_file_events
|
using_file_events | boolean |
Azt jelzi, hogy az eseményindító fájlesemények használatával észleli-e a fájl érkezését. |
JobsRun
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
attempt_number
|
attempt_number | integer |
A futtatási kísérlet sorszáma aktivált feladatfuttatás esetén. A futtatás kezdeti kísérlete 0 attempt_number. Ha a kezdeti futtatási kísérlet meghiúsul, és a feladat újrapróbálkozási szabályzattal (max_retries > 0) rendelkezik, a rendszer a következő futtatásokat az eredeti kísérlet azonosítójának original_attempt_run_id és egy növekvő attempt_number hozza létre. A futtatások csak addig próbálkoznak újra, amíg sikeresek nem lesznek, és a maximális attempt_number megegyezik a feladat max_retries értékével. |
|
cleanup_duration
|
cleanup_duration | integer |
Ezredmásodperc alatt leállítja a fürtöt, és megtisztítja a kapcsolódó összetevőket. A tevékenységfuttatás időtartama a setup_duration, a execution_duration és a cleanup_duration összege. A cleanup_duration mező 0 értékre van állítva többfeladatos feladatok futtatása esetén. A többfeladatos feladatfuttatás teljes időtartama a run_duration mező értéke. |
|
cluster_instance
|
cluster_instance | JobsClusterInstance | |
|
cluster_spec
|
cluster_spec | JobsClusterSpec | |
|
creator_user_name
|
creator_user_name | string |
A létrehozó felhasználóneve. Ez a mező nem lesz belefoglalva a válaszba, ha a felhasználót már törölték. |
|
leírás
|
description | string |
A futtatás leírása |
|
effective_performance_target
|
effective_performance_target | JobsPerformanceTarget | |
|
befejezési_idő
|
end_time | integer |
Az időpont, amikor ez a futtatás a korszak ezredmásodpercében végződött (ezredmásodperc 1970. 01. 01. (UTC) óta). Ez a mező 0 értékre van állítva, ha a feladat még fut. |
|
execution_duration
|
execution_duration | integer |
Ezredmásodpercben eltelt idő a JAR-ban vagy a jegyzetfüzetben lévő parancsok végrehajtásához, amíg azok befejeződtek, sikertelenek, időtúllépések, megszakítások vagy váratlan hiba nem történt. A tevékenységfuttatás időtartama a setup_duration, a execution_duration és a cleanup_duration összege. A execution_duration mező 0 értékre van állítva többfeladatos feladatfuttatásokhoz. A többfeladatos feladatfuttatás teljes időtartama a run_duration mező értéke. |
|
git_source
|
git_source | JobsGitSource | |
|
van_még
|
has_more | boolean |
Azt jelzi, hogy a futtatás több olyan tömbtulajdonsággal (feladatokkal, job_clusters) rendelkezik-e, amelyek nem jelennek meg. Ezek a :method:jobs/getrun végponton keresztül érhetők el. Ez csak az API 2.2 :method:jobs/listruns kérelmek esetében releváns expand_tasks=true értékekkel. |
|
job_clusters
|
job_clusters | array of JobsJobCluster |
A feladatfürt azon specifikációinak listája, amelyeket a feladat tevékenységei megoszthatnak és újra felhasználhatnak. A tárak nem deklarálhatók megosztott feladatfürtökben. Függő kódtárakat kell deklarálnia a feladatbeállításokban. Ha több mint 100 feladatfürt érhető el, a :method:jobs/getrun paranccsal lapozhatja őket. |
|
job_id
|
job_id | integer |
A futtatásokat tartalmazó feladat canonical azonosítója. |
|
job_parameters
|
job_parameters | array of JobsJobParameter |
A futtatás során használt feladatszintű paraméterek |
|
job_run_id
|
job_run_id | integer |
Annak a feladatfuttatásnak az azonosítója, amelyhez ez a futtatás tartozik. Az örökölt és egyfeladatos feladatok futtatásakor a mező a feladatfuttatás azonosítójával van feltöltve. Tevékenységfuttatások esetén a mező annak a feladatfuttatásnak az azonosítójával van feltöltve, amelyhez a tevékenységfuttatás tartozik. |
|
next_page_token
|
next_page_token | string |
A tömbtulajdonságok következő oldalának listázására használható jogkivonat. |
|
original_attempt_run_id
|
original_attempt_run_id | integer |
Ha ez a futtatás egy korábbi futtatási kísérlet újrapróbálkozása, akkor ez a mező az eredeti kísérlet run_id tartalmazza; ellenkező esetben ugyanaz, mint a run_id. |
|
overriding_parameters
|
overriding_parameters | JobsRunParameters | |
|
queue_duration
|
queue_duration | integer |
Ezredmásodpercben megadott idő, amelyet a futtatás az üzenetsorban töltött. |
|
repair_history
|
repair_history | array of JobsRepairHistoryItem |
A futtatás javítási előzményei. |
|
run_duration
|
run_duration | integer |
Az ezredmásodpercben eltelt idő alatt a feladat lefutott, és az összes javítás befejeződött. |
|
run_id
|
run_id | integer |
A futtatás canonical azonosítója. Ez az azonosító az összes feladat összes futtatása során egyedi. |
|
run_name
|
run_name | string |
A futtatás nem kötelező neve. A maximális hossz 4096 bájt UTF-8 kódolásban. |
|
run_page_url
|
run_page_url | string |
A futtatás részletes oldalának URL-címe. |
|
futtatás_típusa
|
run_type | JobsRunType | |
|
ütemterv
|
schedule | JobsCronSchedule | |
|
setup_duration
|
setup_duration | integer |
Ezredmásodpercben eltelt idő a fürt beállításához. Az új fürtökön futó futtatások esetében ez a fürtlétrehozási idő, a meglévő fürtökön futó futtatások esetében ez az idő nagyon rövid. A tevékenységfuttatás időtartama a setup_duration, a execution_duration és a cleanup_duration összege. A setup_duration mező 0 értékre van állítva többfeladatos feladatok futtatása esetén. A többfeladatos feladatfuttatás teljes időtartama a run_duration mező értéke. |
|
kezdési_idő
|
start_time | integer |
A futás kezdetének időpontja ezredmásodpercben (ezredmásodperc 1970. 01. 01. (UTC) óta). Lehet, hogy nem ez az az időpont, amikor a feladat feladat végrehajtása elkezdődött, például ha a feladat egy új fürtre van ütemezve, akkor a fürtlétrehozási hívás ekkor lesz kiadva. |
|
állapot
|
status | JobsRunStatus | |
|
tasks
|
tasks | array of JobsRunTask |
A futtatás által végrehajtott feladatok listája. Minden tevékenység saját run_id rendelkezik, amellyel meghívhatja a JobsGetOutput parancsot a futtatási újraszutlsok lekéréséhez. Ha több mint 100 tevékenység érhető el, a :method:jobs/getrun paranccsal lapozhatja végig őket. Az objektumgyökér next_page_token mezőjével állapítsa meg, hogy vannak-e további eredmények. |
|
aktivál
|
trigger | JobsTriggerType | |
|
trigger_info
|
trigger_info | JobsTriggerInfo |
JobsClusterInstance
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
cluster_id
|
cluster_id | string |
A futtatás által használt fürt canonical azonosítója. Ez a mező mindig elérhető a meglévő fürtökön futó futtatásokhoz. Új fürtökön futó futtatások esetén a fürt létrehozása után elérhetővé válik. Ez az érték a naplók megtekintésére használható a /#setting/sparkui/$cluster_id/driver-logs webhelyen való böngészéssel. A naplók a futtatás befejezése után is elérhetők maradnak. A válasz nem tartalmazza ezt a mezőt, ha az azonosító még nem érhető el. |
|
spark_context_id
|
spark_context_id | string |
A futtatás által használt Spark-környezet canonical azonosítója. Ezt a mezőt a futtatás megkezdése után tölti ki a rendszer. Ez az érték a Spark felhasználói felületének megtekintéséhez használható a /#setting/sparkui/$cluster_id/$spark_context_id webhelyre való tallózással. A Spark felhasználói felülete a futtatás befejezése után is elérhető marad. A válasz nem tartalmazza ezt a mezőt, ha az azonosító még nem érhető el. |
JobsClusterSpec
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
existing_cluster_id
|
existing_cluster_id | string |
Ha existing_cluster_id, az összes futtatáshoz használt meglévő fürt azonosítója. Ha feladatokat vagy feladatokat futtat egy meglévő fürtön, előfordulhat, hogy manuálisan kell újraindítania a fürtöt, ha az nem válaszol. Azt javasoljuk, hogy a nagyobb megbízhatóság érdekében új fürtökön futtassa a feladatokat és a feladatokat |
|
job_cluster_key
|
job_cluster_key | string |
Ha job_cluster_key, ezt a feladatot a rendszer a job.settings.job_clusters megadott fürt újrafelhasználásával hajtja végre. |
|
libraries
|
libraries | array of ComputeLibrary |
A fürtre telepíteni kívánt kódtárak választható listája. Az alapértelmezett érték egy üres lista. |
|
new_cluster
|
new_cluster | ComputeClusterSpec |
JobsJobParameter
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
alapértelmezett
|
default | string |
A paraméter opcionális alapértelmezett értéke |
|
név
|
name | string |
A paraméter neve |
|
value
|
value | string |
A futtatáskor használt érték |
JobsRunParameters
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
pipeline_params
|
pipeline_params | JobsPipelineParams |
JobsRepairHistoryItem
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
effective_performance_target
|
effective_performance_target | JobsPerformanceTarget | |
|
befejezési_idő
|
end_time | integer |
A (javított) futtatás befejezési ideje. |
|
azonosító
|
id | integer |
A javítás azonosítója. Csak azokhoz az elemekhez ad vissza, amelyek javítást jelentenek repair_history. |
|
kezdési_idő
|
start_time | integer |
A (javított) futtatás kezdő időpontja. |
|
állapot
|
status | JobsRunStatus | |
|
task_run_ids
|
task_run_ids | array of integer |
A javítási előzmények elem részeként futtatott feladatfuttatások futtatási azonosítói. |
|
típus
|
type | JobsRepairHistoryItemType |
JobsRunStatus
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
queue_details
|
queue_details | JobsQueueDetails | |
|
state
|
state | JobsRunLifecycleStateV2State | |
|
termination_details
|
termination_details | JobsTerminationDetails |
JobsQueueDetails
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
kód
|
code | JobsQueueDetailsCodeCode | |
|
üzenet
|
message | string |
Egy leíró üzenet a sorba állítás részleteivel. Ez a mező strukturálatlan, és pontos formátuma változhat. |
JobsQueueDetailsCodeCode
JobsRunLifecycleStateV2State
JobsTerminationDetails
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
kód
|
code | JobsTerminationCodeCode | |
|
üzenet
|
message | string |
Egy leíró üzenet a felmondás részleteivel. Ez a mező strukturálatlan, és a formátum változhat. |
|
típus
|
type | JobsTerminationTypeType |
JobsTerminationCode
JobsTerminationTypeType
JobsRepairHistoryItemType
JobsRunType
JobsRunTask
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
attempt_number
|
attempt_number | integer |
A futtatási kísérlet sorszáma aktivált feladatfuttatás esetén. A futtatás kezdeti kísérlete 0 attempt_number. Ha a kezdeti futtatási kísérlet meghiúsul, és a feladat újrapróbálkozási szabályzattal (max_retries > 0) rendelkezik, a rendszer a következő futtatásokat az eredeti kísérlet azonosítójának original_attempt_run_id és egy növekvő attempt_number hozza létre. A futtatások csak addig próbálkoznak újra, amíg sikeresek nem lesznek, és a maximális attempt_number megegyezik a feladat max_retries értékével. |
|
clean_rooms_notebook_task
|
clean_rooms_notebook_task | Object | |
|
cleanup_duration
|
cleanup_duration | integer |
Ezredmásodperc alatt leállítja a fürtöt, és megtisztítja a kapcsolódó összetevőket. A tevékenységfuttatás időtartama a setup_duration, a execution_duration és a cleanup_duration összege. A cleanup_duration mező 0 értékre van állítva többfeladatos feladatok futtatása esetén. A többfeladatos feladatfuttatás teljes időtartama a run_duration mező értéke. |
|
cluster_instance
|
cluster_instance | JobsClusterInstance | |
|
condition_task
|
condition_task | JobsRunConditionTask | |
|
dashboard_task
|
dashboard_task | Object | |
|
dbt_task
|
dbt_task | Object | |
|
depends_on
|
depends_on | array of JobsTaskDependency |
A tevékenység függőségi gráfját meghatározó objektumok választható tömbje. A tevékenység végrehajtása előtt az ebben a mezőben megadott összes tevékenységnek sikeresen le kell fejeződnie. A kulcs task_key, az érték pedig a függő tevékenységhez rendelt név. |
|
leírás
|
description | string |
A feladat opcionális leírása. |
|
effective_performance_target
|
effective_performance_target | JobsPerformanceTarget | |
|
email_notifications
|
email_notifications | JobsJobEmailNotifications | |
|
befejezési_idő
|
end_time | integer |
Az időpont, amikor ez a futtatás a korszak ezredmásodpercében végződött (ezredmásodperc 1970. 01. 01. (UTC) óta). Ez a mező 0 értékre van állítva, ha a feladat még fut. |
|
environment_key
|
environment_key | string |
Az a kulcs, amely egy feladat környezeti specifikációjára hivatkozik. Ez a mező szükséges a Python-szkriptekhez, a Python-kerékhez és a dbt-feladatokhoz kiszolgáló nélküli számítás használatakor. |
|
execution_duration
|
execution_duration | integer |
Ezredmásodpercben eltelt idő a JAR-ban vagy a jegyzetfüzetben lévő parancsok végrehajtásához, amíg azok befejeződtek, sikertelenek, időtúllépések, megszakítások vagy váratlan hiba nem történt. A tevékenységfuttatás időtartama a setup_duration, a execution_duration és a cleanup_duration összege. A execution_duration mező 0 értékre van állítva többfeladatos feladatfuttatásokhoz. A többfeladatos feladatfuttatás teljes időtartama a run_duration mező értéke. |
|
existing_cluster_id
|
existing_cluster_id | string |
Ha existing_cluster_id, az összes futtatáshoz használt meglévő fürt azonosítója. Ha feladatokat vagy feladatokat futtat egy meglévő fürtön, előfordulhat, hogy manuálisan kell újraindítania a fürtöt, ha az nem válaszol. Azt javasoljuk, hogy a nagyobb megbízhatóság érdekében új fürtökön futtassa a feladatokat és a feladatokat |
|
for_each_task
|
for_each_task | Object | |
|
git_source
|
git_source | JobsGitSource | |
|
job_cluster_key
|
job_cluster_key | string |
Ha job_cluster_key, ezt a feladatot a rendszer a job.settings.job_clusters megadott fürt újrafelhasználásával hajtja végre. |
|
libraries
|
libraries | array of Object |
A fürtre telepíteni kívánt kódtárak választható listája. Az alapértelmezett érték egy üres lista. |
|
new_cluster
|
new_cluster | Object | |
|
notebook_task
|
notebook_task | JobsNotebookTask | |
|
notification_settings
|
notification_settings | Object | |
|
pipeline_task
|
pipeline_task | Object | |
|
power_bi_task
|
power_bi_task | Object | |
|
python_wheel_task
|
python_wheel_task | Object | |
|
queue_duration
|
queue_duration | integer |
Ezredmásodpercben megadott idő, amelyet a futtatás az üzenetsorban töltött. |
|
resolved_values
|
resolved_values | JobsResolvedValues | |
|
run_duration
|
run_duration | integer |
Az ezredmásodpercben eltelt idő alatt a feladat lefutott, és az összes javítás befejeződött. |
|
run_id
|
run_id | integer |
A feladatfuttatás azonosítója. |
|
run_if
|
run_if | JobsRunIf | |
|
run_job_task
|
run_job_task | JobsRunJobTask | |
|
run_page_url
|
run_page_url | string | |
|
setup_duration
|
setup_duration | integer |
Ezredmásodpercben eltelt idő a fürt beállításához. Az új fürtökön futó futtatások esetében ez a fürtlétrehozási idő, a meglévő fürtökön futó futtatások esetében ez az idő nagyon rövid. A tevékenységfuttatás időtartama a setup_duration, a execution_duration és a cleanup_duration összege. A setup_duration mező 0 értékre van állítva többfeladatos feladatok futtatása esetén. A többfeladatos feladatfuttatás teljes időtartama a run_duration mező értéke. |
|
spark_jar_task
|
spark_jar_task | Object | |
|
spark_python_task
|
spark_python_task | Object | |
|
spark_submit_task
|
spark_submit_task | Object | |
|
sql_task
|
sql_task | Object | |
|
kezdési_idő
|
start_time | integer |
A futás kezdetének időpontja ezredmásodpercben (ezredmásodperc 1970. 01. 01. (UTC) óta). Lehet, hogy nem ez az az időpont, amikor a feladat feladat végrehajtása elkezdődött, például ha a feladat egy új fürtre van ütemezve, akkor a fürtlétrehozási hívás ekkor lesz kiadva. |
|
állapot
|
status | JobsRunStatus | |
|
task_key
|
task_key | string |
A tevékenység egyedi neve. Ezzel a mezővel hivatkozhat erre a tevékenységre más tevékenységekből. Ez a mező kötelező, és a szülőfeladaton belül egyedinek kell lennie. Frissítéskor vagy alaphelyzetbe állításkor ez a mező a frissíteni vagy alaphelyzetbe állítani kívánt tevékenységekre hivatkozik. |
|
timeout_seconds
|
timeout_seconds | integer |
A feladat feladatának minden egyes futtatására alkalmazott opcionális időtúllépés. A 0 érték azt jelenti, hogy nincs időtúllépés. |
|
webhook_notifications
|
webhook_notifications | Object |
JobsRunConditionTask
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
Balra
|
left | string |
A feltételfeladat bal operandusa. Lehet sztringérték, feladatállapot vagy paraméterhivatkozás. |
|
operátor
|
op | JobsConditionTaskOp | |
|
eredmény
|
outcome | string |
A feltételkifejezés kiértékelési eredménye. Kitöltve, ha a feladat sikeresen befejeződött. Lehet "igaz" vagy "hamis" |
|
Jobbra
|
right | string |
A feltételfeladat megfelelő operandusa. Lehet sztringérték, feladatállapot vagy paraméterhivatkozás. |
JobsTriggerType
JobsTriggerInfo
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
run_id
|
run_id | integer |
A Feladatfuttatás futtatása feladatfuttatásának futtatási azonosítója |
JobsRunOutput
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
clean_rooms_notebook_output
|
clean_rooms_notebook_output | Object | |
|
dashboard_output
|
dashboard_output | Object | |
|
dbt_output
|
dbt_output | Object | |
|
hiba
|
error | string |
Hibaüzenet, amely jelzi, hogy egy feladat miért nem sikerült, vagy miért nem érhető el a kimenet. Az üzenet strukturálatlan, és pontos formátuma változhat. |
|
error_trace
|
error_trace | string |
Ha hiba történt a futtatás végrehajtásakor, ez a mező tartalmaz minden elérhető veremkövetést. |
|
információ
|
info | string | |
|
naplók
|
logs | string |
A standard streamekbe (stdout/stderr) írt feladatok kimenete, például spark_jar_task, spark_python_task, python_wheel_task. A notebook_task, pipeline_task vagy spark_submit_task nem támogatott. A Databricks korlátozza ezt az API-t, hogy a naplókból az utolsó 5 MB-ot adja vissza. |
|
logs_truncated
|
logs_truncated | boolean |
A naplók csonkolt-e. |
|
metaadat
|
metadata | Object | |
|
notebook_output
|
notebook_output | JobsNotebookOutput | |
|
run_job_output
|
run_job_output | JobsRunJobOutput | |
|
sql_output
|
sql_output | Object |
JobsNotebookOutput
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
eredmény
|
result | string |
A dbutils.notebook.exit()-nek átadott érték. A Databricks korlátozza ezt az API-t, hogy az első 5 MB értéket adja vissza. Nagyobb eredmény érdekében a feladat egy felhőalapú tárolási szolgáltatásban tárolhatja az eredményeket. Ez a mező hiányzik, ha a dbutils.notebook.exit() soha nem lett meghívva. |
|
megcsonkított
|
truncated | boolean |
Azt jelzi, hogy csonkolt-e az eredmény. |
JobsRunJobOutput
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
run_id
|
run_id | integer |
Az aktivált feladat futtatásának futtatási azonosítója |
JobsResolvedValues
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
condition_task
|
condition_task | JobsResolvedConditionTaskValues | |
|
dbt_task
|
dbt_task | JobsResolvedDbtTaskValues | |
|
notebook_task
|
notebook_task | JobsResolvedNotebookTaskValues | |
|
python_wheel_task
|
python_wheel_task | JobsResolvedPythonWheelTaskValues | |
|
run_job_task
|
run_job_task | JobsResolvedRunJobTaskValues | |
|
simulation_task
|
simulation_task | JobsResolvedParamPairValues | |
|
spark_jar_task
|
spark_jar_task | JobsResolvedStringParamsValues | |
|
spark_python_task
|
spark_python_task | JobsResolvedStringParamsValues | |
|
spark_submit_task
|
spark_submit_task | JobsResolvedStringParamsValues | |
|
sql_task
|
sql_task | JobsResolvedParamPairValues |
JobsResolvedConditionTaskValues
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
Balra
|
left | string | |
|
Jobbra
|
right | string |
JobsResolvedDbtTaskValues
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
commands
|
commands | array of string |
JobsResolvedNotebookTaskValues
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
base_parameters
|
base_parameters | object |
JobsResolvedPythonWheelTaskValues
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
named_parameters
|
named_parameters | object | |
|
parameters
|
parameters | array of string |
JobsResolvedRunJobTaskValues
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
job_parameters
|
job_parameters | object | |
|
parameters
|
parameters | object |
JobsResolvedParamPairValues
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
parameters
|
parameters | object |
JobsResolvedStringParamsValues
| Name | Elérési út | Típus | Description |
|---|---|---|---|
|
parameters
|
parameters | array of string |