Poznámka:
Přístup k této stránce vyžaduje autorizaci. Můžete se zkusit přihlásit nebo změnit adresáře.
Přístup k této stránce vyžaduje autorizaci. Můžete zkusit změnit adresáře.
Rozšíření Visual Studio Code (Fabric Data Engineering) plně podporuje operace definování úloh Spark v prostředí Fabric, zahrnující vytváření, čtení, aktualizaci a odstranění. Po vytvoření definice úlohy Sparku můžete nahrát další odkazované knihovny, odeslat žádost o spuštění definice úlohy Sparku a zkontrolovat historii spuštění.
Vytvoření definice úlohy Sparku
Vytvoření nové definice úlohy Sparku:
V Průzkumníku VS Code vyberte možnost Vytvořit definici úlohy Sparku.
Zadejte počáteční povinná pole: název, odkazovaný na jezero a výchozí jezero.
Proces žádosti proběhne a název nově vytvořené definice úlohy Sparku se zobrazí pod kořenovým uzlem Definice úlohy Sparku v Průzkumníku VS Code. Pod uzlem názvu definice úlohy Sparku se zobrazí tři pod uzly:
- Soubory: Seznam hlavního definičního souboru a dalších odkazovaných knihoven. Z tohoto seznamu můžete nahrát nové soubory.
-
Lakehouse: Seznam všech objektů lakehouse, na které odkazuje tato definice úlohy Sparku. Výchozí jezero je označené v seznamu a můžete k němu přistupovat přes relativní cestu
Files/…, Tables/…. - Spuštění: Seznam historie spuštění této definice úlohy Spark a stav úlohy každého spuštění.
Nahrání hlavního definičního souboru do odkazované knihovny
Pokud chcete nahrát nebo přepsat hlavní definiční soubor, vyberte možnost Přidat hlavní soubor .
Pokud chcete nahrát soubor knihovny, na který odkazuje hlavní definiční soubor, vyberte Přidat knihovní soubor.
Po nahrání souboru ho můžete přepsat kliknutím na možnost Aktualizovat soubor a nahráním nového souboru nebo můžete soubor odstranit pomocí možnosti Odstranit .
Odeslání žádosti o spuštění
Odeslání žádosti o spuštění definice úlohy Sparku z editoru VS Code:
V možnostech napravo od názvu definice úlohy Spark, kterou chcete spustit, vyberte možnost Spustit úlohu Sparku.
Po odeslání žádosti se nová aplikace Apache Spark zobrazí v uzlu Spuštění v seznamu průzkumníka. Spuštěnou úlohu můžete zrušit výběrem možnosti Zrušit Spark úlohu.
Otevření definice úlohy Spark na portálu Fabric
Stránku pro vytváření definic úloh Sparku můžete otevřít na portálu Fabric výběrem možnosti Otevřít v prohlížeči .
Můžete také vybrat Otevřít v prohlížeči vedle dokončeného spuštění a zobrazit stránku s podrobnostmi monitorování spuštění.
Ladění definice úlohy Spark pomocí zdrojového kódu (Python)
Pokud je definice úlohy Sparku vytvořená pomocí PySpark (Python), můžete stáhnout .py skript hlavního definičního souboru a odkazovaného souboru a ladit zdrojový skript ve VS Code.
Pokud chcete stáhnout zdrojový kód, vyberte možnost Ladit definici úlohy Sparku napravo od definice úlohy Sparku.
Po dokončení stahování se složka zdrojového kódu automaticky otevře.
Po zobrazení výzvy vyberte možnost Důvěřovat autorům. (Tato možnost se zobrazí jenom při prvním otevření složky. Pokud tuto možnost nevyberete, nemůžete ladit ani spustit zdrojový skript. Další informace najdete v tématu Zabezpečení důvěryhodnosti pracovního prostoru editoru Visual Studio Code.)
Pokud jste si zdrojový kód stáhli dříve, zobrazí se výzva k potvrzení, že chcete přepsat místní verzi novým stažením.
Poznámka:
V kořenové složce zdrojového skriptu systém vytvoří podsložku s názvem conf. V této složce soubor s názvem lighter-config.json obsahuje některá systémová metadata potřebná ke vzdálenému spuštění. Neprovádejte v něm žádné změny.
Soubor s názvem sparkconf.py obsahuje fragment kódu, který je potřeba přidat k nastavení objektu SparkConf . Pokud chcete povolit vzdálené ladění, ujistěte se, že je objekt SparkConf správně nastavený. Následující obrázek ukazuje původní verzi zdrojového kódu.
Další obrázek je aktualizovaný zdrojový kód po zkopírování a vložení fragmentu.
Po aktualizaci zdrojového kódu potřebnou konfigurací musíte vybrat správný interpret Pythonu. Ujistěte se, že jste zvolili ten nainstalovaný z synapse-spark-kernel conda prostředí.
Úprava vlastností definice úlohy Sparku
Můžete upravit vlastnosti podrobností definic úloh Sparku, například argumenty příkazového řádku.
Výběrem možnosti Aktualizovat konfiguraci SJD otevřete soubor settings.yml. Existující vlastnosti naplní obsah tohoto souboru.
Aktualizujte a uložte soubor .yml.
Výběrem možnosti Publikovat vlastnost SJD v pravém horním rohu synchronizujte změnu zpět do vzdáleného pracovního prostoru.