Najčastejšie otázky o spravovaní pracovného priestoru Apache Spark

Tento článok uvádza odpovede na najčastejšie otázky o nastaveniach správy pracovného priestoru Apache Spark.

Ako môžem použiť roly RBAC na konfiguráciu nastavení pracovného priestoru služby Spark?

Pomocou ponuky Spravovať prístup môžete pridať povolenia správcu pre konkrétnych používateľov, distribučné skupiny alebo skupiny zabezpečenia. Túto ponuku môžete použiť aj na vykonanie zmien v pracovnom priestore a udelenie prístupu na pridávanie, úpravu alebo odstraňovanie nastavení pracovného priestoru služby Spark.

Vzťahujú sa zmeny vlastností služby Spark na úrovni prostredia na aktívnych notebookoch alebo naplánovaných úlohách služby Spark?

Keď vykonáte zmenu konfigurácie na úrovni pracovného priestoru, nepoužije sa na aktívne relácie služby Spark. To zahŕňa relácie založené na dávkových alebo poznámkových blokoch. Po uložení nových nastavení konfigurácie je potrebné spustiť nový poznámkový blok alebo dávkovú reláciu, aby sa nastavenia prejavili.

Môžem nakonfigurovať skupiny uzla, vlastnosti Spark runtime a Spark na úrovni kapacity?

Áno, môžete zmeniť modul runtime alebo spravovať vlastnosti spark pomocou nastavení Dátový inžinier/vedy ako súčasť stránky nastavení správcu kapacity. Na zobrazenie a zmenu týchto nastavení kapacity potrebujete prístup správcu kapacity.

Môžem v mojom pracovnom priestore vybrať rôzne skupiny uzier pre rôzne poznámkové bloky a definície úloh služby Spark?

V súčasnosti môžete pre celý pracovný priestor vybrať len množinu uzly optimalizovanú pre pamäť.

Môžem tieto nastavenia nakonfigurovať na úrovni poznámkového bloku?

Áno, na prispôsobenie vlastností na úrovni relácie spark v poznámkových blokoch môžete použiť %%configure

Môžem nakonfigurovať minimálny a maximálny počet uzlov pre vybratú skupinu uzlov?

Áno, môžete si vybrať uzly minima a maxima na základe povolených maximálnych limitov roztrhnutia kapacity služby Fabric prepojenej s pracovným priestorom služby Fabric.

Môžem povoliť automatické škálovanie pre bazény Spark v pamäti optimalizovanej alebo hardvérovo urýchliť GPU na základe node rodiny?

Automatické škálovanie je k dispozícii pre fondy Spark a povolenie, ktoré umožňuje systému automaticky škálovať výpočet na základe fáz úloh počas spustenia. Jednotky GPU v súčasnosti nie sú k dispozícii. Táto funkcia bude povolená v budúcich vydaniach.

Podporuje alebo je inteligentné ukladanie do vyrovnávacej pamäte pre fondy Spark predvolene podporované alebo povolené pre pracovný priestor?

Inteligentné ukladanie do vyrovnávacej pamäte je predvolene povolené pre fondy Spark pre všetky pracovné priestory.