Domande frequenti sulle impostazioni di amministrazione dell'area di lavoro di Apache Spark

Questo articolo elenca le risposte alle domande frequenti sulle impostazioni di amministrazione dell'area di lavoro di Apache Spark.

Come usare i ruoli di controllo degli accessi in base al ruolo (RBAC) per configurare le impostazioni dell'area di lavoro di Spark?

Usare il menu Gestisci accesso per aggiungere autorizzazioni di amministratore per determinati utenti, gruppi di distribuzione o gruppi di sicurezza. È anche possibile usare questo menu per apportare modifiche all'area di lavoro e concedere l'accesso per aggiungere, modificare o eliminare le impostazioni dell'area di lavoro di Spark.

Le modifiche apportate alle proprietà di Spark a livello di ambiente si applicano alle sessioni del notebook attive o ai processi Spark pianificati?

Quando si apporta una modifica alla configurazione a livello di area di lavoro, tale modifica non viene applicata alle sessioni di Spark attive. Sono incluse le sessioni basate su batch o notebook. Per applicare le impostazioni, è necessario avviare un nuovo notebook o una sessione batch dopo aver salvato le nuove impostazioni di configurazione.

È possibile configurare la famiglia di nodi, il runtime di Spark e le proprietà di Spark a livello di capacità?

Sì, è possibile modificare il runtime o gestire le proprietà di Spark usando le impostazioni di Ingegneria dei dati / Data science come parte della pagina delle impostazioni di amministrazione della capacità. È necessario l'accesso di amministratore della capacità per visualizzare e modificare queste impostazioni di capacità.

È possibile scegliere famiglie di nodi diverse per notebook e definizioni processo Spark diversi nell'area di lavoro?

Attualmente, è possibile selezionare solo la famiglia di nodi ottimizzata per la memoria per l'intera area di lavoro.

È possibile configurare queste impostazioni a livello di notebook?

Sì, è possibile usare %%configure per personalizzare le proprietà a livello di sessione di Spark nei notebook

È possibile configurare il numero minimo e massimo di nodi per la famiglia di nodi selezionata?

Sì, è possibile scegliere i nodi min e max in base ai limiti massimi di burst consentiti della capacità di Fabric collegata all'area di lavoro di Fabric.

È possibile abilitare la scalabilità automatica per i pool di Spark in una famiglia di nodi basata su GPU ottimizzata per la memoria o con accelerazione hardware?

La scalabilità automatica è disponibile per i pool di Spark e consente al sistema di aumentare automaticamente il calcolo in base alle fasi del processo durante il runtime. Le GPU attualmente non sono disponibili. La funzionalità verrà aggiunta nelle release successive.

La memorizzazione nella cache intelligente per i pool di Spark è supportata o abilitata per impostazione predefinita per un'area di lavoro?

La memorizzazione nella cache intelligente è abilitata per impostazione predefinita per i pool di Spark per tutte le aree di lavoro.