Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Per il runtime di Fabric 1.1 e 1.2, per impostazione predefinita vengono creati due ambienti conda locali. Attivare l'ambiente conda prima di eseguire il notebook nel runtime di destinazione. Per altre informazioni, vedere Scegliere Fabric Runtime 1.1 o 1.2.
Per il runtime di Fabric 1.3 e versioni successive, l'ambiente conda locale non viene creato. È possibile eseguire il notebook direttamente nel calcolo Spark remoto selezionando la nuova voce nell'elenco del kernel Jupyter. È possibile selezionare questo kernel per eseguire il notebook o la definizione del job Spark sul calcolo remoto Spark.
Considerazioni sulla scelta dell'ambiente conda locale o del calcolo Spark remoto
Quando esegui il notebook o la definizione del job Spark, è possibile scegliere l'ambiente conda locale o il runtime Spark remoto. Ecco alcune considerazioni utili per scegliere:
Ci sono scenari in cui si potrebbe voler scegliere l'ambiente conda locale.
- È necessario lavorare in una configurazione disconnessa senza l'accesso al calcolo remoto.
- Si vuole valutare alcune librerie Python prima di caricarle nell'area di lavoro remota. è possibile installare la libreria nell'ambiente conda locale e testarla.
Scegliere il kernel di runtime di Fabric negli scenari seguenti:
- È necessario eseguire il notebook in Runtime 1.3.
- Nel codice esiste una dipendenza difficile dal runtime remoto
- MSSparkUtils è un buon esempio. Si tratta di una libreria disponibile solo nel runtime remoto. Se si vuole usarlo, è necessario eseguire il codice nel runtime remoto.
- NotebookUtils è un altro esempio. Si tratta di una libreria disponibile solo nel runtime remoto. Se si vuole usarlo, è necessario eseguire il codice nel runtime remoto.