Condividi tramite


Supporto del runtime Fabric nell'estensione Visual Studio Code

Per il runtime di Fabric 1.1 e 1.2, per impostazione predefinita vengono creati due ambienti conda locali. Attivare l'ambiente conda prima di eseguire il notebook nel runtime di destinazione. Per altre informazioni, vedere Scegliere Fabric Runtime 1.1 o 1.2.

Per il runtime di Fabric 1.3 e versioni successive, l'ambiente conda locale non viene creato. È possibile eseguire il notebook direttamente nel calcolo Spark remoto selezionando la nuova voce nell'elenco del kernel Jupyter. È possibile selezionare questo kernel per eseguire il notebook o la definizione del job Spark sul calcolo remoto Spark.

Screenshot che mostra il kernel di runtime del fabric.

Considerazioni sulla scelta dell'ambiente conda locale o del calcolo Spark remoto

Quando esegui il notebook o la definizione del job Spark, è possibile scegliere l'ambiente conda locale o il runtime Spark remoto. Ecco alcune considerazioni utili per scegliere:

  1. Ci sono scenari in cui si potrebbe voler scegliere l'ambiente conda locale.

    • È necessario lavorare in una configurazione disconnessa senza l'accesso al calcolo remoto.
    • Si vuole valutare alcune librerie Python prima di caricarle nell'area di lavoro remota. è possibile installare la libreria nell'ambiente conda locale e testarla.
  2. Scegliere il kernel di runtime di Fabric negli scenari seguenti:

    • È necessario eseguire il notebook in Runtime 1.3.
    • Nel codice esiste una dipendenza difficile dal runtime remoto
      • MSSparkUtils è un buon esempio. Si tratta di una libreria disponibile solo nel runtime remoto. Se si vuole usarlo, è necessario eseguire il codice nel runtime remoto.
      • NotebookUtils è un altro esempio. Si tratta di una libreria disponibile solo nel runtime remoto. Se si vuole usarlo, è necessario eseguire il codice nel runtime remoto.