Condividi tramite


Guida introduttiva: Creare un nuovo pool di Apache Spark serverless usando il portale di Azure

Azure Synapse Analytics offre vari motori di analisi che consentono di inserire, trasformare, modellare, analizzare e distribuire i dati. Un pool di Apache Spark offre funzionalità di calcolo big data open source. Dopo aver creato un pool di Apache Spark nell'area di lavoro synapse, è possibile caricare, modellare, elaborare e distribuire i dati per ottenere informazioni analitiche più rapide.

In questa guida introduttiva si apprenderà come usare il portale di Azure per creare un pool di Apache Spark in un'area di lavoro di Synapse.

Importante

La fatturazione delle istanze di Spark viene calcolata con ripartizione proporzionale al minuto, indipendentemente dal fatto che siano in uso o meno. Assicurarsi di arrestare l'istanza di Spark dopo averla usata oppure impostare un timeout breve. Per altre informazioni, vedere la sezione Pulire le risorse di questo articolo.

Se non si ha una sottoscrizione di Azure, creare un account gratuito prima di iniziare.

Prerequisiti

Accedere al portale di Azure

Accedere al portale di Azure

  1. Passare all'area di lavoro di Synapse in cui verrà creato il pool di Apache Spark digitando il nome del servizio (o direttamente il nome della risorsa) nella barra di ricerca. Screenshot della barra di ricerca del portale di Azure con le aree di lavoro di Synapse digitate.

  2. Dall'elenco delle aree di lavoro, digitare il nome (o parte del nome) dell'area di lavoro da aprire. Per questo esempio viene usata un'area di lavoro denominata contosoanalytics. Screenshot del portale di Azure dell'elenco delle aree di lavoro di Synapse filtrate per mostrare quelli contenenti il nome Contoso.

Creare un nuovo pool di Apache Spark

  1. Nell'area di lavoro di Synapse in cui si vuole creare il pool di Apache Spark selezionare Nuovo pool di Apache Spark. Screenshot del portale di Azure di un'area di lavoro synapse con una casella rossa intorno al comando per creare un nuovo pool di Apache Spark.

  2. Immettere i dettagli seguenti nella scheda Informazioni di base:

    Impostazione Valore suggerito Descrizione
    Nome del pool di Apache Spark Un nome di pool valido, ad esempio contosospark Si tratta del nome che avrà il pool di Apache Spark.
    Dimensioni nodo Piccole (4 vCPU/32 GB) Per questa guida di avvio rapido, impostare questa opzione sulle dimensioni minime per ridurre i costi
    Scalabilità automatica Disabilitato Per questa guida introduttiva non è necessaria la scalabilità automatica
    Numero di nodi 5 Usare una dimensione ridotta per limitare i costi per questa guida introduttiva

    Screenshot del portale di Azure del flusso di creazione del pool di Apache Spark - scheda Informazioni di base.

    Importante

    Esistono limitazioni specifiche per i nomi che possono essere usati dai pool di Apache Spark. I nomi possono contenere solo lettere o numeri, devono essere costituiti da un massimo di 15 caratteri, devono iniziare con una lettera, non possono contenere parole riservate e devono essere univoci nell'area di lavoro.

  3. Selezionare Avanti: impostazioni aggiuntive ed esaminare le impostazioni predefinite. Non modificare le impostazioni predefinite. Screenshot del portale di Azure che mostra la pagina

  4. Seleziona Avanti: tag. Prendere in considerazione l'uso dei tag di Azure. Ad esempio, il tag "Owner" o "CreatedBy" per identificare chi ha creato la risorsa e il tag "Environment" per identificare se questa risorsa si trova in Production, Development e così via. Per altre informazioni, vedere Sviluppare la strategia di denominazione e assegnazione di tag per le risorse di Azure. Screenshot del portale di Azure del flusso di creazione del pool di Apache Spark: scheda impostazioni aggiuntive.

  5. Selezionare Rivedi e crea.

  6. Assicurarsi che i dettagli siano corretti in base a quanto immesso in precedenza e selezionare Crea. Screenshot del portale di Azure del flusso di creazione del pool di Apache Spark: scheda Delle impostazioni di revisione.

  7. A questo punto, verrà avviato il flusso di provisioning delle risorse, che indica una volta completato. Screenshot del portale di Azure di che mostra la pagina

  8. Al termine del provisioning, tornando all'area di lavoro verrà visualizzata una nuova voce per il pool di Apache Spark appena creato. Screenshot del portale di Azure del flusso di creazione del pool di Apache Spark: provisioning delle risorse.

  9. A questo punto, non sono in esecuzione risorse, senza addebiti per Spark, sono stati creati metadati sulle istanze di Spark che si vuole creare.

Pulire le risorse

I passaggi seguenti eliminano il pool di Apache Spark dall'area di lavoro.

Avvertimento

L'eliminazione di un pool di Apache Spark rimuoverà il motore di analisi dall'area di lavoro. Non sarà più possibile connettersi al pool e tutte le query, le pipeline e i notebook che usano questo pool di Apache Spark non funzioneranno più.

Per eliminare il pool di Apache Spark, seguire questa procedura:

  1. Passare al riquadro Pool di Apache Spark nell'area di lavoro.
  2. Selezionare il pool di Apache Spark da eliminare (in questo caso contosospark).
  3. Selezionare Elimina. Screenshot del portale di Azure di un elenco di pool di Apache Spark con il pool creato di recente selezionato.
  4. Confermare l'eliminazione e selezionare Il pulsante Elimina . Screenshot del portale di Azure della finestra di dialogo Conferma per eliminare il pool di Apache Spark selezionato.
  5. Quando il processo viene completato, il pool di Apache Spark non sarà più elencato nelle risorse dell'area di lavoro.