Condividi tramite


Avvio rapido: Creare un nuovo pool di Apache Spark serverless usando il portale di Azure

Azure Synapse Analytics offre vari motori di analisi che consentono di inserire, trasformare, modellare, analizzare e distribuire i dati. Un pool di Apache Spark offre funzionalità di calcolo open source per i Big Data. Dopo aver creato un pool Apache Spark nell'area di lavoro di Synapse, è possibile caricare, modellare, elaborare e distribuire i dati per ottenere dati analitici in modo più rapido.

Questa guida di avvio rapido illustra come usare il portale di Azure per creare un pool di Apache Spark in un'area di lavoro Synapse.

Importante

La fatturazione delle istanze di Spark viene calcolata con ripartizione proporzionale al minuto, indipendentemente dal fatto che siano in uso o meno. Assicurarsi di arrestare l'istanza di Spark dopo averla usata oppure impostare un timeout breve. Per altre informazioni, vedere la sezione Pulire le risorse di questo articolo.

Se non si ha una sottoscrizione di Azure, creare un account gratuito prima di iniziare.

Prerequisiti

Accedere al portale di Azure

Accedere al portale di Azure

  1. Passare all'area di lavoro di Synapse in cui verrà creato il pool di Apache Spark digitando il nome del servizio (o direttamente il nome della risorsa) nella barra di ricerca. Screenshot della barra di ricerca del portale di Azure con le aree di lavoro di Synapse immesse.

  2. Nell'elenco delle aree di lavoro digitare il nome (o parte del nome) dell'area di lavoro da aprire. Per questo esempio verrà usata un'area di lavoro denominata contosoanalytics. Screenshot dal portale di Azure dell'elenco delle aree di lavoro di Synapse filtrate in modo da mostrare quelle contenenti il nome Contoso.

Creare un nuovo pool di Apache Spark

  1. Nell'area di lavoro Synapse in cui creare il pool di Apache Spark selezionare Nuovo pool di Apache Spark. Screenshot dal portale di Azure di un'area di lavoro di Synapse con un riquadro rosso intorno al comando per la creazione di un nuovo pool di Apache Spark.

  2. Immettere i dettagli seguenti nella scheda Informazioni di base:

    Impostazione Valore suggerito Descrizione
    Nome del pool di Apache Spark Un nome di pool valido, ad esempio contosospark Si tratta del nome che avrà il pool di Apache Spark.
    Dimensioni nodo Piccole (4 vCPU/32 GB) Per questa guida di avvio rapido, impostare questa opzione sulle dimensioni minime per ridurre i costi
    Autoscale Disabilitato La scalabilità automatica non è necessaria per questo argomento di avvio rapido
    Numero di nodi 5 Usare dimensioni ridotte per limitare i costi per questo argomento di avvio rapido

    Screenshot del portale di Azure del flusso di creazione del pool di Apache Spark - scheda Informazioni di base.

    Importante

    Esistono limitazioni specifiche per i nomi che è possibile usare per i pool di Apache Spark. I nomi possono contenere solo lettere o numeri, devono essere costituiti da un massimo di 15 caratteri, devono iniziare con una lettera, non possono contenere parole riservate e devono essere univoci nell'area di lavoro.

  3. Selezionare Avanti: Impostazioni aggiuntive ed esaminare le impostazioni predefinite. Non modificare le impostazioni predefinite. Screenshot dal portale di Azure che mostra la pagina

  4. Selezionare Avanti: tag. Prendere in considerazione l'uso di tag di Azure. Ad esempio, il tag “Owner” o ‘CreatedBy’ per identificare chi ha creato la risorsa e il tag “Environment” per identificare se questa risorsa si trova nell’ambiente di produzione, di sviluppo, ecc. Per altre informazioni, vedere Sviluppare una strategia di denominazione e tagging per risorse di Azure. Screenshot dal portale di Azure del flusso di creazione del pool di Apache Spark: scheda delle impostazioni aggiuntive.

  5. Selezionare Rivedi e crea.

  6. Verificare che i dettagli siano corretti in base a quanto specificato in precedenza, quindi selezionare Crea. Screenshot del portale di Azure del flusso di creazione del pool di Apache Spark: scheda delle impostazioni di revisione.

  7. A questo punto, verrà avviato il flusso di provisioning delle risorse e verrà indicato quando è completato. Screenshot dal portale di Azure che mostra le pagina

  8. Al termine del provisioning, tornando nell'area di lavoro viene visualizzata una nuova voce per il pool di Apache Spark appena creato. Screenshot del portale di Azure del flusso di creazione del pool di Apache Spark: provisioning delle risorse.

  9. A questo punto, non sono in esecuzione risorse, non sono presenti addebiti per Spark e sono stati creati i metadati sulle istanze di Spark da creare.

Pulire le risorse

La procedura seguente consente di eliminare il pool di Apache Spark dall'area di lavoro.

Avvertimento

Con l'eliminazione di un pool di Apache Spark, viene rimosso anche il motore di analisi dall'area di lavoro. Non sarà più possibile connettersi al pool di Apache Spark e tutte le query, le pipeline e i notebook che lo usano non funzioneranno più.

Per eliminare il pool di Apache Spark, seguire questa procedura:

  1. Passare al riquadro Pool di Apache Spark nell'area di lavoro.
  2. Selezionare il pool di Apache Spark da eliminare (in questo caso, contosospark).
  3. Selezionare Elimina. Screenshot del portale di Azure di un elenco di pool di Apache Spark, con il pool creato di recente selezionato.
  4. Confermare l'eliminazione e selezionare il pulsante Elimina. Screenshot dal portale di Azure della finestra di dialogo Conferma per eliminare il pool di Apache Spark selezionato.
  5. Quando il processo viene completato, il pool di Apache Spark non sarà più elencato nelle risorse dell'area di lavoro.