Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Azure Synapse Analytics offre vari motori di analisi che consentono di inserire, trasformare, modellare, analizzare e distribuire i dati. Un pool di Apache Spark offre funzionalità di calcolo big data open source. Dopo aver creato un pool di Apache Spark nell'area di lavoro synapse, è possibile caricare, modellare, elaborare e distribuire i dati per ottenere informazioni analitiche più rapide.
In questa guida introduttiva si apprenderà come usare il portale di Azure per creare un pool di Apache Spark in un'area di lavoro di Synapse.
Importante
La fatturazione delle istanze di Spark viene calcolata con ripartizione proporzionale al minuto, indipendentemente dal fatto che siano in uso o meno. Assicurarsi di arrestare l'istanza di Spark dopo averla usata oppure impostare un timeout breve. Per altre informazioni, vedere la sezione Pulire le risorse di questo articolo.
Se non si ha una sottoscrizione di Azure, creare un account gratuito prima di iniziare.
Prerequisiti
- È necessaria una sottoscrizione di Azure. Se necessario, creare un account Azure gratuito
- Si userà l'area di lavoro di Synapse.
Accedere al portale di Azure
Accedere al portale di Azure
Accedere all'area di lavoro di Synapse
Passare all'area di lavoro di Synapse in cui verrà creato il pool di Apache Spark digitando il nome del servizio (o direttamente il nome della risorsa) nella barra di ricerca.
Dall'elenco delle aree di lavoro, digitare il nome (o parte del nome) dell'area di lavoro da aprire. Per questo esempio viene usata un'area di lavoro denominata contosoanalytics.
Creare un nuovo pool di Apache Spark
Nell'area di lavoro di Synapse in cui si vuole creare il pool di Apache Spark selezionare Nuovo pool di Apache Spark.
Immettere i dettagli seguenti nella scheda Informazioni di base:
Impostazione Valore suggerito Descrizione Nome del pool di Apache Spark Un nome di pool valido, ad esempio contosospark
Si tratta del nome che avrà il pool di Apache Spark. Dimensioni nodo Piccole (4 vCPU/32 GB) Per questa guida di avvio rapido, impostare questa opzione sulle dimensioni minime per ridurre i costi Scalabilità automatica Disabilitato Per questa guida introduttiva non è necessaria la scalabilità automatica Numero di nodi 5 Usare una dimensione ridotta per limitare i costi per questa guida introduttiva Importante
Esistono limitazioni specifiche per i nomi che possono essere usati dai pool di Apache Spark. I nomi possono contenere solo lettere o numeri, devono essere costituiti da un massimo di 15 caratteri, devono iniziare con una lettera, non possono contenere parole riservate e devono essere univoci nell'area di lavoro.
Selezionare Avanti: impostazioni aggiuntive ed esaminare le impostazioni predefinite. Non modificare le impostazioni predefinite.
Seleziona Avanti: tag. Prendere in considerazione l'uso dei tag di Azure. Ad esempio, il tag "Owner" o "CreatedBy" per identificare chi ha creato la risorsa e il tag "Environment" per identificare se questa risorsa si trova in Production, Development e così via. Per altre informazioni, vedere Sviluppare la strategia di denominazione e assegnazione di tag per le risorse di Azure.
Selezionare Rivedi e crea.
Assicurarsi che i dettagli siano corretti in base a quanto immesso in precedenza e selezionare Crea.
A questo punto, verrà avviato il flusso di provisioning delle risorse, che indica una volta completato.
Al termine del provisioning, tornando all'area di lavoro verrà visualizzata una nuova voce per il pool di Apache Spark appena creato.
A questo punto, non sono in esecuzione risorse, senza addebiti per Spark, sono stati creati metadati sulle istanze di Spark che si vuole creare.
Pulire le risorse
I passaggi seguenti eliminano il pool di Apache Spark dall'area di lavoro.
Avvertimento
L'eliminazione di un pool di Apache Spark rimuoverà il motore di analisi dall'area di lavoro. Non sarà più possibile connettersi al pool e tutte le query, le pipeline e i notebook che usano questo pool di Apache Spark non funzioneranno più.
Per eliminare il pool di Apache Spark, seguire questa procedura:
- Passare al riquadro Pool di Apache Spark nell'area di lavoro.
- Selezionare il pool di Apache Spark da eliminare (in questo caso contosospark).
- Selezionare Elimina.
- Confermare l'eliminazione e selezionare Il pulsante Elimina .
- Quando il processo viene completato, il pool di Apache Spark non sarà più elencato nelle risorse dell'area di lavoro.