Condividi tramite


Avvio rapido: trasformare i dati usando la definizione del processo Apache Spark

In questo avvio rapido si userà Azure Synapse Analytics per creare una pipeline usando la definizione del processo Apache Spark.

Prerequisiti

Dopo aver creato l'area di lavoro di Azure Synapse, è possibile aprire Synapse Studio in due modi:

  • Aprire l'area di lavoro di Synapse nel portale di Azure. Selezionare Apri nella scheda Apri Synapse Studio sotto Attività iniziali.
  • Aprire Azure Synapse Analytics e accedere all'area di lavoro.

In questo avvio rapido viene usata come esempio l'area di lavoro denominata "sampletest". Si verrà indirizzati automaticamente alla home page di Synapse Studio.

synapse studio home page

Creare una pipeline con una definizione di processo Apache Spark

Una pipeline contiene il flusso logico per un'esecuzione di un set di attività. In questa sezione si creerà una pipeline che contiene un'attività di definizione del processo Apache Spark.

  1. Passare alla scheda Integrazione. Selezionare l'icona con il segno più accanto all'intestazione della pipeline e quindi selezionare Pipeline.

    Create a new pipeline

  2. Nella pagina delle impostazioni Proprietà della pipeline immettere demo per Nome.

  3. In Synapse nel riquadro Attività trascinare la definizione del processo Spark nel canvas della pipeline.

    drag spark job definition

Impostare il canvas della definizione del processo Apache Spark

Dopo aver creato la definizione del processo Apache Spark, si verrà inviati automaticamente al canvas della definizione del processo Spark.

Impostazioni generali

  1. Selezionare il modulo di definizione del processo Spark nel canvas.

  2. Nella scheda Generale immettere sample per Nome.

  3. (Facoltativo) È anche possibile immettere una descrizione.

  4. Timeout: tempo massimo di esecuzione di un'attività. Il valore predefinito è sette giorni, ovvero la quantità massima di tempo consentita. Il formato è in D.HH:MM:SS.

  5. Retry: il numero massimo di tentativi.

  6. Intervallo tra tentativi: numero di secondi tra ogni tentativo.

  7. Output sicuro: quando selezionato, l'output dell'attività non verrà acquisito nella registrazione.

  8. Input sicuro: se selezionato, l'input dell'attività non verrà acquisito nella registrazione.

    spark job definition general

Scheda Impostazioni

In questo pannello è possibile fare riferimento alla definizione del processo Spark da eseguire.

  • Espandere l'elenco delle definizioni di processo Spark; è possibile scegliere una definizione di processo Apache Spark esistente. È anche possibile creare una nuova definizione di processo Apache Spark selezionando il pulsante Nuovo per fare riferimento alla definizione del processo Spark da eseguire.

  • (Facoltativo) È possibile immettere le informazioni per la definizione di processo Apache Spark. Se le impostazioni seguenti sono vuote, le impostazioni della definizione del processo Spark verranno usate per l'esecuzione; se le impostazioni seguenti non sono vuote, queste impostazioni sostituiranno le impostazioni della definizione del processo Spark stesso.

    Proprietà Descrizione
    File di definizione principale File principale usato per il processo. Selezionare un file PY/JAR/ZIP dalla risorsa di archiviazione. È possibile selezionare Carica file per caricare il file in un account di archiviazione.
    Esempio: abfss://…/path/to/wordcount.jar
    Riferimenti da sottocartelle L'analisi delle sottocartelle dalla cartella radice del file di definizione principale; questi file verranno aggiunti come file di riferimento. Le cartelle denominate "jars", "pyFiles", "files" o "archives" verranno analizzate; il nome delle cartelle fa distinzione tra maiuscole e minuscole.
    Nome della classe principale Identificatore completo o classe principale inclusa nel file di definizione principale.
    Esempio: WordCount
    Argomenti della riga di comando È possibile aggiungere argomenti della riga di comando facendo clic sul pulsante Nuovo. Si noti che l'aggiunta di argomenti della riga di comando sostituirà gli argomenti della riga di comando definiti dalla definizione del processo Spark.
    Esempio: abfss://…/path/to/shakespeare.txtabfss://…/path/to/result
    Pool di Apache Spark È possibile selezionare il pool di Apache Spark dall'elenco.
    Informazioni di riferimento sul codice Python File di codice Python aggiuntivi usati per riferimento nel file di definizione principale.
    Supporta il passaggio di file (.py, py3 .zip) alla proprietà "pyFiles". Eseguirà l'override della proprietà "pyFiles" definita nella definizione del processo Spark.
    File di riferimento File aggiuntivi usati come riferimento nel file di definizione principale.
    Allocare dinamicamente gli executor Questa impostazione esegue il mapping alla proprietà di allocazione dinamica nella configurazione Spark per l'allocazione degli executor dell'applicazione Spark.
    Numero minimo di executor Numero minimo di executor da allocare nel pool di Spark specificato per il processo.
    Numero massimo di executor Numero massimo di executor da allocare nel pool di Spark specificato per il processo.
    Dimensioni driver Numero di core e memoria da usare per il driver indicato nel pool di Apache Spark specificato per il processo.
    Configurazione di Spark Specificare i valori delle proprietà di configurazione di Spark elencati nell'argomento: Configurazione di SparK: proprietà dell'applicazione. Gli utenti possono usare la configurazione predefinita e quella personalizzata.

    spark job definition pipline settings

  • È possibile aggiungere contenuto dinamico facendo clic sul pulsante Aggiungi contenuto dinamico o premendo il tasto di scelta rapida Alt+Maiusc+D. Nella pagina Aggiungi contenuto dinamico è possibile usare qualsiasi combinazione di espressioni, funzioni e variabili di sistema da aggiungere al contenuto dinamico.

    add dynamic content

Scheda Proprietà utente

In questo pannello è possibile aggiungere proprietà per l'attività di definizione del processo Apache Spark.

user properties

Passaggi successivi

Leggere gli articoli seguenti per altre informazioni sul supporto di Azure Synapse Analytics: