Condividi tramite


explode Funzione generatore con valori di tabella

Si applica a: segno di spunta sì Databricks SQL segno di spunta sì Databricks Runtime

Restituisce un set di righe annullando l'annidamento collectiondi .

In Databricks SQL e Databricks Runtime 13.3 LTS e versioni successive questa funzione supporta la chiamata di parametri denominati.

Sintassi

explode(collection)

Argomenti

  • collection: espressione ARRAY o MAP .

Valori restituiti

Set di righe composte dagli elementi della matrice o delle chiavi e dei valori della mappa. La colonna prodotta da explode una matrice è denominata col. Le colonne per una mappa vengono chiamate key e value.

Se collection non viene NULL generata alcuna riga.

  • Si applica a: segno di spunta sì Databricks Runtime 12.1 e versioni precedenti:

    explode può essere inserito nell'elenco SELECT solo come radice di un'espressione o dopo una VISUALIZZAZIONE LATERALE. Quando si inserisce la funzione nell'elenco SELECT non deve essere presente alcuna altra funzione generatore nello stesso SELECT elenco o UNSUPPORTED_GENERATOR. MULTI_GENERATOR viene generato.

  • Si applica a: segno di spunta sì Databricks SQL segno di spunta sì Databricks Runtime 12.2 LTS e versioni successive:

    La chiamata dalla clausola LATERAL VIEW o dall'elenco SELECT è deprecata. Richiamare explode invece come table_reference.

Esempi

Si applica a: segno di spunta sì Databricks SQL segno di spunta sì Databricks Runtime 12.1 e versioni precedenti:

> SELECT explode(array(10, 20)) AS elem, 'Spark';
 10 Spark
 20 Spark

> SELECT explode(map(1, 'a', 2, 'b')) AS (num, val), 'Spark';
 1   a   Spark
 2   b   Spark

> SELECT explode(array(1, 2)), explode(array(3, 4));
  Error: UNSUPPORTED_GENERATOR.MULTI_GENERATOR

Si applica a: segno di spunta sì Databricks SQL segno di spunta sì Databricks Runtime 12.2 LTS e versioni successive:

> SELECT elem, 'Spark' FROM explode(array(10, 20)) AS t(elem);
 10 Spark
 20 Spark

> SELECT num, val, 'Spark' FROM explode(map(1, 'a', 2, 'b')) AS t(num, val);
 1   a   Spark
 2   b   Spark

> SELECT * FROM explode(array(1, 2)), explode(array(3, 4));
 1   3
 1   4
 2   3
 2   4

-- Using lateral correlation in Databricks 12.2 and above
> SELECT * FROM explode(array(1, 2)) AS t, LATERAL explode(array(3 * t.col, 4 * t.col));
 1   3
 1   4
 2   6
 2   8