Nota
O acesso a esta página requer autorização. Pode tentar iniciar sessão ou alterar os diretórios.
O acesso a esta página requer autorização. Pode tentar alterar os diretórios.
Aplica-se a:
Databricks SQL
Databricks Runtime
Retorna um conjunto de linhas ao descompactar collection.
No Databricks SQL e no Databricks Runtime 13.3 LTS e superior, esta função suporta a invocação de parâmetros nomeados.
Sintaxe
explode(collection)
Argumentos
-
collection: UmaARRAYouMAPexpressão.
Devoluções
Um conjunto de linhas composto pelos elementos da matriz ou as chaves e valores do mapa.
A coluna produzida por explode de uma matriz é denominada col.
As colunas de um mapa são chamadas key e value.
Se collection for NULL, nenhuma linha é produzida. Para retornar uma única linha que inclui NULLs nos valores de matriz ou mapa, use a função explode_outer().
Aplica-se a:
Databricks Runtime 12.1 e anteriores:explodesó pode ser colocado na lista deSELECTcomo a raiz de uma expressão ou seguindo um LATERAL VIEW. Ao colocar a função na listaSELECT, não pode haver qualquer outra função geradora na mesma listaSELECT, caso contrário, UNSUPPORTED_GENERATOR.MULTI_GENERATOR é acionada.Aplica-se a:
Databricks SQL
Databricks Runtime 12.2 LTS e superior:A invocação da cláusula LATERAL VIEW ou da lista
SELECTestá obsoleta. Em vez disso, invoqueexplodecomo um table_reference.
Exemplos
Aplica-se a:
Databricks SQL
Databricks Runtime 12.1 e anteriores:
> SELECT explode(array(10, 20)) AS elem, 'Spark';
10 Spark
20 Spark
> SELECT explode(map(1, 'a', 2, 'b')) AS (num, val), 'Spark';
1 a Spark
2 b Spark
> SELECT explode(array(1, 2)), explode(array(3, 4));
Error: UNSUPPORTED_GENERATOR.MULTI_GENERATOR
-- The difference between explode() and explode_outer() is that explode_outer() returns NULL if the array is NULL.
> SELECT explode_outer(c1) AS elem, 'Spark' FROM VALUES(array(10, 20)), (null) AS T(c1);
10 Spark
20 Spark
NULL Spark
> SELECT explode(c1) AS elem, 'Spark' FROM VALUES(array(10, 20)), (null) AS T(c1);
10 Spark
20 Spark
Aplica-se a:
Databricks SQL
Databricks Runtime 12.2 LTS e superior:
> SELECT elem, 'Spark' FROM explode(array(10, 20)) AS t(elem);
10 Spark
20 Spark
> SELECT num, val, 'Spark' FROM explode(map(1, 'a', 2, 'b')) AS t(num, val);
1 a Spark
2 b Spark
> SELECT * FROM explode(array(1, 2)), explode(array(3, 4));
1 3
1 4
2 3
2 4
-- Using lateral correlation in Databricks 12.2 and above
> SELECT * FROM explode(array(1, 2)) AS t, LATERAL explode(array(3 * t.col, 4 * t.col));
1 3
1 4
2 6
2 8