Megosztás:


explode_outer

Egy új sort ad vissza az adott tömb vagy térkép minden eleméhez. A robbantástól eltérően, ha a tömb/térkép null vagy üres, akkor null érték jön létre. Az alapértelmezett oszlopnevet col használja a tömb elemeihez és keyvalue a térkép elemeihez, kivéve, ha másként van megadva.

Szemantika

from pyspark.sql import functions as sf

sf.explode_outer(col)

Paraméterek

Paraméter Típus Description
col pyspark.sql.Column vagy oszlop neve Céloszlop, amelyen dolgozni szeretne.

Visszatérítések

pyspark.sql.Column: tömbelemenként vagy térképkulcs-értékenként egy sor.

Példák

1. példa: Tömboszlop használata

from pyspark.sql import functions as sf
df = spark.sql('SELECT * FROM VALUES (1,ARRAY(1,2,3,NULL)), (2,ARRAY()), (3,NULL) AS t(i,a)')
df.select('*', sf.explode_outer('a')).show()
+---+---------------+----+
|  i|              a| col|
+---+---------------+----+
|  1|[1, 2, 3, NULL]|   1|
|  1|[1, 2, 3, NULL]|   2|
|  1|[1, 2, 3, NULL]|   3|
|  1|[1, 2, 3, NULL]|NULL|
|  2|             []|NULL|
|  3|           NULL|NULL|
+---+---------------+----+

2. példa: Térképoszlop használata

from pyspark.sql import functions as sf
df = spark.sql('SELECT * FROM VALUES (1,MAP(1,2,3,4,5,NULL)), (2,MAP()), (3,NULL) AS t(i,m)')
df.select('*', sf.explode_outer('m')).show(truncate=False)
+---+---------------------------+----+-----+
|i  |m                          |key |value|
+---+---------------------------+----+-----+
|1  |{1 -> 2, 3 -> 4, 5 -> NULL}|1   |2    |
|1  |{1 -> 2, 3 -> 4, 5 -> NULL}|3   |4    |
|1  |{1 -> 2, 3 -> 4, 5 -> NULL}|5   |NULL |
|2  |{}                         |NULL|NULL |
|3  |NULL                       |NULL|NULL |
+---+---------------------------+----+-----+