次の方法で共有


explode_outer

指定された配列またはマップ内の各要素の新しい行を返します。 分解とは異なり、配列/マップが null または空の場合、null が生成されます。 特に指定しない限り、配列内の要素に既定の列名 col を使用し、マップ内の要素の keyvalue を使用します。

構文

from pyspark.sql import functions as sf

sf.explode_outer(col)

パラメーター

パラメーター タイプ Description
col pyspark.sql.Column または列名 作業対象の列。

返品ポリシー

pyspark.sql.Column: 配列項目またはマップ キー値ごとに 1 行。

例示

例 1: 配列列の使用

from pyspark.sql import functions as sf
df = spark.sql('SELECT * FROM VALUES (1,ARRAY(1,2,3,NULL)), (2,ARRAY()), (3,NULL) AS t(i,a)')
df.select('*', sf.explode_outer('a')).show()
+---+---------------+----+
|  i|              a| col|
+---+---------------+----+
|  1|[1, 2, 3, NULL]|   1|
|  1|[1, 2, 3, NULL]|   2|
|  1|[1, 2, 3, NULL]|   3|
|  1|[1, 2, 3, NULL]|NULL|
|  2|             []|NULL|
|  3|           NULL|NULL|
+---+---------------+----+

例 2: マップ列の使用

from pyspark.sql import functions as sf
df = spark.sql('SELECT * FROM VALUES (1,MAP(1,2,3,4,5,NULL)), (2,MAP()), (3,NULL) AS t(i,m)')
df.select('*', sf.explode_outer('m')).show(truncate=False)
+---+---------------------------+----+-----+
|i  |m                          |key |value|
+---+---------------------------+----+-----+
|1  |{1 -> 2, 3 -> 4, 5 -> NULL}|1   |2    |
|1  |{1 -> 2, 3 -> 4, 5 -> NULL}|3   |4    |
|1  |{1 -> 2, 3 -> 4, 5 -> NULL}|5   |NULL |
|2  |{}                         |NULL|NULL |
|3  |NULL                       |NULL|NULL |
+---+---------------------------+----+-----+