Megosztás:


array_join

Sztringoszlopot ad vissza a bemeneti tömboszlop elemeinek összefűzésével a határoló használatával. A tömbön belüli null értékek egy megadott sztringre cserélhetők a null_replacement argumentumon keresztül. Ha null_replacement nincs beállítva, a null értékek figyelmen kívül lesznek hagyva.

Szemantika

from pyspark.sql import functions as sf

sf.array_join(col, delimiter, null_replacement=None)

Paraméterek

Paraméter Típus Description
col pyspark.sql.Column vagy str Az illesztendő tömböket tartalmazó bemeneti oszlop.
delimiter str A tömbelemek összekapcsolásakor elválasztóként használandó sztring.
null_replacement str, nem kötelező A tömbön belüli null értékeket lecserélő sztring. Ha nincs beállítva, a null értékek figyelmen kívül lesznek hagyva.

Visszatérítések

pyspark.sql.Column: Egy új, sztring típusú oszlop, amelyben minden érték a megfelelő tömbnek a bemeneti oszlopból való összekapcsolásának eredménye.

Példák

1. példa: A array_join függvény alapszintű használata.

from pyspark.sql import functions as sf
df = spark.createDataFrame([(["a", "b", "c"],), (["a", "b"],)], ['data'])
df.select(sf.array_join(df.data, ",")).show()
+-------------------+
|array_join(data, ,)|
+-------------------+
|              a,b,c|
|                a,b|
+-------------------+

2. példa: Array_join függvény használata null_replacement argumentummal.

from pyspark.sql import functions as sf
df = spark.createDataFrame([(["a", None, "c"],)], ['data'])
df.select(sf.array_join(df.data, ",", "NULL")).show()
+-------------------------+
|array_join(data, ,, NULL)|
+-------------------------+
|                 a,NULL,c|
+-------------------------+

3. példa: Array_join függvény használata null_replacement argumentum nélkül.

from pyspark.sql import functions as sf
df = spark.createDataFrame([(["a", None, "c"],)], ['data'])
df.select(sf.array_join(df.data, ",")).show()
+-------------------+
|array_join(data, ,)|
+-------------------+
|                a,c|
+-------------------+

4. példa: A array_join függvény használata null értékű tömbökkel.

from pyspark.sql import functions as sf
from pyspark.sql.types import StructType, StructField, ArrayType, StringType
schema = StructType([StructField("data", ArrayType(StringType()), True)])
df = spark.createDataFrame([(None,)], schema)
df.select(sf.array_join(df.data, ",")).show()
+-------------------+
|array_join(data, ,)|
+-------------------+
|               NULL|
+-------------------+

5. példa: Array_join függvény használata olyan tömbbel, amely csak null értékeket tartalmaz.

from pyspark.sql import functions as sf
from pyspark.sql.types import StructType, StructField, ArrayType, StringType
schema = StructType([StructField("data", ArrayType(StringType()), True)])
df = spark.createDataFrame([([None, None],)], schema)
df.select(sf.array_join(df.data, ",", "NULL")).show()
+-------------------------+
|array_join(data, ,, NULL)|
+-------------------------+
|                NULL,NULL|
+-------------------------+