Jegyzet
Az oldalhoz való hozzáférés engedélyezést igényel. Próbálhatod be jelentkezni vagy könyvtárat váltani.
Az oldalhoz való hozzáférés engedélyezést igényel. Megpróbálhatod a könyvtár váltását.
Sztringoszlopot ad vissza a bemeneti tömboszlop elemeinek összefűzésével a határoló használatával. A tömbön belüli null értékek egy megadott sztringre cserélhetők a null_replacement argumentumon keresztül. Ha null_replacement nincs beállítva, a null értékek figyelmen kívül lesznek hagyva.
Szemantika
from pyspark.sql import functions as sf
sf.array_join(col, delimiter, null_replacement=None)
Paraméterek
| Paraméter | Típus | Description |
|---|---|---|
col |
pyspark.sql.Column vagy str |
Az illesztendő tömböket tartalmazó bemeneti oszlop. |
delimiter |
str | A tömbelemek összekapcsolásakor elválasztóként használandó sztring. |
null_replacement |
str, nem kötelező | A tömbön belüli null értékeket lecserélő sztring. Ha nincs beállítva, a null értékek figyelmen kívül lesznek hagyva. |
Visszatérítések
pyspark.sql.Column: Egy új, sztring típusú oszlop, amelyben minden érték a megfelelő tömbnek a bemeneti oszlopból való összekapcsolásának eredménye.
Példák
1. példa: A array_join függvény alapszintű használata.
from pyspark.sql import functions as sf
df = spark.createDataFrame([(["a", "b", "c"],), (["a", "b"],)], ['data'])
df.select(sf.array_join(df.data, ",")).show()
+-------------------+
|array_join(data, ,)|
+-------------------+
| a,b,c|
| a,b|
+-------------------+
2. példa: Array_join függvény használata null_replacement argumentummal.
from pyspark.sql import functions as sf
df = spark.createDataFrame([(["a", None, "c"],)], ['data'])
df.select(sf.array_join(df.data, ",", "NULL")).show()
+-------------------------+
|array_join(data, ,, NULL)|
+-------------------------+
| a,NULL,c|
+-------------------------+
3. példa: Array_join függvény használata null_replacement argumentum nélkül.
from pyspark.sql import functions as sf
df = spark.createDataFrame([(["a", None, "c"],)], ['data'])
df.select(sf.array_join(df.data, ",")).show()
+-------------------+
|array_join(data, ,)|
+-------------------+
| a,c|
+-------------------+
4. példa: A array_join függvény használata null értékű tömbökkel.
from pyspark.sql import functions as sf
from pyspark.sql.types import StructType, StructField, ArrayType, StringType
schema = StructType([StructField("data", ArrayType(StringType()), True)])
df = spark.createDataFrame([(None,)], schema)
df.select(sf.array_join(df.data, ",")).show()
+-------------------+
|array_join(data, ,)|
+-------------------+
| NULL|
+-------------------+
5. példa: Array_join függvény használata olyan tömbbel, amely csak null értékeket tartalmaz.
from pyspark.sql import functions as sf
from pyspark.sql.types import StructType, StructField, ArrayType, StringType
schema = StructType([StructField("data", ArrayType(StringType()), True)])
df = spark.createDataFrame([([None, None],)], schema)
df.select(sf.array_join(df.data, ",", "NULL")).show()
+-------------------------+
|array_join(data, ,, NULL)|
+-------------------------+
| NULL,NULL|
+-------------------------+