Notitie
Voor toegang tot deze pagina is autorisatie vereist. U kunt proberen u aan te melden of de directory te wijzigen.
Voor toegang tot deze pagina is autorisatie vereist. U kunt proberen de mappen te wijzigen.
Retourneert een tekenreekskolom door de elementen van de invoermatrixkolom samen te voegen met behulp van het scheidingsteken. Null-waarden in de matrix kunnen worden vervangen door een opgegeven tekenreeks via het argument null_replacement. Als null_replacement niet is ingesteld, worden null-waarden genegeerd.
Syntaxis
from pyspark.sql import functions as sf
sf.array_join(col, delimiter, null_replacement=None)
Parameterwaarden
| Kenmerk | Typologie | Description |
|---|---|---|
col |
pyspark.sql.Column of str |
De invoerkolom met de matrices die moeten worden samengevoegd. |
delimiter |
Str | De tekenreeks die moet worden gebruikt als scheidingsteken bij het samenvoegen van de matrixelementen. |
null_replacement |
str, optioneel | De tekenreeks die null-waarden in de matrix vervangt. Als deze niet is ingesteld, worden null-waarden genegeerd. |
Retouren
pyspark.sql.Column: Een nieuwe kolom van het tekenreekstype, waarbij elke waarde het resultaat is van het samenvoegen van de bijbehorende matrix uit de invoerkolom.
Voorbeelden
Voorbeeld 1: Basisgebruik van array_join functie.
from pyspark.sql import functions as sf
df = spark.createDataFrame([(["a", "b", "c"],), (["a", "b"],)], ['data'])
df.select(sf.array_join(df.data, ",")).show()
+-------------------+
|array_join(data, ,)|
+-------------------+
| a,b,c|
| a,b|
+-------------------+
Voorbeeld 2: Het gebruik van array_join functie met null_replacement argument.
from pyspark.sql import functions as sf
df = spark.createDataFrame([(["a", None, "c"],)], ['data'])
df.select(sf.array_join(df.data, ",", "NULL")).show()
+-------------------------+
|array_join(data, ,, NULL)|
+-------------------------+
| a,NULL,c|
+-------------------------+
Voorbeeld 3: Het gebruik van array_join functie zonder null_replacement argument.
from pyspark.sql import functions as sf
df = spark.createDataFrame([(["a", None, "c"],)], ['data'])
df.select(sf.array_join(df.data, ",")).show()
+-------------------+
|array_join(data, ,)|
+-------------------+
| a,c|
+-------------------+
Voorbeeld 4: Het gebruik van array_join functie met een matrix die null is.
from pyspark.sql import functions as sf
from pyspark.sql.types import StructType, StructField, ArrayType, StringType
schema = StructType([StructField("data", ArrayType(StringType()), True)])
df = spark.createDataFrame([(None,)], schema)
df.select(sf.array_join(df.data, ",")).show()
+-------------------+
|array_join(data, ,)|
+-------------------+
| NULL|
+-------------------+
Voorbeeld 5: Het gebruik van array_join functie met een matrix die alleen null-waarden bevat.
from pyspark.sql import functions as sf
from pyspark.sql.types import StructType, StructField, ArrayType, StringType
schema = StructType([StructField("data", ArrayType(StringType()), True)])
df = spark.createDataFrame([([None, None],)], schema)
df.select(sf.array_join(df.data, ",", "NULL")).show()
+-------------------------+
|array_join(data, ,, NULL)|
+-------------------------+
| NULL,NULL|
+-------------------------+