Megosztás:


array_append

Egy új tömboszlopot ad vissza egy érték hozzáfűzésével a meglévő tömbhöz.

Szemantika

from pyspark.sql import functions as sf

sf.array_append(col, value)

Paraméterek

Paraméter Típus Description
col pyspark.sql.Column vagy str A tömböt tartalmazó oszlop neve.
value Bármely A tömbhöz hozzáfűzendő literális érték vagy oszlopkifejezés.

Visszatérítések

pyspark.sql.Column: Új tömboszlop az value eredeti tömbhöz fűzve.

Példák

1. példa: Oszlopérték hozzáfűzése tömboszlophoz

from pyspark.sql import Row, functions as sf
df = spark.createDataFrame([Row(c1=["b", "a", "c"], c2="c")])
df.select(sf.array_append(df.c1, df.c2)).show()
+--------------------+
|array_append(c1, c2)|
+--------------------+
|        [b, a, c, c]|
+--------------------+

2. példa: Numerikus érték hozzáfűzése tömboszlophoz

from pyspark.sql import functions as sf
df = spark.createDataFrame([([1, 2, 3],)], ['data'])
df.select(sf.array_append(df.data, 4)).show()
+---------------------+
|array_append(data, 4)|
+---------------------+
|         [1, 2, 3, 4]|
+---------------------+

3. példa: Null érték hozzáfűzése tömboszlophoz

from pyspark.sql import functions as sf
df = spark.createDataFrame([([1, 2, 3],)], ['data'])
df.select(sf.array_append(df.data, None)).show()
+------------------------+
|array_append(data, NULL)|
+------------------------+
|         [1, 2, 3, NULL]|
+------------------------+

4. példa: Érték hozzáfűzése NULL tömboszlophoz

from pyspark.sql import functions as sf
from pyspark.sql.types import ArrayType, IntegerType, StructType, StructField
schema = StructType([
  StructField("data", ArrayType(IntegerType()), True)
])
df = spark.createDataFrame([(None,)], schema=schema)
df.select(sf.array_append(df.data, 4)).show()
+---------------------+
|array_append(data, 4)|
+---------------------+
|                 NULL|
+---------------------+

5. példa: Érték hozzáfűzése egy üres tömbhöz

from pyspark.sql import functions as sf
from pyspark.sql.types import ArrayType, IntegerType, StructType, StructField
schema = StructType([
  StructField("data", ArrayType(IntegerType()), True)
])
df = spark.createDataFrame([([],)], schema=schema)
df.select(sf.array_append(df.data, 1)).show()
+---------------------+
|array_append(data, 1)|
+---------------------+
|                  [1]|
+---------------------+