Condividi tramite


array_append

Restituisce una nuova colonna di matrice aggiungendo un valore alla matrice esistente.

Sintassi

from pyspark.sql import functions as sf

sf.array_append(col, value)

Parametri

Parametro TIPO Description
col pyspark.sql.Column o str Nome della colonna contenente la matrice.
value Qualunque Valore letterale o espressione Column da aggiungere alla matrice.

Restituzioni

pyspark.sql.Column: nuova colonna di matrice con value aggiunta alla matrice originale.

Esempi

Esempio 1: Aggiunta di un valore di colonna a una colonna di matrice

from pyspark.sql import Row, functions as sf
df = spark.createDataFrame([Row(c1=["b", "a", "c"], c2="c")])
df.select(sf.array_append(df.c1, df.c2)).show()
+--------------------+
|array_append(c1, c2)|
+--------------------+
|        [b, a, c, c]|
+--------------------+

Esempio 2: Aggiunta di un valore numerico a una colonna di matrice

from pyspark.sql import functions as sf
df = spark.createDataFrame([([1, 2, 3],)], ['data'])
df.select(sf.array_append(df.data, 4)).show()
+---------------------+
|array_append(data, 4)|
+---------------------+
|         [1, 2, 3, 4]|
+---------------------+

Esempio 3: Aggiunta di un valore Null a una colonna di matrice

from pyspark.sql import functions as sf
df = spark.createDataFrame([([1, 2, 3],)], ['data'])
df.select(sf.array_append(df.data, None)).show()
+------------------------+
|array_append(data, NULL)|
+------------------------+
|         [1, 2, 3, NULL]|
+------------------------+

Esempio 4: Aggiunta di un valore a una colonna di matrice NULL

from pyspark.sql import functions as sf
from pyspark.sql.types import ArrayType, IntegerType, StructType, StructField
schema = StructType([
  StructField("data", ArrayType(IntegerType()), True)
])
df = spark.createDataFrame([(None,)], schema=schema)
df.select(sf.array_append(df.data, 4)).show()
+---------------------+
|array_append(data, 4)|
+---------------------+
|                 NULL|
+---------------------+

Esempio 5: Aggiunta di un valore a una matrice vuota

from pyspark.sql import functions as sf
from pyspark.sql.types import ArrayType, IntegerType, StructType, StructField
schema = StructType([
  StructField("data", ArrayType(IntegerType()), True)
])
df = spark.createDataFrame([([],)], schema=schema)
df.select(sf.array_append(df.data, 1)).show()
+---------------------+
|array_append(data, 1)|
+---------------------+
|                  [1]|
+---------------------+