Compartilhar via


array_prepend

Retorna uma matriz que contém o elemento fornecido como o primeiro elemento e o restante dos elementos da matriz original.

Sintaxe

from pyspark.sql import functions as sf

sf.array_prepend(col, value)

Parâmetros

Parâmetro Tipo Description
col pyspark.sql.Column ou str Nome da coluna que contém a matriz
value Qualquer Um valor literal ou uma expressão Column.

Devoluções

pyspark.sql.Column: uma matriz com o valor especificado pré-acrescentado.

Exemplos

Exemplo 1: Anexar um valor de coluna a uma coluna de matriz

from pyspark.sql import Row, functions as sf
df = spark.createDataFrame([Row(c1=["b", "a", "c"], c2="c")])
df.select(sf.array_prepend(df.c1, df.c2)).show()
+---------------------+
|array_prepend(c1, c2)|
+---------------------+
|         [c, b, a, c]|
+---------------------+

Exemplo 2: Anexar um valor numérico a uma coluna de matriz

from pyspark.sql import functions as sf
df = spark.createDataFrame([([1, 2, 3],)], ['data'])
df.select(sf.array_prepend(df.data, 4)).show()
+----------------------+
|array_prepend(data, 4)|
+----------------------+
|          [4, 1, 2, 3]|
+----------------------+

Exemplo 3: Anexar um valor nulo a uma coluna de matriz

from pyspark.sql import functions as sf
df = spark.createDataFrame([([1, 2, 3],)], ['data'])
df.select(sf.array_prepend(df.data, None)).show()
+-------------------------+
|array_prepend(data, NULL)|
+-------------------------+
|          [NULL, 1, 2, 3]|
+-------------------------+

Exemplo 4: Anexar um valor a uma coluna de matriz NULL

from pyspark.sql import functions as sf
from pyspark.sql.types import ArrayType, IntegerType, StructType, StructField
schema = StructType([
  StructField("data", ArrayType(IntegerType()), True)
])
df = spark.createDataFrame([(None,)], schema=schema)
df.select(sf.array_prepend(df.data, 4)).show()
+----------------------+
|array_prepend(data, 4)|
+----------------------+
|                  NULL|
+----------------------+

Exemplo 5: Anexar um valor a uma matriz vazia

from pyspark.sql import functions as sf
from pyspark.sql.types import ArrayType, IntegerType, StructType, StructField
schema = StructType([
  StructField("data", ArrayType(IntegerType()), True)
])
df = spark.createDataFrame([([],)], schema=schema)
df.select(sf.array_prepend(df.data, 1)).show()
+----------------------+
|array_prepend(data, 1)|
+----------------------+
|                   [1]|
+----------------------+