Udostępnij przez


array_prepend

Zwraca tablicę zawierającą dany element jako pierwszy element i pozostałe elementy z oryginalnej tablicy.

Składnia

from pyspark.sql import functions as sf

sf.array_prepend(col, value)

Parametry

Parameter Typ Description
col pyspark.sql.Column lub str Nazwa kolumny zawierającej tablicę
value Jakikolwiek Wartość literału lub wyrażenie kolumny.

Zwraca

pyspark.sql.Column: tablica z podaną wartością poprzedzaną.

Przykłady

Przykład 1. Wstępne tworzenie wartości kolumny w kolumnie tablicy

from pyspark.sql import Row, functions as sf
df = spark.createDataFrame([Row(c1=["b", "a", "c"], c2="c")])
df.select(sf.array_prepend(df.c1, df.c2)).show()
+---------------------+
|array_prepend(c1, c2)|
+---------------------+
|         [c, b, a, c]|
+---------------------+

Przykład 2. Wstępne tworzenie wartości liczbowej w kolumnie tablicy

from pyspark.sql import functions as sf
df = spark.createDataFrame([([1, 2, 3],)], ['data'])
df.select(sf.array_prepend(df.data, 4)).show()
+----------------------+
|array_prepend(data, 4)|
+----------------------+
|          [4, 1, 2, 3]|
+----------------------+

Przykład 3. Wstępne tworzenie wartości null w kolumnie tablicy

from pyspark.sql import functions as sf
df = spark.createDataFrame([([1, 2, 3],)], ['data'])
df.select(sf.array_prepend(df.data, None)).show()
+-------------------------+
|array_prepend(data, NULL)|
+-------------------------+
|          [NULL, 1, 2, 3]|
+-------------------------+

Przykład 4. Wstępne tworzenie wartości w kolumnie tablicy NULL

from pyspark.sql import functions as sf
from pyspark.sql.types import ArrayType, IntegerType, StructType, StructField
schema = StructType([
  StructField("data", ArrayType(IntegerType()), True)
])
df = spark.createDataFrame([(None,)], schema=schema)
df.select(sf.array_prepend(df.data, 4)).show()
+----------------------+
|array_prepend(data, 4)|
+----------------------+
|                  NULL|
+----------------------+

Przykład 5. Wstępne tworzenie wartości w pustej tablicy

from pyspark.sql import functions as sf
from pyspark.sql.types import ArrayType, IntegerType, StructType, StructField
schema = StructType([
  StructField("data", ArrayType(IntegerType()), True)
])
df = spark.createDataFrame([([],)], schema=schema)
df.select(sf.array_prepend(df.data, 1)).show()
+----------------------+
|array_prepend(data, 1)|
+----------------------+
|                   [1]|
+----------------------+