Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Erstellt ein Array, das eine Spalte enthält, die eine bestimmte Anzahl von Malen wiederholt wird.
Syntax
from pyspark.sql import functions as sf
sf.array_repeat(col, count)
Die Parameter
| Parameter | Typ | Description |
|---|---|---|
col |
pyspark.sql.Column oder str |
Der Name der Spalte oder eines Ausdrucks, der das element darstellt, das wiederholt werden soll. |
count |
pyspark.sql.Column, str oder int |
Der Name der Spalte, eines Ausdrucks oder einer ganzen Zahl, die die Anzahl der Wiederholungen des Elements darstellt. |
Rückkehr
pyspark.sql.Column: Eine neue Spalte, die ein Array wiederholter Elemente enthält.
Examples
Beispiel 1: Verwendung mit Zeichenfolge
from pyspark.sql import functions as sf
df = spark.createDataFrame([('ab',)], ['data'])
df.select(sf.array_repeat(df.data, 3)).show()
+---------------------+
|array_repeat(data, 3)|
+---------------------+
| [ab, ab, ab]|
+---------------------+
Beispiel 2: Verwendung mit ganzzahliger Zahl
from pyspark.sql import functions as sf
df = spark.createDataFrame([(3,)], ['data'])
df.select(sf.array_repeat(df.data, 2)).show()
+---------------------+
|array_repeat(data, 2)|
+---------------------+
| [3, 3]|
+---------------------+
Beispiel 3: Verwendung mit Array
from pyspark.sql import functions as sf
df = spark.createDataFrame([(['apple', 'banana'],)], ['data'])
df.select(sf.array_repeat(df.data, 2)).show(truncate=False)
+----------------------------------+
|array_repeat(data, 2) |
+----------------------------------+
|[[apple, banana], [apple, banana]]|
+----------------------------------+
Beispiel 4: Verwendung mit NULL
from pyspark.sql import functions as sf
from pyspark.sql.types import IntegerType, StructType, StructField
schema = StructType([
StructField("data", IntegerType(), True)
])
df = spark.createDataFrame([(None, )], schema=schema)
df.select(sf.array_repeat(df.data, 3)).show()
+---------------------+
|array_repeat(data, 3)|
+---------------------+
| [NULL, NULL, NULL]|
+---------------------+