Megosztás:


array_repeat

Olyan tömböt hoz létre, amely ismétlődő számokat tartalmazó oszlopot tartalmaz.

Szemantika

from pyspark.sql import functions as sf

sf.array_repeat(col, count)

Paraméterek

Paraméter Típus Description
col pyspark.sql.Column vagy str Az ismétlődő elemet jelképező oszlop vagy kifejezés neve.
count pyspark.sql.Column, str vagy int Az oszlop, kifejezés vagy egész szám neve, amely az elem ismétlődésének hányszorosát jelöli.

Visszatérítések

pyspark.sql.Column: Egy új oszlop, amely ismétlődő elemek tömbjét tartalmazza.

Példák

1. példa: Használat sztringgel

from pyspark.sql import functions as sf
df = spark.createDataFrame([('ab',)], ['data'])
df.select(sf.array_repeat(df.data, 3)).show()
+---------------------+
|array_repeat(data, 3)|
+---------------------+
|         [ab, ab, ab]|
+---------------------+

2. példa: Használat egész számmal

from pyspark.sql import functions as sf
df = spark.createDataFrame([(3,)], ['data'])
df.select(sf.array_repeat(df.data, 2)).show()
+---------------------+
|array_repeat(data, 2)|
+---------------------+
|               [3, 3]|
+---------------------+

3. példa: Használat tömbbel

from pyspark.sql import functions as sf
df = spark.createDataFrame([(['apple', 'banana'],)], ['data'])
df.select(sf.array_repeat(df.data, 2)).show(truncate=False)
+----------------------------------+
|array_repeat(data, 2)             |
+----------------------------------+
|[[apple, banana], [apple, banana]]|
+----------------------------------+

4. példa: Használat null értékkel

from pyspark.sql import functions as sf
from pyspark.sql.types import IntegerType, StructType, StructField
schema = StructType([
  StructField("data", IntegerType(), True)
])
df = spark.createDataFrame([(None, )], schema=schema)
df.select(sf.array_repeat(df.data, 3)).show()
+---------------------+
|array_repeat(data, 3)|
+---------------------+
|   [NULL, NULL, NULL]|
+---------------------+