次の方法で共有


array_repeat

列の繰り返し回数を含む配列を作成します。

構文

from pyspark.sql import functions as sf

sf.array_repeat(col, count)

パラメーター

パラメーター タイプ Description
col pyspark.sql.Column または str 繰り返される要素を表す列または式の名前。
count pyspark.sql.Column、str、または int 要素を繰り返す回数を表す列、式、または整数の名前。

返品ポリシー

pyspark.sql.Column: 繰り返し要素の配列を含む新しい列。

例示

例 1: 文字列での使用法

from pyspark.sql import functions as sf
df = spark.createDataFrame([('ab',)], ['data'])
df.select(sf.array_repeat(df.data, 3)).show()
+---------------------+
|array_repeat(data, 3)|
+---------------------+
|         [ab, ab, ab]|
+---------------------+

例 2: 整数での使用法

from pyspark.sql import functions as sf
df = spark.createDataFrame([(3,)], ['data'])
df.select(sf.array_repeat(df.data, 2)).show()
+---------------------+
|array_repeat(data, 2)|
+---------------------+
|               [3, 3]|
+---------------------+

例 3: 配列での使用法

from pyspark.sql import functions as sf
df = spark.createDataFrame([(['apple', 'banana'],)], ['data'])
df.select(sf.array_repeat(df.data, 2)).show(truncate=False)
+----------------------------------+
|array_repeat(data, 2)             |
+----------------------------------+
|[[apple, banana], [apple, banana]]|
+----------------------------------+

例 4: null での使用

from pyspark.sql import functions as sf
from pyspark.sql.types import IntegerType, StructType, StructField
schema = StructType([
  StructField("data", IntegerType(), True)
])
df = spark.createDataFrame([(None, )], schema=schema)
df.select(sf.array_repeat(df.data, 3)).show()
+---------------------+
|array_repeat(data, 3)|
+---------------------+
|   [NULL, NULL, NULL]|
+---------------------+