次の方法で共有


array_max

配列の最大値を返します。

構文

from pyspark.sql import functions as sf

sf.array_max(col)

パラメーター

パラメーター タイプ Description
col pyspark.sql.Column または str 列の名前、または配列を表す式。

返品ポリシー

pyspark.sql.Column: 各配列の最大値を含む新しい列。

例示

例 1: 整数配列での基本的な使用法

from pyspark.sql import functions as sf
df = spark.createDataFrame([([2, 1, 3],), ([None, 10, -1],)], ['data'])
df.select(sf.array_max(df.data)).show()
+---------------+
|array_max(data)|
+---------------+
|              3|
|             10|
+---------------+

例 2: 文字列配列での使用法

from pyspark.sql import functions as sf
df = spark.createDataFrame([(['apple', 'banana', 'cherry'],)], ['data'])
df.select(sf.array_max(df.data)).show()
+---------------+
|array_max(data)|
+---------------+
|         cherry|
+---------------+

例 3: 混合型配列での使用法

from pyspark.sql import functions as sf
df = spark.createDataFrame([(['apple', 1, 'cherry'],)], ['data'])
df.select(sf.array_max(df.data)).show()
+---------------+
|array_max(data)|
+---------------+
|         cherry|
+---------------+

例 4: 配列の配列での使用法

from pyspark.sql import functions as sf
df = spark.createDataFrame([([[2, 1], [3, 4]],)], ['data'])
df.select(sf.array_max(df.data)).show()
+---------------+
|array_max(data)|
+---------------+
|         [3, 4]|
+---------------+

例 5: 空の配列での使用法

from pyspark.sql import functions as sf
from pyspark.sql.types import ArrayType, IntegerType, StructType, StructField
schema = StructType([
  StructField("data", ArrayType(IntegerType()), True)
])
df = spark.createDataFrame([([],)], schema=schema)
df.select(sf.array_max(df.data)).show()
+---------------+
|array_max(data)|
+---------------+
|           NULL|
+---------------+