通过


array_size

返回数组中的元素总数。 该函数返回 null 输入的 null。

Syntax

from pyspark.sql import functions as sf

sf.array_size(col)

参数

参数 类型 Description
col pyspark.sql.Column 或 str 表示数组的列或表达式的名称。

退货

pyspark.sql.Column:一个新列,其中包含每个数组的大小。

例子

示例 1:整数数组的基本用法

from pyspark.sql import functions as sf
df = spark.createDataFrame([([2, 1, 3],), (None,)], ['data'])
df.select(sf.array_size(df.data)).show()
+----------------+
|array_size(data)|
+----------------+
|               3|
|            NULL|
+----------------+

示例 2:字符串数组的用法

from pyspark.sql import functions as sf
df = spark.createDataFrame([(['apple', 'banana', 'cherry'],)], ['data'])
df.select(sf.array_size(df.data)).show()
+----------------+
|array_size(data)|
+----------------+
|               3|
+----------------+

示例 3:混合类型数组的用法

from pyspark.sql import functions as sf
df = spark.createDataFrame([(['apple', 1, 'cherry'],)], ['data'])
df.select(sf.array_size(df.data)).show()
+----------------+
|array_size(data)|
+----------------+
|               3|
+----------------+

示例 4:数组数组的用法

from pyspark.sql import functions as sf
df = spark.createDataFrame([([[2, 1], [3, 4]],)], ['data'])
df.select(sf.array_size(df.data)).show()
+----------------+
|array_size(data)|
+----------------+
|               2|
+----------------+

示例 5:使用空数组

from pyspark.sql import functions as sf
from pyspark.sql.types import ArrayType, IntegerType, StructType, StructField
schema = StructType([
  StructField("data", ArrayType(IntegerType()), True)
])
df = spark.createDataFrame([([],)], schema=schema)
df.select(sf.array_size(df.data)).show()
+----------------+
|array_size(data)|
+----------------+
|               0|
+----------------+