一组用于在 DataFrame DataFrame.groupBy上创建的聚合的方法。
支持 Spark Connect
Syntax
DataFrame.groupBy(*cols)
方法
| 方法 | 说明 |
|---|---|
agg(*exprs) |
计算聚合并将结果作为数据帧返回。 接受字典将列名映射到聚合函数名称,或聚合列表达式的列表。 |
avg(*cols) |
计算每个组的每个数值列的平均值。
mean 是别名。 |
count() |
计算每个组的记录数。 |
max(*cols) |
计算每个组的每个数值列的最大值。 |
mean(*cols) |
计算每个组的每个数值列的平均值。
avg 是别名。 |
min(*cols) |
计算每个组的每个数值列的最小值。 |
pivot(pivot_col, values) |
透视当前 DataFrame 的列并执行指定的聚合。 |
sum(*cols) |
计算每个组的每个数值列的总和。 |
示例
df = spark.createDataFrame(
[(2, "Alice"), (3, "Alice"), (5, "Bob"), (10, "Bob")], ["age", "name"])
df.groupBy("name").count().sort("name").show()
+-----+-----+
| name|count|
+-----+-----+
|Alice| 2|
| Bob| 2|
+-----+-----+
from pyspark.sql import functions as sf
df.groupBy("name").agg(sf.min("age")).sort("name").show()
+-----+--------+
| name|min(age)|
+-----+--------+
|Alice| 2|
| Bob| 5|
+-----+--------+
df.groupBy("name").avg("age").sort("name").show()
+-----+--------+
| name|avg(age)|
+-----+--------+
|Alice| 2.5|
| Bob| 7.5|
+-----+--------+
from pyspark.sql import Row
df1 = spark.createDataFrame([
Row(course="dotNET", year=2012, earnings=10000),
Row(course="Java", year=2012, earnings=20000),
Row(course="dotNET", year=2013, earnings=48000),
Row(course="Java", year=2013, earnings=30000),
])
df1.groupBy("year").pivot("course", ["dotNET", "Java"]).sum("earnings").sort("year").show()
+----+------+-----+
|year|dotNET| Java|
+----+------+-----+
|2012| 10000|20000|
|2013| 48000|30000|
+----+------+-----+