次の方法で共有


グループ

集計関数: GROUP BY リスト内の指定された列が集計されているかどうかを示し、集計された列の場合は 1 を返し、結果セットでは集計されない場合は 0 を返します。

構文

from pyspark.sql import functions as sf

sf.grouping(col)

パラメーター

パラメーター タイプ Description
col pyspark.sql.Column または str 集計されているかどうかを確認する列。

返品ポリシー

pyspark.sql.Column: 集計された場合は 1 を返し、結果セットでは集計されない場合は 0 を返します。

例示

例 1: キューブ操作でグループ化の状態を確認する

from pyspark.sql import functions as sf
df = spark.createDataFrame([("Alice", 2), ("Bob", 5)], ("name", "age"))
df.cube("name").agg(sf.grouping("name"), sf.sum("age")).orderBy("name").show()
+-----+--------------+--------+
| name|grouping(name)|sum(age)|
+-----+--------------+--------+
| NULL|             1|       7|
|Alice|             0|       2|
|  Bob|             0|       5|
+-----+--------------+--------+