集計関数: GROUP BY リスト内の指定された列が集計されているかどうかを示し、集計された列の場合は 1 を返し、結果セットでは集計されない場合は 0 を返します。
構文
from pyspark.sql import functions as sf
sf.grouping(col)
パラメーター
| パラメーター | タイプ | Description |
|---|---|---|
col |
pyspark.sql.Column または str |
集計されているかどうかを確認する列。 |
返品ポリシー
pyspark.sql.Column: 集計された場合は 1 を返し、結果セットでは集計されない場合は 0 を返します。
例示
例 1: キューブ操作でグループ化の状態を確認する
from pyspark.sql import functions as sf
df = spark.createDataFrame([("Alice", 2), ("Bob", 5)], ("name", "age"))
df.cube("name").agg(sf.grouping("name"), sf.sum("age")).orderBy("name").show()
+-----+--------------+--------+
| name|grouping(name)|sum(age)|
+-----+--------------+--------+
| NULL| 1| 7|
|Alice| 0| 2|
| Bob| 0| 5|
+-----+--------------+--------+