Teilen über


count

Gibt die Anzahl von Elementen in einer Gruppe zurück.

Syntax

from pyspark.sql import functions as sf

sf.count(col)

Die Parameter

Parameter Typ Description
col pyspark.sql.Column oder Spaltenname Zielspalte, für die berechnet werden soll.

Rückkehr

pyspark.sql.Column: Spalte für berechnete Ergebnisse.

Examples

Beispiel 1: Zählen aller Zeilen in einem DataFrame

from pyspark.sql import functions as sf
df = spark.createDataFrame([(None,), ("a",), ("b",), ("c",)], schema=["alphabets"])
df.select(sf.count(sf.expr("*"))).show()
+--------+
|count(1)|
+--------+
|       4|
+--------+

Beispiel 2: Zählen nicht nuller Werte in einer bestimmten Spalte

from pyspark.sql import functions as sf
df.select(sf.count(df.alphabets)).show()
+----------------+
|count(alphabets)|
+----------------+
|               3|
+----------------+

Beispiel 3: Zählen aller Zeilen in einem DataFrame mit mehreren Spalten

from pyspark.sql import functions as sf
df = spark.createDataFrame(
    [(1, "apple"), (2, "banana"), (3, None)], schema=["id", "fruit"])
df.select(sf.count(sf.expr("*"))).show()
+--------+
|count(1)|
+--------+
|       3|
+--------+

Beispiel 4: Zählen nicht nuller Werte in mehreren Spalten

from pyspark.sql import functions as sf
df.select(sf.count(df.id), sf.count(df.fruit)).show()
+---------+------------+
|count(id)|count(fruit)|
+---------+------------+
|        3|           2|
+---------+------------+