Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Consente di restituire il numero di elementi di un gruppo.
Sintassi
from pyspark.sql import functions as sf
sf.count(col)
Parametri
| Parametro | TIPO | Description |
|---|---|---|
col |
pyspark.sql.Column o il nome della colonna |
Colonna di destinazione su cui eseguire il calcolo. |
Restituzioni
pyspark.sql.Column: colonna per i risultati calcolati.
Esempi
Esempio 1: Contare tutte le righe in un dataframe
from pyspark.sql import functions as sf
df = spark.createDataFrame([(None,), ("a",), ("b",), ("c",)], schema=["alphabets"])
df.select(sf.count(sf.expr("*"))).show()
+--------+
|count(1)|
+--------+
| 4|
+--------+
Esempio 2: Contare valori non Null in una colonna specifica
from pyspark.sql import functions as sf
df.select(sf.count(df.alphabets)).show()
+----------------+
|count(alphabets)|
+----------------+
| 3|
+----------------+
Esempio 3: Contare tutte le righe in un dataframe con più colonne
from pyspark.sql import functions as sf
df = spark.createDataFrame(
[(1, "apple"), (2, "banana"), (3, None)], schema=["id", "fruit"])
df.select(sf.count(sf.expr("*"))).show()
+--------+
|count(1)|
+--------+
| 3|
+--------+
Esempio 4: Contare i valori non Null in più colonne
from pyspark.sql import functions as sf
df.select(sf.count(df.id), sf.count(df.fruit)).show()
+---------+------------+
|count(id)|count(fruit)|
+---------+------------+
| 3| 2|
+---------+------------+