Teilen über


min

Gibt den Minimalwert des Ausdrucks in einer Gruppe zurück.

Syntax

from pyspark.sql import functions as sf

sf.min(col)

Die Parameter

Parameter Typ Description
col pyspark.sql.Column oder Spaltenname Die Zielspalte, für die der Mindestwert berechnet wird.

Rückkehr

pyspark.sql.Column: Eine Spalte, die den berechneten Minimalwert enthält.

Examples

Beispiel 1: Berechnen des Minimalwerts einer numerischen Spalte

import pyspark.sql.functions as sf
df = spark.range(10)
df.select(sf.min(df.id)).show()
+-------+
|min(id)|
+-------+
|      0|
+-------+

Beispiel 2: Berechnen des Minimalwerts einer Zeichenfolgenspalte

import pyspark.sql.functions as sf
df = spark.createDataFrame([("Alice",), ("Bob",), ("Charlie",)], ["name"])
df.select(sf.min("name")).show()
+---------+
|min(name)|
+---------+
|    Alice|
+---------+

Beispiel 3: Berechnen des Minimalwerts einer Spalte mit Nullwerten

import pyspark.sql.functions as sf
df = spark.createDataFrame([(1,), (None,), (3,)], ["value"])
df.select(sf.min("value")).show()
+----------+
|min(value)|
+----------+
|         1|
+----------+

Beispiel 4: Berechnen des Minimalwerts einer Spalte in einem gruppierten DataFrame

import pyspark.sql.functions as sf
df = spark.createDataFrame([("Alice", 1), ("Alice", 2), ("Bob", 3)], ["name", "value"])
df.groupBy("name").agg(sf.min("value")).show()
+-----+----------+
| name|min(value)|
+-----+----------+
|Alice|         1|
|  Bob|         3|
+-----+----------+

Beispiel 5: Berechnen des Minimalwerts einer Spalte in einem DataFrame mit mehreren Spalten

import pyspark.sql.functions as sf
df = spark.createDataFrame(
    [("Alice", 1, 100), ("Bob", 2, 200), ("Charlie", 3, 300)],
    ["name", "value1", "value2"])
df.select(sf.min("value1"), sf.min("value2")).show()
+-----------+-----------+
|min(value1)|min(value2)|
+-----------+-----------+
|          1|        100|
+-----------+-----------+