Compartir a través de


min

Devuelve el valor mínimo de la expresión en un grupo.

Syntax

from pyspark.sql import functions as sf

sf.min(col)

Parámetros

Parámetro Tipo Description
col pyspark.sql.Column o nombre de columna Columna de destino en la que se calcula el valor mínimo.

Devoluciones

pyspark.sql.Column: una columna que contiene el valor mínimo calculado.

Examples

Ejemplo 1: Calcular el valor mínimo de una columna numérica

import pyspark.sql.functions as sf
df = spark.range(10)
df.select(sf.min(df.id)).show()
+-------+
|min(id)|
+-------+
|      0|
+-------+

Ejemplo 2: Calcular el valor mínimo de una columna de cadena

import pyspark.sql.functions as sf
df = spark.createDataFrame([("Alice",), ("Bob",), ("Charlie",)], ["name"])
df.select(sf.min("name")).show()
+---------+
|min(name)|
+---------+
|    Alice|
+---------+

Ejemplo 3: Calcular el valor mínimo de una columna con valores NULL

import pyspark.sql.functions as sf
df = spark.createDataFrame([(1,), (None,), (3,)], ["value"])
df.select(sf.min("value")).show()
+----------+
|min(value)|
+----------+
|         1|
+----------+

Ejemplo 4: Calcular el valor mínimo de una columna en un dataframe agrupado

import pyspark.sql.functions as sf
df = spark.createDataFrame([("Alice", 1), ("Alice", 2), ("Bob", 3)], ["name", "value"])
df.groupBy("name").agg(sf.min("value")).show()
+-----+----------+
| name|min(value)|
+-----+----------+
|Alice|         1|
|  Bob|         3|
+-----+----------+

Ejemplo 5: Calcular el valor mínimo de una columna en un dataframe con varias columnas

import pyspark.sql.functions as sf
df = spark.createDataFrame(
    [("Alice", 1, 100), ("Bob", 2, 200), ("Charlie", 3, 300)],
    ["name", "value1", "value2"])
df.select(sf.min("value1"), sf.min("value2")).show()
+-----------+-----------+
|min(value1)|min(value2)|
+-----------+-----------+
|          1|        100|
+-----------+-----------+