Catatan
Akses ke halaman ini memerlukan otorisasi. Anda dapat mencoba masuk atau mengubah direktori.
Akses ke halaman ini memerlukan otorisasi. Anda dapat mencoba mengubah direktori.
Mengembalikan nilai maksimum ekspresi dalam grup. Nilai null diabaikan selama komputasi. Nilai NaN lebih besar dari nilai numerik lainnya.
Syntax
from pyspark.sql import functions as sf
sf.max(col)
Parameter-parameternya
| Pengaturan | Tipe | Description |
|---|---|---|
col |
pyspark.sql.Column atau nama kolom |
Kolom target tempat nilai maksimum dihitung. |
Pengembalian Barang
pyspark.sql.Column: Kolom yang berisi nilai maksimum yang dihitung.
Examples
Contoh 1: Menghitung nilai maksimum kolom numerik
import pyspark.sql.functions as sf
df = spark.range(10)
df.select(sf.max(df.id)).show()
+-------+
|max(id)|
+-------+
| 9|
+-------+
Contoh 2: Menghitung nilai maksimum kolom string
import pyspark.sql.functions as sf
df = spark.createDataFrame([("A",), ("B",), ("C",)], ["value"])
df.select(sf.max(df.value)).show()
+----------+
|max(value)|
+----------+
| C|
+----------+
Contoh 3: Menghitung nilai maksimum kolom dalam DataFrame yang dikelompokkan
import pyspark.sql.functions as sf
df = spark.createDataFrame([("A", 1), ("A", 2), ("B", 3), ("B", 4)], ["key", "value"])
df.groupBy("key").agg(sf.max(df.value)).show()
+---+----------+
|key|max(value)|
+---+----------+
| A| 2|
| B| 4|
+---+----------+
Contoh 4: Menghitung nilai maksimum beberapa kolom dalam DataFrame yang dikelompokkan
import pyspark.sql.functions as sf
df = spark.createDataFrame(
[("A", 1, 2), ("A", 2, 3), ("B", 3, 4), ("B", 4, 5)], ["key", "value1", "value2"])
df.groupBy("key").agg(sf.max("value1"), sf.max("value2")).show()
+---+-----------+-----------+
|key|max(value1)|max(value2)|
+---+-----------+-----------+
| A| 2| 3|
| B| 4| 5|
+---+-----------+-----------+
Contoh 5: Menghitung nilai maksimum kolom dengan nilai null
import pyspark.sql.functions as sf
df = spark.createDataFrame([(1,), (2,), (None,)], ["value"])
df.select(sf.max(df.value)).show()
+----------+
|max(value)|
+----------+
| 2|
+----------+
Contoh 6: Menghitung nilai maksimum kolom dengan nilai "NaN"
import pyspark.sql.functions as sf
df = spark.createDataFrame([(1.1,), (float("nan"),), (3.3,)], ["value"])
df.select(sf.max(df.value)).show()
+----------+
|max(value)|
+----------+
| NaN|
+----------+