Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Restituisce il resto dopo dividend/divisor. Il risultato è sempre Null se divisor è 0. Supporta Spark Connect.
Per la funzione SQL di Databricks corrispondente, vedere try_mod funzione.
Sintassi
from pyspark.databricks.sql import functions as dbf
dbf.try_mod(left=<left>, right=<right>)
Parametri
| Parametro | TIPO | Description |
|---|---|---|
left |
pyspark.sql.Column or column name |
Dividendo |
right |
pyspark.sql.Column or column name |
Divisore |
Esempi
from pyspark.databricks.sql import functions as dbf
spark.createDataFrame(
[(6000, 15), (3, 2), (1234, 0)], ["a", "b"]
).select("*", dbf.try_mod("a", "b")).show()
+----+---+-------------+
| a| b|try_mod(a, b)|
+----+---+-------------+
|6000| 15| 0|
| 3| 2| 1|
|1234| 0| NULL|
+----+---+-------------+
from pyspark.databricks.sql import functions as dbf
origin = spark.conf.get("spark.sql.ansi.enabled")
spark.conf.set("spark.sql.ansi.enabled", "true")
try:
spark.range(1).select(dbf.try_mod("id", dbf.lit(0))).show()
finally:
spark.conf.set("spark.sql.ansi.enabled", origin)
+--------------+
|try_mod(id, 0)|
+--------------+
| NULL|
+--------------+