Partager via


Expérience

Calcule l’exponentielle de la valeur donnée. Prend en charge Spark Connect.

Pour obtenir plus de détails sur la fonction SQL de Databricks correspondante, consultez exp.

Syntaxe

from pyspark.databricks.sql import functions as dbf

dbf.exp(col=<col>)

Paramètres

Paramètre Type Descriptif
col pyspark.sql.Column or column name colonne pour laquelle calculer exponentiel.

Retours

pyspark.sql.Column: exponentielle de la valeur donnée.

Examples

from pyspark.databricks.sql import functions as dbf
df = spark.sql("SELECT id AS value FROM RANGE(5)")
df.select("*", dbf.exp(df.value)).show() # doctest: +SKIP
+-----+------------------+
|value|        EXP(value)|
+-----+------------------+
|    0|               1.0|
|    1|2.7182818284590...|
|    2|  7.38905609893...|
|    3|20.085536923187...|
|    4|54.598150033144...|
+-----+------------------+

from pyspark.databricks.sql import functions as dbf
spark.sql(
    "SELECT * FROM VALUES (FLOAT('NAN')), (NULL) AS TAB(value)"
).select("*", dbf.exp("value")).show()
+-----+----------+
|value|EXP(value)|
+-----+----------+
|  NaN|       NaN|
| NULL|      NULL|
+-----+----------+