Note
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de changer d’annuaire.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de changer d’annuaire.
Calcule l’exponentielle de la valeur donnée. Prend en charge Spark Connect.
Pour obtenir plus de détails sur la fonction SQL de Databricks correspondante, consultez exp.
Syntaxe
from pyspark.databricks.sql import functions as dbf
dbf.exp(col=<col>)
Paramètres
| Paramètre | Type | Descriptif |
|---|---|---|
col |
pyspark.sql.Column or column name |
colonne pour laquelle calculer exponentiel. |
Retours
pyspark.sql.Column: exponentielle de la valeur donnée.
Examples
from pyspark.databricks.sql import functions as dbf
df = spark.sql("SELECT id AS value FROM RANGE(5)")
df.select("*", dbf.exp(df.value)).show() # doctest: +SKIP
+-----+------------------+
|value| EXP(value)|
+-----+------------------+
| 0| 1.0|
| 1|2.7182818284590...|
| 2| 7.38905609893...|
| 3|20.085536923187...|
| 4|54.598150033144...|
+-----+------------------+
from pyspark.databricks.sql import functions as dbf
spark.sql(
"SELECT * FROM VALUES (FLOAT('NAN')), (NULL) AS TAB(value)"
).select("*", dbf.exp("value")).show()
+-----+----------+
|value|EXP(value)|
+-----+----------+
| NaN| NaN|
| NULL| NULL|
+-----+----------+