Nota:
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
Si solo hay un argumento, toma el logaritmo natural del argumento. Soporta Spark Connect.
Para obtener la función SQL de Databricks correspondiente, consulte log function.
Syntax
from pyspark.databricks.sql import functions as dbf
dbf.log(arg1=<arg1>, arg2=<arg2>)
Parámetros
| Parámetro | Tipo | Description |
|---|---|---|
arg1 |
pyspark.sql.Column, str or float |
número base o número real (en este caso, base es e) |
arg2 |
pyspark.sql.Column, str or float, optional |
número para el que se va a calcular el logarífo. |
Devoluciones
pyspark.sql.Column: logarífo del valor especificado.
Examples
from pyspark.databricks.sql import functions as dbf
df = spark.sql("SELECT * FROM VALUES (1), (2), (4) AS t(value)")
df.select("*", dbf.log(2.0, df.value)).show()
+-----+---------------+
|value|LOG(2.0, value)|
+-----+---------------+
| 1| 0.0|
| 2| 1.0|
| 4| 2.0|
+-----+---------------+
from pyspark.databricks.sql import functions as dbf
df = spark.sql("SELECT * FROM VALUES (1), (2), (0), (-1), (NULL) AS t(value)")
df.select("*", dbf.log(3.0, df.value)).show()
+-----+------------------+
|value| LOG(3.0, value)|
+-----+------------------+
| 1| 0.0|
| 2|0.6309297535714...|
| 0| NULL|
| -1| NULL|
| NULL| NULL|
+-----+------------------+