Note
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de changer d’annuaire.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de changer d’annuaire.
Retourne la somme leftet right le résultat est null sur le dépassement de capacité. Les types d’entrée acceptables sont identiques à l’opérateur + . Prend en charge Spark Connect.
Pour obtenir plus de détails sur la fonction SQL de Databricks correspondante, consultez try_add.
Syntaxe
from pyspark.databricks.sql import functions as dbf
dbf.try_add(left=<left>, right=<right>)
Paramètres
| Paramètre | Type | Descriptif |
|---|---|---|
left |
pyspark.sql.Column or column name |
Valeur du côté gauche |
right |
pyspark.sql.Column or column name |
Valeur côté droit |
Examples
from pyspark.databricks.sql import functions as dbf
spark.createDataFrame(
[(1982, 15), (1990, 2)], ["birth", "age"]
).select("*", dbf.try_add("birth", "age")).show()
+-----+---+-------------------+
|birth|age|try_add(birth, age)|
+-----+---+-------------------+
| 1982| 15| 1997|
| 1990| 2| 1992|
+-----+---+-------------------+
from pyspark.databricks.sql import functions as dbf
spark.sql("SELECT * FROM VALUES (DATE('2015-09-30')) AS TAB(date)").select("*", dbf.try_add("date", dbf.lit(1))).show()
+----------+----------------+
| date|try_add(date, 1)|
+----------+----------------+
|2015-09-30| 2015-10-01|
+----------+----------------+