Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Applique une fonction à chaque paire clé-valeur dans une carte et retourne une carte avec les résultats de ces applications en tant que nouvelles clés pour les paires. Prend en charge Spark Connect.
Pour obtenir plus de détails sur la fonction SQL de Databricks correspondante, consultez transform_keys.
Syntaxe
from pyspark.databricks.sql import functions as dbf
dbf.transform_keys(col=<col>, f=<f>)
Paramètres
| Paramètre | Type | Descriptif |
|---|---|---|
col |
pyspark.sql.Column ou str |
Nom de la colonne ou de l’expression. |
f |
function |
Fonction binaire. |
Retours
pyspark.sql.Column: nouvelle carte d’entrées où de nouvelles clés ont été calculées en appliquant une fonction donnée à chaque argument de valeur de clé.
Examples
from pyspark.databricks.sql import functions as dbf
df = spark.createDataFrame([(1, {"foo": -2.0, "bar": 2.0})], ("id", "data"))
row = df.select(dbf.transform_keys(
"data", lambda k, _: dbf.upper(k)).alias("data_upper")
).head()
sorted(row["data_upper"].items())
[('BAR', 2.0), ('FOO', -2.0)]