マップ内のすべてのキーと値のペアに関数を適用し、それらのアプリケーションの結果をペアの新しいキーとしてマップを返します。 Spark Connect をサポートします。
対応する Databricks SQL 関数については、 transform_keys 関数を参照してください。
構文
from pyspark.databricks.sql import functions as dbf
dbf.transform_keys(col=<col>, f=<f>)
パラメーター
| パラメーター | タイプ | Description |
|---|---|---|
col |
pyspark.sql.Column または str |
列または式の名前。 |
f |
function |
バイナリ関数。 |
返品ポリシー
pyspark.sql.Column: 指定された関数を各キー値引数に適用することで、新しいキーが計算されたエントリの新しいマップ。
例示
from pyspark.databricks.sql import functions as dbf
df = spark.createDataFrame([(1, {"foo": -2.0, "bar": 2.0})], ("id", "data"))
row = df.select(dbf.transform_keys(
"data", lambda k, _: dbf.upper(k)).alias("data_upper")
).head()
sorted(row["data_upper"].items())
[('BAR', 2.0), ('FOO', -2.0)]