Jegyzet
Az oldalhoz való hozzáférés engedélyezést igényel. Próbálhatod be jelentkezni vagy könyvtárat váltani.
Az oldalhoz való hozzáférés engedélyezést igényel. Megpróbálhatod a könyvtár váltását.
Gyűjteményfüggvény: Egy új térképoszlopot ad vissza, amelynek kulcs-érték párjai megfelelnek egy adott predikátumfüggvénynek. Támogatja a Spark Connectet.
A megfelelő Databricks SQL-függvényhez lásd a függvénytmap_filter.
Szemantika
from pyspark.databricks.sql import functions as dbf
dbf.map_filter(col=<col>, f=<f>)
Paraméterek
| Paraméter | Típus | Description |
|---|---|---|
col |
pyspark.sql.Column vagy str |
A szűrni kívánt térképet képviselő oszlop vagy oszlopkifejezés neve. |
f |
function |
A predikátumot meghatározó bináris függvény. Ennek a függvénynek egy logikai oszlopot kell visszaadnia, amely a bemeneti leképezés szűrésére szolgál. |
Visszatérítések
pyspark.sql.Column: Egy új térképoszlop, amely csak a predikátumnak megfelelő kulcs-érték párokat tartalmazza.
Példák
1. példa: Térkép szűrése egyszerű feltétellel
from pyspark.databricks.sql import functions as dbf
df = spark.createDataFrame([(1, {"foo": 42.0, "bar": 1.0, "baz": 32.0})], ("id", "data"))
row = df.select(
dbf.map_filter("data", lambda _, v: v > 30.0).alias("data_filtered")
).head()
sorted(row["data_filtered"].items())
[('baz', 32.0), ('foo', 42.0)]
2. példa: Térkép szűrése feltétellel a kulcsokon
from pyspark.databricks.sql import functions as dbf
df = spark.createDataFrame([(1, {"foo": 42.0, "bar": 1.0, "baz": 32.0})], ("id", "data"))
row = df.select(
dbf.map_filter("data", lambda k, _: k.startswith("b")).alias("data_filtered")
).head()
sorted(row["data_filtered"].items())
[('bar', 1.0), ('baz', 32.0)]