Jegyzet
Az oldalhoz való hozzáférés engedélyezést igényel. Próbálhatod be jelentkezni vagy könyvtárat váltani.
Az oldalhoz való hozzáférés engedélyezést igényel. Megpróbálhatod a könyvtár váltását.
Logikai értéket ad vissza, amely jelzi, hogy a tömb tartalmazza-e a megadott értéket. Null értéket ad vissza, ha a tömb null értékű, igaz, ha a tömb a megadott értéket tartalmazza, máskülönben hamis.
Szemantika
from pyspark.sql import functions as sf
sf.array_contains(col, value)
Paraméterek
| Paraméter | Típus | Description |
|---|---|---|
col |
pyspark.sql.Column vagy str |
A tömböket tartalmazó céloszlop. |
value |
Bármely | A tömbben ellenőrizni kívánt érték vagy oszlop. |
Visszatérítések
pyspark.sql.Column: Új logikai típusú oszlop, ahol minden érték azt jelzi, hogy a bemeneti oszlop megfelelő tömbje tartalmazza-e a megadott értéket.
Példák
1. példa: A array_contains függvény alapszintű használata.
from pyspark.sql import functions as sf
df = spark.createDataFrame([(["a", "b", "c"],), ([],)], ['data'])
df.select(sf.array_contains(df.data, "a")).show()
+-----------------------+
|array_contains(data, a)|
+-----------------------+
| true|
| false|
+-----------------------+
2. példa: A array_contains függvény használata oszlopokkal.
from pyspark.sql import functions as sf
df = spark.createDataFrame([(["a", "b", "c"], "c"),
(["c", "d", "e"], "d"),
(["e", "a", "c"], "b")], ["data", "item"])
df.select(sf.array_contains(df.data, sf.col("item"))).show()
+--------------------------+
|array_contains(data, item)|
+--------------------------+
| true|
| true|
| false|
+--------------------------+
3. példa: Próbálja meg array_contains függvényt null tömbbel használni.
from pyspark.sql import functions as sf
df = spark.createDataFrame([(None,), (["a", "b", "c"],)], ['data'])
df.select(sf.array_contains(df.data, "a")).show()
+-----------------------+
|array_contains(data, a)|
+-----------------------+
| NULL|
| true|
+-----------------------+
4. példa: Az array_contains használata null értékeket tartalmazó tömboszlopmal.
from pyspark.sql import functions as sf
df = spark.createDataFrame([(["a", None, "c"],)], ['data'])
df.select(sf.array_contains(df.data, "a")).show()
+-----------------------+
|array_contains(data, a)|
+-----------------------+
| true|
+-----------------------+