Megosztás:


array_contains

Logikai értéket ad vissza, amely jelzi, hogy a tömb tartalmazza-e a megadott értéket. Null értéket ad vissza, ha a tömb null értékű, igaz, ha a tömb a megadott értéket tartalmazza, máskülönben hamis.

Szemantika

from pyspark.sql import functions as sf

sf.array_contains(col, value)

Paraméterek

Paraméter Típus Description
col pyspark.sql.Column vagy str A tömböket tartalmazó céloszlop.
value Bármely A tömbben ellenőrizni kívánt érték vagy oszlop.

Visszatérítések

pyspark.sql.Column: Új logikai típusú oszlop, ahol minden érték azt jelzi, hogy a bemeneti oszlop megfelelő tömbje tartalmazza-e a megadott értéket.

Példák

1. példa: A array_contains függvény alapszintű használata.

from pyspark.sql import functions as sf
df = spark.createDataFrame([(["a", "b", "c"],), ([],)], ['data'])
df.select(sf.array_contains(df.data, "a")).show()
+-----------------------+
|array_contains(data, a)|
+-----------------------+
|                   true|
|                  false|
+-----------------------+

2. példa: A array_contains függvény használata oszlopokkal.

from pyspark.sql import functions as sf
df = spark.createDataFrame([(["a", "b", "c"], "c"),
                           (["c", "d", "e"], "d"),
                           (["e", "a", "c"], "b")], ["data", "item"])
df.select(sf.array_contains(df.data, sf.col("item"))).show()
+--------------------------+
|array_contains(data, item)|
+--------------------------+
|                      true|
|                      true|
|                     false|
+--------------------------+

3. példa: Próbálja meg array_contains függvényt null tömbbel használni.

from pyspark.sql import functions as sf
df = spark.createDataFrame([(None,), (["a", "b", "c"],)], ['data'])
df.select(sf.array_contains(df.data, "a")).show()
+-----------------------+
|array_contains(data, a)|
+-----------------------+
|                   NULL|
|                   true|
+-----------------------+

4. példa: Az array_contains használata null értékeket tartalmazó tömboszlopmal.

from pyspark.sql import functions as sf
df = spark.createDataFrame([(["a", None, "c"],)], ['data'])
df.select(sf.array_contains(df.data, "a")).show()
+-----------------------+
|array_contains(data, a)|
+-----------------------+
|                   true|
+-----------------------+