Bagikan melalui


array_contains

Mengembalikan boolean yang menunjukkan apakah array berisi nilai yang diberikan. Mengembalikan null jika array null, true jika array berisi nilai yang diberikan, dan false sebaliknya.

Syntax

from pyspark.sql import functions as sf

sf.array_contains(col, value)

Parameter-parameternya

Pengaturan Tipe Description
col pyspark.sql.Column atau str Kolom target yang berisi array.
value Apa saja Nilai atau kolom yang akan diperiksa dalam array.

Pengembalian Barang

pyspark.sql.Column: Kolom baru jenis Boolean, di mana setiap nilai menunjukkan apakah array yang sesuai dari kolom input berisi nilai yang ditentukan.

Examples

Contoh 1: Penggunaan dasar fungsi array_contains.

from pyspark.sql import functions as sf
df = spark.createDataFrame([(["a", "b", "c"],), ([],)], ['data'])
df.select(sf.array_contains(df.data, "a")).show()
+-----------------------+
|array_contains(data, a)|
+-----------------------+
|                   true|
|                  false|
+-----------------------+

Contoh 2: Penggunaan fungsi array_contains dengan kolom.

from pyspark.sql import functions as sf
df = spark.createDataFrame([(["a", "b", "c"], "c"),
                           (["c", "d", "e"], "d"),
                           (["e", "a", "c"], "b")], ["data", "item"])
df.select(sf.array_contains(df.data, sf.col("item"))).show()
+--------------------------+
|array_contains(data, item)|
+--------------------------+
|                      true|
|                      true|
|                     false|
+--------------------------+

Contoh 3: Mencoba menggunakan fungsi array_contains dengan array null.

from pyspark.sql import functions as sf
df = spark.createDataFrame([(None,), (["a", "b", "c"],)], ['data'])
df.select(sf.array_contains(df.data, "a")).show()
+-----------------------+
|array_contains(data, a)|
+-----------------------+
|                   NULL|
|                   true|
+-----------------------+

Contoh 4: Penggunaan array_contains dengan kolom array yang berisi nilai null.

from pyspark.sql import functions as sf
df = spark.createDataFrame([(["a", None, "c"],)], ['data'])
df.select(sf.array_contains(df.data, "a")).show()
+-----------------------+
|array_contains(data, a)|
+-----------------------+
|                   true|
+-----------------------+