Catatan
Akses ke halaman ini memerlukan otorisasi. Anda dapat mencoba masuk atau mengubah direktori.
Akses ke halaman ini memerlukan otorisasi. Anda dapat mencoba mengubah direktori.
Mengembalikan boolean yang menunjukkan apakah array berisi nilai yang diberikan. Mengembalikan null jika array null, true jika array berisi nilai yang diberikan, dan false sebaliknya.
Syntax
from pyspark.sql import functions as sf
sf.array_contains(col, value)
Parameter-parameternya
| Pengaturan | Tipe | Description |
|---|---|---|
col |
pyspark.sql.Column atau str |
Kolom target yang berisi array. |
value |
Apa saja | Nilai atau kolom yang akan diperiksa dalam array. |
Pengembalian Barang
pyspark.sql.Column: Kolom baru jenis Boolean, di mana setiap nilai menunjukkan apakah array yang sesuai dari kolom input berisi nilai yang ditentukan.
Examples
Contoh 1: Penggunaan dasar fungsi array_contains.
from pyspark.sql import functions as sf
df = spark.createDataFrame([(["a", "b", "c"],), ([],)], ['data'])
df.select(sf.array_contains(df.data, "a")).show()
+-----------------------+
|array_contains(data, a)|
+-----------------------+
| true|
| false|
+-----------------------+
Contoh 2: Penggunaan fungsi array_contains dengan kolom.
from pyspark.sql import functions as sf
df = spark.createDataFrame([(["a", "b", "c"], "c"),
(["c", "d", "e"], "d"),
(["e", "a", "c"], "b")], ["data", "item"])
df.select(sf.array_contains(df.data, sf.col("item"))).show()
+--------------------------+
|array_contains(data, item)|
+--------------------------+
| true|
| true|
| false|
+--------------------------+
Contoh 3: Mencoba menggunakan fungsi array_contains dengan array null.
from pyspark.sql import functions as sf
df = spark.createDataFrame([(None,), (["a", "b", "c"],)], ['data'])
df.select(sf.array_contains(df.data, "a")).show()
+-----------------------+
|array_contains(data, a)|
+-----------------------+
| NULL|
| true|
+-----------------------+
Contoh 4: Penggunaan array_contains dengan kolom array yang berisi nilai null.
from pyspark.sql import functions as sf
df = spark.createDataFrame([(["a", None, "c"],)], ['data'])
df.select(sf.array_contains(df.data, "a")).show()
+-----------------------+
|array_contains(data, a)|
+-----------------------+
| true|
+-----------------------+