配列に指定された値が含まれているかどうかを示すブール値を返します。 配列が null の場合は null、配列に指定された値が含まれている場合は true、それ以外の場合は false を返します。
構文
from pyspark.sql import functions as sf
sf.array_contains(col, value)
パラメーター
| パラメーター | タイプ | Description |
|---|---|---|
col |
pyspark.sql.Column または str |
配列を含むターゲット列。 |
value |
[任意] | 配列でチェックする値または列。 |
返品ポリシー
pyspark.sql.Column: ブール型の新しい列。各値は、入力列の対応する配列に指定した値が含まれているかどうかを示します。
例示
例 1: array_contains関数の基本的な使用方法。
from pyspark.sql import functions as sf
df = spark.createDataFrame([(["a", "b", "c"],), ([],)], ['data'])
df.select(sf.array_contains(df.data, "a")).show()
+-----------------------+
|array_contains(data, a)|
+-----------------------+
| true|
| false|
+-----------------------+
例 2: 列array_contains関数の使用法。
from pyspark.sql import functions as sf
df = spark.createDataFrame([(["a", "b", "c"], "c"),
(["c", "d", "e"], "d"),
(["e", "a", "c"], "b")], ["data", "item"])
df.select(sf.array_contains(df.data, sf.col("item"))).show()
+--------------------------+
|array_contains(data, item)|
+--------------------------+
| true|
| true|
| false|
+--------------------------+
例 3: null 配列array_contains関数の使用を試みます。
from pyspark.sql import functions as sf
df = spark.createDataFrame([(None,), (["a", "b", "c"],)], ['data'])
df.select(sf.array_contains(df.data, "a")).show()
+-----------------------+
|array_contains(data, a)|
+-----------------------+
| NULL|
| true|
+-----------------------+
例 4: null 値を含む配列列でのarray_containsの使用。
from pyspark.sql import functions as sf
df = spark.createDataFrame([(["a", None, "c"],)], ['data'])
df.select(sf.array_contains(df.data, "a")).show()
+-----------------------+
|array_contains(data, a)|
+-----------------------+
| true|
+-----------------------+