Megosztás:


array_compact

Eltávolítja a null értékeket a tömbből.

Szemantika

from pyspark.sql import functions as sf

sf.array_compact(col)

Paraméterek

Paraméter Típus Description
col pyspark.sql.Column vagy str Oszlop vagy kifejezés neve

Visszatérítések

pyspark.sql.Column: Új oszlop, amely egy tömb, amely nem tartalmazza a bemeneti oszlop null értékeit.

Példák

1. példa: Null értékek eltávolítása egyszerű tömbből

from pyspark.sql import functions as sf
df = spark.createDataFrame([([1, None, 2, 3],)], ['data'])
df.select(sf.array_compact(df.data)).show()
+-------------------+
|array_compact(data)|
+-------------------+
|          [1, 2, 3]|
+-------------------+

2. példa: Null értékek eltávolítása több tömbből

from pyspark.sql import functions as sf
df = spark.createDataFrame([([1, None, 2, 3],), ([4, 5, None, 4],)], ['data'])
df.select(sf.array_compact(df.data)).show()
+-------------------+
|array_compact(data)|
+-------------------+
|          [1, 2, 3]|
|          [4, 5, 4]|
+-------------------+

3. példa: Null értékek eltávolítása egy tömbből az összes null értékkel

from pyspark.sql import functions as sf
from pyspark.sql.types import ArrayType, StringType, StructField, StructType schema = StructType([StructField("data", ArrayType(StringType()), True)])
df = spark.createDataFrame([([None, None, None],)], schema)
df.select(sf.array_compact(df.data)).show()
+-------------------+
|array_compact(data)|
+-------------------+
|                 []|
+-------------------+

4. példa: Null értékek eltávolítása null értékű tömbből

from pyspark.sql import functions as sf
df = spark.createDataFrame([([1, 2, 3],)], ['data'])
df.select(sf.array_compact(df.data)).show()
+-------------------+
|array_compact(data)|
+-------------------+
|          [1, 2, 3]|
+-------------------+

5. példa: Null értékek eltávolítása üres tömbből

from pyspark.sql import functions as sf
from pyspark.sql.types import ArrayType, StringType, StructField, StructType
schema = StructType([
  StructField("data", ArrayType(StringType()), True)
])
df = spark.createDataFrame([([],)], schema)
df.select(sf.array_compact(df.data)).show()
+-------------------+
|array_compact(data)|
+-------------------+
|                 []|
+-------------------+