Nuta
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować się zalogować lub zmienić katalog.
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować zmienić katalogi.
Usuwa wartości null z tablicy.
Składnia
from pyspark.sql import functions as sf
sf.array_compact(col)
Parametry
| Parameter | Typ | Description |
|---|---|---|
col |
pyspark.sql.Column lub str |
Nazwa kolumny lub wyrażenia |
Zwraca
pyspark.sql.Column: nowa kolumna, która jest tablicą z wyłączeniem wartości null z kolumny wejściowej.
Przykłady
Przykład 1. Usuwanie wartości null z prostej tablicy
from pyspark.sql import functions as sf
df = spark.createDataFrame([([1, None, 2, 3],)], ['data'])
df.select(sf.array_compact(df.data)).show()
+-------------------+
|array_compact(data)|
+-------------------+
| [1, 2, 3]|
+-------------------+
Przykład 2. Usuwanie wartości null z wielu tablic
from pyspark.sql import functions as sf
df = spark.createDataFrame([([1, None, 2, 3],), ([4, 5, None, 4],)], ['data'])
df.select(sf.array_compact(df.data)).show()
+-------------------+
|array_compact(data)|
+-------------------+
| [1, 2, 3]|
| [4, 5, 4]|
+-------------------+
Przykład 3: Usuwanie wartości null z tablicy ze wszystkimi wartościami null
from pyspark.sql import functions as sf
from pyspark.sql.types import ArrayType, StringType, StructField, StructType schema = StructType([StructField("data", ArrayType(StringType()), True)])
df = spark.createDataFrame([([None, None, None],)], schema)
df.select(sf.array_compact(df.data)).show()
+-------------------+
|array_compact(data)|
+-------------------+
| []|
+-------------------+
Przykład 4. Usuwanie wartości null z tablicy bez wartości null
from pyspark.sql import functions as sf
df = spark.createDataFrame([([1, 2, 3],)], ['data'])
df.select(sf.array_compact(df.data)).show()
+-------------------+
|array_compact(data)|
+-------------------+
| [1, 2, 3]|
+-------------------+
Przykład 5. Usuwanie wartości null z pustej tablicy
from pyspark.sql import functions as sf
from pyspark.sql.types import ArrayType, StringType, StructField, StructType
schema = StructType([
StructField("data", ArrayType(StringType()), True)
])
df = spark.createDataFrame([([],)], schema)
df.select(sf.array_compact(df.data)).show()
+-------------------+
|array_compact(data)|
+-------------------+
| []|
+-------------------+