Partage via


try_zstd_decompress

Retourne la valeur décompressée d’expr à l’aide de Zstandard. Prend en charge les données compressées en mode passe unique et en mode streaming. En cas d’échec de décompression, elle retourne NULL.

Syntaxe

from pyspark.databricks.sql import functions as dbf

dbf.try_zstd_decompress(input=<input>)

Paramètres

Paramètre Type Descriptif
input pyspark.sql.Column ou str Valeur binaire à décompresser.

Retours

pyspark.sql.Column: nouvelle colonne qui contient une valeur non compressée.

Examples

Exemple 1 : Décompresser les données à l’aide de Zstandard

from pyspark.databricks.sql import functions as dbf
df = spark.createDataFrame([("KLUv/SCCpQAAaEFwYWNoZSBTcGFyayABABLS+QU=",)], ["input"])
df.select(dbf.try_zstd_decompress(dbf.unbase64(df.input)).cast("string").alias("result")).show(truncate=False)
+----------------------------------------------------------------------------------------------------------------------------------+
|result                                                                                                                            |
+----------------------------------------------------------------------------------------------------------------------------------+
|Apache Spark Apache Spark Apache Spark Apache Spark Apache Spark Apache Spark Apache Spark Apache Spark Apache Spark Apache Spark |
+----------------------------------------------------------------------------------------------------------------------------------+

Exemple 2 : Décompresser une entrée non valide

from pyspark.databricks.sql import functions as dbf
df = spark.createDataFrame([("invalid input",)], ["input"])
df.select(dbf.try_zstd_decompress(dbf.unbase64(df.input)).cast("string").alias("result")).show(truncate=False)
+------+
|result|
+------+
|NULL  |
+------+