Condividi tramite


try_zstd_decompress

Restituisce il valore decompresso di expr utilizzando Zstandard. Supporta i dati compressi sia in modalità a passaggio singolo che in modalità di streaming. In caso di errore di decompressione, restituisce NULL.

Sintassi

from pyspark.databricks.sql import functions as dbf

dbf.try_zstd_decompress(input=<input>)

Parametri

Parametro TIPO Description
input pyspark.sql.Column o str Valore binario da decomprimere.

Restituzioni

pyspark.sql.Column: nuova colonna contenente un valore non compresso.

Esempi

Esempio 1: Decomprimere i dati con Zstandard

from pyspark.databricks.sql import functions as dbf
df = spark.createDataFrame([("KLUv/SCCpQAAaEFwYWNoZSBTcGFyayABABLS+QU=",)], ["input"])
df.select(dbf.try_zstd_decompress(dbf.unbase64(df.input)).cast("string").alias("result")).show(truncate=False)
+----------------------------------------------------------------------------------------------------------------------------------+
|result                                                                                                                            |
+----------------------------------------------------------------------------------------------------------------------------------+
|Apache Spark Apache Spark Apache Spark Apache Spark Apache Spark Apache Spark Apache Spark Apache Spark Apache Spark Apache Spark |
+----------------------------------------------------------------------------------------------------------------------------------+

Esempio 2: Decomprimere l'input non valido

from pyspark.databricks.sql import functions as dbf
df = spark.createDataFrame([("invalid input",)], ["input"])
df.select(dbf.try_zstd_decompress(dbf.unbase64(df.input)).cast("string").alias("result")).show(truncate=False)
+------+
|result|
+------+
|NULL  |
+------+