Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Restituisce il valore decompresso di expr utilizzando Zstandard. Supporta i dati compressi sia in modalità a passaggio singolo che in modalità di streaming. In caso di errore di decompressione, restituisce NULL.
Sintassi
from pyspark.databricks.sql import functions as dbf
dbf.try_zstd_decompress(input=<input>)
Parametri
| Parametro | TIPO | Description |
|---|---|---|
input |
pyspark.sql.Column o str |
Valore binario da decomprimere. |
Restituzioni
pyspark.sql.Column: nuova colonna contenente un valore non compresso.
Esempi
Esempio 1: Decomprimere i dati con Zstandard
from pyspark.databricks.sql import functions as dbf
df = spark.createDataFrame([("KLUv/SCCpQAAaEFwYWNoZSBTcGFyayABABLS+QU=",)], ["input"])
df.select(dbf.try_zstd_decompress(dbf.unbase64(df.input)).cast("string").alias("result")).show(truncate=False)
+----------------------------------------------------------------------------------------------------------------------------------+
|result |
+----------------------------------------------------------------------------------------------------------------------------------+
|Apache Spark Apache Spark Apache Spark Apache Spark Apache Spark Apache Spark Apache Spark Apache Spark Apache Spark Apache Spark |
+----------------------------------------------------------------------------------------------------------------------------------+
Esempio 2: Decomprimere l'input non valido
from pyspark.databricks.sql import functions as dbf
df = spark.createDataFrame([("invalid input",)], ["input"])
df.select(dbf.try_zstd_decompress(dbf.unbase64(df.input)).cast("string").alias("result")).show(truncate=False)
+------+
|result|
+------+
|NULL |
+------+