Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Retourne la valeur décompressée d’expr à l’aide de Zstandard. Prend en charge les données compressées en mode passe unique et en mode streaming. En cas d’échec de décompression, elle retourne NULL.
Syntaxe
from pyspark.databricks.sql import functions as dbf
dbf.try_zstd_decompress(input=<input>)
Paramètres
| Paramètre | Type | Descriptif |
|---|---|---|
input |
pyspark.sql.Column ou str |
Valeur binaire à décompresser. |
Retours
pyspark.sql.Column: nouvelle colonne qui contient une valeur non compressée.
Examples
Exemple 1 : Décompresser les données à l’aide de Zstandard
from pyspark.databricks.sql import functions as dbf
df = spark.createDataFrame([("KLUv/SCCpQAAaEFwYWNoZSBTcGFyayABABLS+QU=",)], ["input"])
df.select(dbf.try_zstd_decompress(dbf.unbase64(df.input)).cast("string").alias("result")).show(truncate=False)
+----------------------------------------------------------------------------------------------------------------------------------+
|result |
+----------------------------------------------------------------------------------------------------------------------------------+
|Apache Spark Apache Spark Apache Spark Apache Spark Apache Spark Apache Spark Apache Spark Apache Spark Apache Spark Apache Spark |
+----------------------------------------------------------------------------------------------------------------------------------+
Exemple 2 : Décompresser une entrée non valide
from pyspark.databricks.sql import functions as dbf
df = spark.createDataFrame([("invalid input",)], ["input"])
df.select(dbf.try_zstd_decompress(dbf.unbase64(df.input)).cast("string").alias("result")).show(truncate=False)
+------+
|result|
+------+
|NULL |
+------+