Remarque
L’accès à cette page requiert une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page requiert une autorisation. Vous pouvez essayer de modifier des répertoires.
Fonction de transformation de partition : transformation pour tout type qui partitionne par un hachage de la colonne d’entrée. Prend en charge Spark Connect.
Avertissement
Déconseillé dans la version 4.0.0. Utilisez partitioning.bucket à la place.
Syntaxe
from pyspark.databricks.sql import functions as dbf
dbf.bucket(numBuckets=<numBuckets>, col=<col>)
Paramètres
| Paramètre | Type | Descriptif |
|---|---|---|
numBuckets |
pyspark.sql.Column ou int |
Nombre de compartiments. |
col |
pyspark.sql.Column ou str |
Date cible ou colonne d’horodatage sur laquelle travailler. |
Retours
pyspark.sql.Column: données partitionnée par des colonnes données.
Examples
df.writeTo("catalog.db.table").partitionedBy(
bucket(42, "ts")
).createOrReplace()
Note
Cette fonction peut être utilisée uniquement en combinaison avec la partitionedBy méthode de DataFrameWriterV2.