Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Fonction de transformation de partition : transformation pour les horodatages et les dates pour partitionner les données en jours. Prend en charge Spark Connect.
Avertissement
Déconseillé dans la version 4.0.0. Utilisez partitioning.days à la place.
Syntaxe
from pyspark.databricks.sql import functions as dbf
dbf.days(col=<col>)
Paramètres
| Paramètre | Type | Descriptif |
|---|---|---|
col |
pyspark.sql.Column ou str |
Date cible ou colonne d’horodatage sur laquelle travailler. |
Retours
pyspark.sql.Column: données partitionnée par jours.
Examples
df.writeTo("catalog.db.table").partitionedBy(
days("ts")
).createOrReplace()
Note
Cette fonction peut être utilisée uniquement en combinaison avec la partitionedBy méthode de DataFrameWriterV2.