Partager via


Heures

Fonction de transformation de partition : transformation pour les horodatages pour partitionner les données en heures. Prend en charge Spark Connect.

Avertissement

Déconseillé dans la version 4.0.0. Utilisez partitioning.hours à la place.

Syntaxe

from pyspark.databricks.sql import functions as dbf

dbf.hours(col=<col>)

Paramètres

Paramètre Type Descriptif
col pyspark.sql.Column ou str Date cible ou colonne d’horodatage sur laquelle travailler.

Retours

pyspark.sql.Column: données partitionnée par heures.

Examples

df.writeTo("catalog.db.table").partitionedBy(
    hours("ts")
).createOrReplace()

Note

Cette fonction peut être utilisée uniquement en combinaison avec la partitionedBy méthode de DataFrameWriterV2.