Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Funzione di trasformazione della partizione: trasformazione per i timestamp per partizionare i dati in ore. Supporta Spark Connect.
Avvertimento
Deprecato nella versione 4.0.0. Utilizzare invece partitioning.hours.
Sintassi
from pyspark.databricks.sql import functions as dbf
dbf.hours(col=<col>)
Parametri
| Parametro | TIPO | Description |
|---|---|---|
col |
pyspark.sql.Column o str |
Colonna data o timestamp di destinazione su cui lavorare. |
Restituzioni
pyspark.sql.Column: dati partizionati in base alle ore.
Esempi
df.writeTo("catalog.db.table").partitionedBy(
hours("ts")
).createOrReplace()
Annotazioni
Questa funzione può essere usata solo in combinazione con il partitionedBy metodo di DataFrameWriterV2.