Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Funzione trasformazione partizione: trasformazione per qualsiasi tipo partizionato da un hash della colonna di input. Supporta Spark Connect.
Avvertimento
Deprecato nella versione 4.0.0. Utilizzare invece partitioning.bucket.
Sintassi
from pyspark.databricks.sql import functions as dbf
dbf.bucket(numBuckets=<numBuckets>, col=<col>)
Parametri
| Parametro | TIPO | Description |
|---|---|---|
numBuckets |
pyspark.sql.Column o int |
Numero di bucket. |
col |
pyspark.sql.Column o str |
Colonna data o timestamp di destinazione su cui lavorare. |
Restituzioni
pyspark.sql.Column: dati partizionati da colonne specificate.
Esempi
df.writeTo("catalog.db.table").partitionedBy(
bucket(42, "ts")
).createOrReplace()
Annotazioni
Questa funzione può essere usata solo in combinazione con il partitionedBy metodo di DataFrameWriterV2.