Condividi tramite


secchio

Funzione trasformazione partizione: trasformazione per qualsiasi tipo partizionato da un hash della colonna di input. Supporta Spark Connect.

Avvertimento

Deprecato nella versione 4.0.0. Utilizzare invece partitioning.bucket.

Sintassi

from pyspark.databricks.sql import functions as dbf

dbf.bucket(numBuckets=<numBuckets>, col=<col>)

Parametri

Parametro TIPO Description
numBuckets pyspark.sql.Column o int Numero di bucket.
col pyspark.sql.Column o str Colonna data o timestamp di destinazione su cui lavorare.

Restituzioni

pyspark.sql.Column: dati partizionati da colonne specificate.

Esempi

df.writeTo("catalog.db.table").partitionedBy(
    bucket(42, "ts")
).createOrReplace()

Annotazioni

Questa funzione può essere usata solo in combinazione con il partitionedBy metodo di DataFrameWriterV2.