Notitie
Voor toegang tot deze pagina is autorisatie vereist. U kunt proberen u aan te melden of mappen te wijzigen.
Voor toegang tot deze pagina is autorisatie vereist. U kunt proberen om mappen te wijzigen.
Partitietransformatiefunctie: een transformatie voor elk type dat wordt gepartitioneerd door een hash van de invoerkolom. Ondersteunt Spark Connect.
Waarschuwing
Afgeschaft in 4.0.0. Gebruik in plaats daarvan partitioning.bucket.
Syntaxis
from pyspark.databricks.sql import functions as dbf
dbf.bucket(numBuckets=<numBuckets>, col=<col>)
Parameterwaarden
| Kenmerk | Typologie | Description |
|---|---|---|
numBuckets |
pyspark.sql.Column of int |
Het aantal buckets. |
col |
pyspark.sql.Column of str |
Doeldatum- of tijdstempelkolom waaraan moet worden gewerkt. |
Retouren
pyspark.sql.Column: Gegevens die zijn gepartitioneerd door opgegeven kolommen.
Voorbeelden
df.writeTo("catalog.db.table").partitionedBy(
bucket(42, "ts")
).createOrReplace()
Opmerking
Deze functie kan alleen worden gebruikt in combinatie met de partitionedBy methode van de DataFrameWriterV2.