Catatan
Akses ke halaman ini memerlukan otorisasi. Anda dapat mencoba masuk atau mengubah direktori.
Akses ke halaman ini memerlukan otorisasi. Anda dapat mencoba mengubah direktori.
Fungsi transformasi partisi: Transformasi untuk jenis apa pun yang dipartisi oleh hash kolom input. Mendukung Spark Connect.
Peringatan
Tidak digunakan lagi dalam 4.0.0. Gunakan partitioning.bucket sebagai gantinya.
Syntax
from pyspark.databricks.sql import functions as dbf
dbf.bucket(numBuckets=<numBuckets>, col=<col>)
Parameter-parameternya
| Pengaturan | Tipe | Description |
|---|---|---|
numBuckets |
pyspark.sql.Column atau int |
Jumlah ember. |
col |
pyspark.sql.Column atau str |
Kolom tanggal atau tanda waktu target untuk dikerjakan. |
Pengembalian Barang
pyspark.sql.Column: Data yang dipartisi oleh kolom tertentu.
Examples
df.writeTo("catalog.db.table").partitionedBy(
bucket(42, "ts")
).createOrReplace()
Nota
Fungsi ini hanya dapat digunakan dalam kombinasi dengan partitionedBy metode DataFrameWriterV2.