파티션 변환 함수: 입력 열의 해시로 분할하는 모든 형식에 대한 변환입니다. Spark Connect를 지원합니다.
경고
4.0.0에서 사용되지 않습니다.
partitioning.bucket를 대신 사용하세요.
문법
from pyspark.databricks.sql import functions as dbf
dbf.bucket(numBuckets=<numBuckets>, col=<col>)
매개 변수
| 매개 변수 | 유형 | Description |
|---|---|---|
numBuckets |
pyspark.sql.Column 또는 int |
버킷 수입니다. |
col |
pyspark.sql.Column 또는 str |
작업할 대상 날짜 또는 타임스탬프 열입니다. |
Returns
pyspark.sql.Column: 지정된 열로 분할된 데이터입니다.
예시
df.writeTo("catalog.db.table").partitionedBy(
bucket(42, "ts")
).createOrReplace()
비고
이 함수는 DataFrameWriterV2의 메서드와 partitionedBy 함께 사용할 수 있습니다.