Примечание.
Для доступа к этой странице требуется авторизация. Вы можете попробовать войти или изменить каталоги.
Для доступа к этой странице требуется авторизация. Вы можете попробовать изменить каталоги.
Возвращает новый кадр данных, секционированные заданными выражениями секционирования. Результирующий кадр данных секционирован хэшом.
Синтаксис
repartition(numPartitions: Union[int, "ColumnOrName"], *cols: "ColumnOrName")
Параметры
| Параметр | Тип | Описание |
|---|---|---|
numPartitions |
int | может быть int, чтобы указать целевое число секций или столбец. Если это столбец, он будет использоваться в качестве первого столбца секционирования. Если не указано, используется число секций по умолчанию. |
cols |
str или Column | секционирование столбцов. |
Возвраты
DataFrame: пересекуемый кадр данных.
Примеры
from pyspark.sql import functions as sf
df = spark.range(0, 64, 1, 9).withColumn(
"name", sf.concat(sf.lit("name_"), sf.col("id").cast("string"))
).withColumn(
"age", sf.col("id") - 32
)
df.repartition(10).select(
sf.spark_partition_id().alias("partition")
).distinct().sort("partition").show()
# +---------+
# |partition|
# +---------+
# | 0|
# ...
# | 9|
# +---------+
df.repartition(7, "age").select(
sf.spark_partition_id().alias("partition")
).distinct().sort("partition").show()
# +---------+
# |partition|
# +---------+
# | 0|
# ...
# | 6|
# +---------+