Примечание.
Для доступа к этой странице требуется авторизация. Вы можете попробовать войти или изменить каталоги.
Для доступа к этой странице требуется авторизация. Вы можете попробовать изменить каталоги.
Возвращает новый кадр данных с каждой секцией, отсортированной по указанным столбцам.
Синтаксис
sortWithinPartitions(*cols: Union[int, str, Column, List[Union[int, str, Column]]], **kwargs: Any)
Параметры
| Параметр | Тип | Описание |
|---|---|---|
cols |
int, str, list или Column, необязательный | список имен столбцов или порядковых значений столбцов для сортировки. |
ascending |
bool или list, необязательный, по умолчанию True | логический или список логических значений. Сортировка по возрастанию и убыванию. Укажите список для нескольких заказов сортировки. Если указан список, длина списка должна быть равна длине colsсписка. |
Возвраты
DataFrame: Кадр данных, отсортированный по секциям.
Примечания
Порядковый номер столбца начинается с 1, который отличается от 0.__getitem__ Если порядковый номер столбца отрицательный, это означает сортировку по убыванию.
Примеры
from pyspark.sql import functions as sf
df = spark.createDataFrame([(2, "Alice"), (5, "Bob")], schema=["age", "name"])
df.sortWithinPartitions("age", ascending=False)
# DataFrame[age: bigint, name: string]
df.coalesce(1).sortWithinPartitions(1).show()
# +---+-----+
# |age| name|
# +---+-----+
# | 2|Alice|
# | 5| Bob|
# +---+-----+
df.coalesce(1).sortWithinPartitions(-1).show()
# +---+-----+
# |age| name|
# +---+-----+
# | 5| Bob|
# | 2|Alice|
# +---+-----+