Not
Bu sayfaya erişim yetkilendirme gerektiriyor. Oturum açmayı veya dizinleri değiştirmeyi deneyebilirsiniz.
Bu sayfaya erişim yetkilendirme gerektiriyor. Dizinleri değiştirmeyi deneyebilirsiniz.
DataFrame'in özetini geniş biçimden uzun biçime çıkararak isteğe bağlı olarak tanımlayıcı sütunlarını ayarlayın. Bu, geri alınamayan toplama dışında öğesinin tersidir groupBy(...).pivot(...).agg(...).
Databricks Runtime 11.1'e eklendi
Sözdizimi
unpivot(ids: Union["ColumnOrName", List["ColumnOrName"], Tuple["ColumnOrName", ...]], values: Optional[Union["ColumnOrName", List["ColumnOrName"], Tuple["ColumnOrName", ...]]], variableColumnName: str, valueColumnName: str)
Parametreler
| Parametre | Türü | Açıklama |
|---|---|---|
ids |
str, Sütun, tanımlama grubu, liste | Tanımlayıcı olarak kullanılacak sütun(lar). Tek bir sütun veya sütun adı ya da birden çok sütun için liste veya tanımlama grubu olabilir. |
values |
str, Sütun, tanımlama grubu, liste, isteğe bağlı | Özetlemeyi kaldıracak sütun(lar). Tek bir sütun veya sütun adı ya da birden çok sütun için liste veya tanımlama grubu olabilir. Belirtilirse boş olmamalıdır. Belirtilmezse, olarak idsayarlanmayan tüm sütunları kullanır. |
variableColumnName |
str | Değişken sütununun adı. |
valueColumnName |
str | Değer sütununun adı. |
İadeler
DataFrame: Özetlenmemiş DataFrame.
Notlar
Spark Connect'i destekler.
Örnekler
df = spark.createDataFrame(
[(1, 11, 1.1), (2, 12, 1.2)],
["id", "int", "double"],
)
df.show()
# +---+---+------+
# | id|int|double|
# +---+---+------+
# | 1| 11| 1.1|
# | 2| 12| 1.2|
# +---+---+------+
from pyspark.sql import functions as sf
df.unpivot(
"id", ["int", "double"], "var", "val"
).sort("id", sf.desc("var")).show()
# +---+------+----+
# | id| var| val|
# +---+------+----+
# | 1| int|11.0|
# | 1|double| 1.1|
# | 2| int|12.0|
# | 2|double| 1.2|
# +---+------+----+