Catatan
Akses ke halaman ini memerlukan otorisasi. Anda dapat mencoba masuk atau mengubah direktori.
Akses ke halaman ini memerlukan otorisasi. Anda dapat mencoba mengubah direktori.
Mengatur tingkat penyimpanan untuk mempertahankan konten DataFrame di seluruh operasi setelah pertama kali dihitung. Ini hanya dapat digunakan untuk menetapkan tingkat penyimpanan baru jika DataFrame belum memiliki tingkat penyimpanan yang ditetapkan. Jika tidak ada tingkat penyimpanan yang ditentukan default ke (MEMORY_AND_DISK_DESER).
Sintaksis
persist(storageLevel: StorageLevel = StorageLevel.MEMORY_AND_DISK_DESER)
Parameter-parameternya
| Parameter | Tipe | Deskripsi |
|---|---|---|
storageLevel |
StorageLevel | Tingkat penyimpanan yang akan diatur untuk persistensi. Defaultnya adalah MEMORY_AND_DISK_DESER. |
Pengembalian Barang
DataFrame: DataFrame yang Bertahan.
Catatan
Tingkat penyimpanan default telah berubah agar MEMORY_AND_DISK_DESER sesuai dengan Scala di 3.0.
Data yang di-cache dibagikan di semua sesi Spark pada kluster.
Examples
df = spark.range(1)
df.persist()
# DataFrame[id: bigint]
df.explain()
# == Physical Plan ==
# InMemoryTableScan ...
from pyspark.storagelevel import StorageLevel
df.persist(StorageLevel.DISK_ONLY)
# DataFrame[id: bigint]