Catatan
Akses ke halaman ini memerlukan otorisasi. Anda dapat mencoba masuk atau mengubah direktori.
Akses ke halaman ini memerlukan otorisasi. Anda dapat mencoba mengubah direktori.
Fungsi koleksi: Mengembalikan elemen array pada indeks atau nilai tertentu (berbasis 1) untuk kunci tertentu dalam peta. Untuk array, jika indeks adalah 0, Spark akan melemparkan kesalahan. Jika indeks < 0, mengakses elemen dari yang terakhir hingga yang pertama. Jika 'spark.sql.ansi.enabled' diatur ke true, pengecualian akan dilemparkan jika indeks berada di luar batas array alih-alih mengembalikan NULL. Untuk peta, fungsi selalu mengembalikan NULL jika kunci tidak terkandung dalam peta. Mendukung Spark Connect.
Untuk fungsi Databricks SQL yang sesuai, lihat element_at fungsi.
Syntax
from pyspark.databricks.sql import functions as dbf
dbf.element_at(col=<col>, extraction=<extraction>)
Parameter-parameternya
| Pengaturan | Tipe | Description |
|---|---|---|
col |
pyspark.sql.Column atau str |
Nama kolom yang berisi array atau peta. |
extraction |
Apa saja | Indeks yang akan diperiksa dalam array atau kunci untuk diperiksa di peta. |
Pengembalian Barang
pyspark.sql.Column: nilai pada posisi tertentu.
Examples
Contoh 1: Mendapatkan elemen pertama dari array
from pyspark.databricks.sql import functions as dbf
df = spark.createDataFrame([(["a", "b", "c"],)], ['data'])
df.select(dbf.element_at(df.data, 1)).show()
+-------------------+
|element_at(data, 1)|
+-------------------+
| a|
+-------------------+
Contoh 2: Mendapatkan nilai dari peta menggunakan kunci
from pyspark.databricks.sql import functions as dbf
df = spark.createDataFrame([({"a": 1.0, "b": 2.0},)], ['data'])
df.select(dbf.element_at(df.data, dbf.lit("a"))).show()
+-------------------+
|element_at(data, a)|
+-------------------+
| 1.0|
+-------------------+