Nuta
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować się zalogować lub zmienić katalog.
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować zmienić katalogi.
Funkcja kolekcji: zwraca element tablicy w danym indeksie (opartym na 1) indeksie lub wartości dla danego klucza na mapie. W przypadku tablic, jeśli indeks ma wartość 0, platforma Spark zgłosi błąd. Jeśli indeks < 0, uzyskuje dostęp do elementów z ostatniego do pierwszego. Jeśli parametr "spark.sql.ansi.enabled" ma wartość true, zostanie zgłoszony wyjątek, jeśli indeks jest poza granicami tablicy zamiast zwracać wartość NULL. W przypadku map funkcja zawsze zwraca wartość NULL, jeśli klucz nie jest zawarty w mapie. Obsługuje program Spark Connect.
Aby uzyskać odpowiednią funkcję SQL usługi Databricks, zobacz element_at funkcja.
Składnia
from pyspark.databricks.sql import functions as dbf
dbf.element_at(col=<col>, extraction=<extraction>)
Parametry
| Parameter | Typ | Description |
|---|---|---|
col |
pyspark.sql.Column lub str |
Nazwa kolumny zawierającej tablicę lub mapę. |
extraction |
Jakikolwiek | Indeks, aby sprawdzić tablicę lub klucz do zaewidencjonowania w mapie. |
Zwraca
pyspark.sql.Column: wartość na danej pozycji.
Przykłady
Przykład 1. Pobieranie pierwszego elementu tablicy
from pyspark.databricks.sql import functions as dbf
df = spark.createDataFrame([(["a", "b", "c"],)], ['data'])
df.select(dbf.element_at(df.data, 1)).show()
+-------------------+
|element_at(data, 1)|
+-------------------+
| a|
+-------------------+
Przykład 2. Pobieranie wartości z mapy przy użyciu klucza
from pyspark.databricks.sql import functions as dbf
df = spark.createDataFrame([({"a": 1.0, "b": 2.0},)], ['data'])
df.select(dbf.element_at(df.data, dbf.lit("a"))).show()
+-------------------+
|element_at(data, a)|
+-------------------+
| 1.0|
+-------------------+