Примечание.
Для доступа к этой странице требуется авторизация. Вы можете попробовать войти или изменить каталоги.
Для доступа к этой странице требуется авторизация. Вы можете попробовать изменить каталоги.
Преобразует массив структур в таблицу.
Эта функция принимает входной столбец, содержащий массив структур, и возвращает новый столбец, в котором каждая структура в массиве взорвана в отдельную строку.
Синтаксис
from pyspark.sql import functions as sf
sf.inline(col)
Параметры
| Параметр | Тип | Description |
|---|---|---|
col |
pyspark.sql.Column или имя столбца |
Входной столбец значений для взрыва. |
Возвраты
pyspark.sql.Column: выражение генератора с встроенным взрывным результатом.
Примеры
Пример 1. Использование встроенного столбца массива структур
import pyspark.sql.functions as sf
df = spark.sql('SELECT ARRAY(NAMED_STRUCT("a",1,"b",2), NAMED_STRUCT("a",3,"b",4)) AS a')
df.select('*', sf.inline(df.a)).show()
+----------------+---+---+
| a| a| b|
+----------------+---+---+
|[{1, 2}, {3, 4}]| 1| 2|
|[{1, 2}, {3, 4}]| 3| 4|
+----------------+---+---+
Пример 2. Использование встроенного имени столбца
import pyspark.sql.functions as sf
df = spark.sql('SELECT ARRAY(NAMED_STRUCT("a",1,"b",2), NAMED_STRUCT("a",3,"b",4)) AS a')
df.select('*', sf.inline('a')).show()
+----------------+---+---+
| a| a| b|
+----------------+---+---+
|[{1, 2}, {3, 4}]| 1| 2|
|[{1, 2}, {3, 4}]| 3| 4|
+----------------+---+---+
Пример 3. Использование встроенного псевдонима
import pyspark.sql.functions as sf
df = spark.sql('SELECT ARRAY(NAMED_STRUCT("a",1,"b",2), NAMED_STRUCT("a",3,"b",4)) AS a')
df.select('*', sf.inline('a').alias("c1", "c2")).show()
+----------------+---+---+
| a| c1| c2|
+----------------+---+---+
|[{1, 2}, {3, 4}]| 1| 2|
|[{1, 2}, {3, 4}]| 3| 4|
+----------------+---+---+
Пример 4. Использование встроенных столбцов массива структур
import pyspark.sql.functions as sf
df = spark.sql('SELECT ARRAY(NAMED_STRUCT("a",1,"b",2), NAMED_STRUCT("a",3,"b",4)) AS a1, ARRAY(NAMED_STRUCT("c",5,"d",6), NAMED_STRUCT("c",7,"d",8)) AS a2')
df.select(
'*', sf.inline('a1')
).select('*', sf.inline('a2')).show()
+----------------+----------------+---+---+---+---+
| a1| a2| a| b| c| d|
+----------------+----------------+---+---+---+---+
|[{1, 2}, {3, 4}]|[{5, 6}, {7, 8}]| 1| 2| 5| 6|
|[{1, 2}, {3, 4}]|[{5, 6}, {7, 8}]| 1| 2| 7| 8|
|[{1, 2}, {3, 4}]|[{5, 6}, {7, 8}]| 3| 4| 5| 6|
|[{1, 2}, {3, 4}]|[{5, 6}, {7, 8}]| 3| 4| 7| 8|
+----------------+----------------+---+---+---+---+
Пример 5. Использование встроенного столбца массива структур
import pyspark.sql.functions as sf
df = spark.sql('SELECT NAMED_STRUCT("a",1,"b",2,"c",ARRAY(NAMED_STRUCT("c",3,"d",4), NAMED_STRUCT("c",5,"d",6))) AS s')
df.select('*', sf.inline('s.c')).show(truncate=False)
+------------------------+---+---+
|s |c |d |
+------------------------+---+---+
|{1, 2, [{3, 4}, {5, 6}]}|3 |4 |
|{1, 2, [{3, 4}, {5, 6}]}|5 |6 |
+------------------------+---+---+
Пример 6. Использование встроенного столбца со столбцом, содержащим: массив, содержащий значение NULL, пустой массив и null
from pyspark.sql import functions as sf
df = spark.sql('SELECT * FROM VALUES (1,ARRAY(NAMED_STRUCT("a",1,"b",2), NULL, NAMED_STRUCT("a",3,"b",4))), (2,ARRAY()), (3,NULL) AS t(i,s)')
df.show(truncate=False)
+---+----------------------+
|i |s |
+---+----------------------+
|1 |[{1, 2}, NULL, {3, 4}]|
|2 |[] |
|3 |NULL |
+---+----------------------+
df.select('*', sf.inline('s')).show(truncate=False)
+---+----------------------+----+----+
|i |s |a |b |
+---+----------------------+----+----+
|1 |[{1, 2}, NULL, {3, 4}]|1 |2 |
|1 |[{1, 2}, NULL, {3, 4}]|NULL|NULL|
|1 |[{1, 2}, NULL, {3, 4}]|3 |4 |
+---+----------------------+----+----+