Примечание.
Для доступа к этой странице требуется авторизация. Вы можете попробовать войти или изменить каталоги.
Для доступа к этой странице требуется авторизация. Вы можете попробовать изменить каталоги.
str Разделяется по разделителям и возвращает запрошенную часть разбиения (на основе 1).
Если входные данные равно NULL, возвращает значение NULL. Значение , если partNum не имеет диапазона разделенных частей, возвращает пустую строку.
Если partNum значение равно 0, вызывает ошибку. Если partNum это отрицательно, части считаются обратно с конца строки.
delimiter Если строка пуста, она str не разделена.
Для соответствующей функции Databricks SQL смотрите функцию split_part.
Синтаксис
from pyspark.databricks.sql import functions as dbf
dbf.split_part(src=<src>, delimiter=<delimiter>, partNum=<partNum>)
Параметры
| Параметр | Тип | Description |
|---|---|---|
src |
pyspark.sql.Column или str |
Столбец строки для разделения. |
delimiter |
pyspark.sql.Column или str |
Столбец строки, разделитель, используемый для разделения. |
partNum |
pyspark.sql.Column или str |
Столбец строки, запрошенной частью разделения (на основе 1). |
Примеры
from pyspark.databricks.sql import functions as dbf
df = spark.createDataFrame([("11.12.13", ".", 3,)], ["a", "b", "c"])
df.select("*", dbf.split_part("a", "b", "c")).show()
df.select("*", dbf.split_part(df.a, df.b, dbf.lit(-2))).show()