str按分隔符拆分并返回已请求的拆分部分(基于 1)。
如果任何输入为 null,则返回 null。 如果 partNum 拆分部分范围不足,则返回空字符串。
如果 partNum 为 0,则引发错误。如果 partNum 为负数,则从字符串末尾向后计数部分。
如果为 delimiter 空字符串,则 str 不拆分。
有关相应的 Databricks SQL 函数,请参阅 split_part 函数。
Syntax
from pyspark.databricks.sql import functions as dbf
dbf.split_part(src=<src>, delimiter=<delimiter>, partNum=<partNum>)
参数
| 参数 | 类型 | Description |
|---|---|---|
src |
pyspark.sql.Column 或 str |
要拆分的字符串列。 |
delimiter |
pyspark.sql.Column 或 str |
字符串列,用于拆分的分隔符。 |
partNum |
pyspark.sql.Column 或 str |
字符串列,请求拆分部分(基于 1)。 |
例子
from pyspark.databricks.sql import functions as dbf
df = spark.createDataFrame([("11.12.13", ".", 3,)], ["a", "b", "c"])
df.select("*", dbf.split_part("a", "b", "c")).show()
df.select("*", dbf.split_part(df.a, df.b, dbf.lit(-2))).show()