通过


split_part

str按分隔符拆分并返回已请求的拆分部分(基于 1)。

如果任何输入为 null,则返回 null。 如果 partNum 拆分部分范围不足,则返回空字符串。

如果 partNum 为 0,则引发错误。如果 partNum 为负数,则从字符串末尾向后计数部分。

如果为 delimiter 空字符串,则 str 不拆分。

有关相应的 Databricks SQL 函数,请参阅 split_part 函数

Syntax

from pyspark.databricks.sql import functions as dbf

dbf.split_part(src=<src>, delimiter=<delimiter>, partNum=<partNum>)

参数

参数 类型 Description
src pyspark.sql.Columnstr 要拆分的字符串列。
delimiter pyspark.sql.Columnstr 字符串列,用于拆分的分隔符。
partNum pyspark.sql.Columnstr 字符串列,请求拆分部分(基于 1)。

例子

from pyspark.databricks.sql import functions as dbf
df = spark.createDataFrame([("11.12.13", ".", 3,)], ["a", "b", "c"])
df.select("*", dbf.split_part("a", "b", "c")).show()
df.select("*", dbf.split_part(df.a, df.b, dbf.lit(-2))).show()