Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
str Divide por delimitador e retorna parte solicitada da divisão (baseada em 1).
Se qualquer entrada for nula, retornará nulo. se partNum estiver fora do intervalo de partes divididas, retornará a cadeia de caracteres vazia.
Se partNum for 0, gerará um erro. Se partNum for negativo, as partes serão contadas para trás do final da cadeia de caracteres.
Se for delimiter uma cadeia de caracteres vazia, ela str não será dividida.
Para a função SQL do Databricks correspondente, consulte a função split_part.
Sintaxe
from pyspark.databricks.sql import functions as dbf
dbf.split_part(src=<src>, delimiter=<delimiter>, partNum=<partNum>)
Parâmetros
| Parâmetro | Tipo | Description |
|---|---|---|
src |
pyspark.sql.Column ou str |
Uma coluna de cadeia de caracteres a ser dividida. |
delimiter |
pyspark.sql.Column ou str |
Uma coluna de cadeia de caracteres, o delimitador usado para divisão. |
partNum |
pyspark.sql.Column ou str |
Uma coluna de cadeia de caracteres, parte solicitada da divisão (baseada em 1). |
Exemplos
from pyspark.databricks.sql import functions as dbf
df = spark.createDataFrame([("11.12.13", ".", 3,)], ["a", "b", "c"])
df.select("*", dbf.split_part("a", "b", "c")).show()
df.select("*", dbf.split_part(df.a, df.b, dbf.lit(-2))).show()