Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Teilt durch Trennzeichen und gibt den angeforderten str Teil der Unterbrechung (1-basiert) zurück.
Wenn eine Eingabe null ist, wird NULL zurückgegeben. wenn partNum außerhalb des Bereichs geteilter Teile liegt, wird eine leere Zeichenfolge zurückgegeben.
Wenn partNum 0 ist, wird ein Fehler ausgelöst. Ist partNum dies negativ, werden die Teile vom Ende der Zeichenfolge rückwärts gezählt.
Wenn es sich um delimiter eine leere Zeichenfolge handelt, wird die str Zeichenfolge nicht geteilt.
Die entsprechende Databricks SQL-Funktion finden Sie unter split_part Funktion.
Syntax
from pyspark.databricks.sql import functions as dbf
dbf.split_part(src=<src>, delimiter=<delimiter>, partNum=<partNum>)
Die Parameter
| Parameter | Typ | Description |
|---|---|---|
src |
pyspark.sql.Column oder str |
Eine Spalte mit Zeichenfolge, die geteilt werden soll. |
delimiter |
pyspark.sql.Column oder str |
Eine Spalte mit Zeichenfolge, das Trennzeichen, das für die Aufteilung verwendet wird. |
partNum |
pyspark.sql.Column oder str |
Eine Spalte mit Zeichenfolge, die einen Teil der Aufteilung angefordert hat (1-basiert). |
Examples
from pyspark.databricks.sql import functions as dbf
df = spark.createDataFrame([("11.12.13", ".", 3,)], ["a", "b", "c"])
df.select("*", dbf.split_part("a", "b", "c")).show()
df.select("*", dbf.split_part(df.a, df.b, dbf.lit(-2))).show()