Freigeben über


split

Zerteilt den String um die Übereinstimmungen des angegebenen Musters herum.

Die entsprechende Databricks SQL-Funktion finden Sie unter split Funktion.

Syntax

from pyspark.databricks.sql import functions as dbf

dbf.split(str=<str>, pattern=<pattern>, limit=<limit>)

Die Parameter

Parameter Typ Description
str pyspark.sql.Column oder str ein zu teilenden Zeichenfolgenausdruck
pattern pyspark.sql.Column oder literal string eine Zeichenfolge, die einen regulären Ausdruck darstellt. Die regex-Zeichenfolge sollte ein regulärer Java-Ausdruck sein. akzeptiert als Darstellung regulärer Ausdrücke zur Abwärtskompatibilität. Zusätzlich zu "int limit " akzeptiert jetzt der Spalten- und Spaltenname.
limit pyspark.sql.Column oder str oder int eine ganze Zahl, die die Anzahl der Angewendeten pattern steuert. _ : limit > 0Die Länge des resultierenden Arrays ist nicht mehr als limit, und der letzte Eintrag des resultierenden Arrays enthält alle Eingaben über das letzte übereinstimmene Muster hinaus. _ limit <= 0: pattern wird so oft wie möglich angewendet, und das resultierende Array kann beliebig groß sein.

Rückkehr

pyspark.sql.Column: Array von getrennten Zeichenfolgen.

Examples

from pyspark.databricks.sql import functions as dbf
df = spark.createDataFrame([('oneAtwoBthreeC',)], ['s',])
df.select('*', dbf.split(df.s, '[ABC]')).show()
df.select('*', dbf.split(df.s, '[ABC]', 2)).show()
df.select('*', dbf.split('s', '[ABC]', -2)).show()
df = spark.createDataFrame([
('oneAtwoBthreeC', '[ABC]', 2),
('1A2B3C', '[1-9]+', 1),
('aa2bb3cc4', '[1-9]+', -1)], ['s', 'p', 'l'])
df.select('*', dbf.split(df.s, df.p)).show()
df.select(dbf.split('s', df.p, 'l')).show()