Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Zerteilt den String um die Übereinstimmungen des angegebenen Musters herum.
Die entsprechende Databricks SQL-Funktion finden Sie unter split Funktion.
Syntax
from pyspark.databricks.sql import functions as dbf
dbf.split(str=<str>, pattern=<pattern>, limit=<limit>)
Die Parameter
| Parameter | Typ | Description |
|---|---|---|
str |
pyspark.sql.Column oder str |
ein zu teilenden Zeichenfolgenausdruck |
pattern |
pyspark.sql.Column oder literal string |
eine Zeichenfolge, die einen regulären Ausdruck darstellt. Die regex-Zeichenfolge sollte ein regulärer Java-Ausdruck sein. akzeptiert als Darstellung regulärer Ausdrücke zur Abwärtskompatibilität. Zusätzlich zu "int limit " akzeptiert jetzt der Spalten- und Spaltenname. |
limit |
pyspark.sql.Column oder str oder int |
eine ganze Zahl, die die Anzahl der Angewendeten pattern steuert. _ : limit > 0Die Länge des resultierenden Arrays ist nicht mehr als limit, und der letzte Eintrag des resultierenden Arrays enthält alle Eingaben über das letzte übereinstimmene Muster hinaus. _ limit <= 0: pattern wird so oft wie möglich angewendet, und das resultierende Array kann beliebig groß sein. |
Rückkehr
pyspark.sql.Column: Array von getrennten Zeichenfolgen.
Examples
from pyspark.databricks.sql import functions as dbf
df = spark.createDataFrame([('oneAtwoBthreeC',)], ['s',])
df.select('*', dbf.split(df.s, '[ABC]')).show()
df.select('*', dbf.split(df.s, '[ABC]', 2)).show()
df.select('*', dbf.split('s', '[ABC]', -2)).show()
df = spark.createDataFrame([
('oneAtwoBthreeC', '[ABC]', 2),
('1A2B3C', '[1-9]+', 1),
('aa2bb3cc4', '[1-9]+', -1)], ['s', 'p', 'l'])
df.select('*', dbf.split(df.s, df.p)).show()
df.select(dbf.split('s', df.p, 'l')).show()