Anmerkung
Der Zugriff auf diese Seite erfordert eine Genehmigung. Du kannst versuchen, dich anzumelden oder die Verzeichnisse zu wechseln.
Der Zugriff auf diese Seite erfordert eine Genehmigung. Du kannst versuchen , die Verzeichnisse zu wechseln.
Zerteilt den String um die Übereinstimmungen des angegebenen Musters herum.
Die entsprechende Databricks SQL-Funktion finden Sie unter split Funktion.
Syntax
from pyspark.databricks.sql import functions as dbf
dbf.split(str=<str>, pattern=<pattern>, limit=<limit>)
Die Parameter
| Parameter | Typ | Description |
|---|---|---|
str |
pyspark.sql.Column oder str |
ein zu teilenden Zeichenfolgenausdruck |
pattern |
pyspark.sql.Column oder literal string |
eine Zeichenfolge, die einen regulären Ausdruck darstellt. Die regex-Zeichenfolge sollte ein regulärer Java-Ausdruck sein. akzeptiert als Darstellung regulärer Ausdrücke zur Abwärtskompatibilität. Zusätzlich zu "int limit " akzeptiert jetzt der Spalten- und Spaltenname. |
limit |
pyspark.sql.Column oder str oder int |
eine ganze Zahl, die die Anzahl der Angewendeten pattern steuert. _ : limit > 0Die Länge des resultierenden Arrays ist nicht mehr als limit, und der letzte Eintrag des resultierenden Arrays enthält alle Eingaben über das letzte übereinstimmene Muster hinaus. _ limit <= 0: pattern wird so oft wie möglich angewendet, und das resultierende Array kann beliebig groß sein. |
Rückkehr
pyspark.sql.Column: Array von getrennten Zeichenfolgen.
Examples
from pyspark.databricks.sql import functions as dbf
df = spark.createDataFrame([('oneAtwoBthreeC',)], ['s',])
df.select('*', dbf.split(df.s, '[ABC]')).show()
df.select('*', dbf.split(df.s, '[ABC]', 2)).show()
df.select('*', dbf.split('s', '[ABC]', -2)).show()
df = spark.createDataFrame([
('oneAtwoBthreeC', '[ABC]', 2),
('1A2B3C', '[1-9]+', 1),
('aa2bb3cc4', '[1-9]+', -1)], ['s', 'p', 'l'])
df.select('*', dbf.split(df.s, df.p)).show()
df.select(dbf.split('s', df.p, 'l')).show()