Bagikan melalui


split

Membagi str di sekitar kecocokan pola yang diberikan.

Untuk fungsi Databricks SQL yang sesuai, lihat split fungsi.

Syntax

from pyspark.databricks.sql import functions as dbf

dbf.split(str=<str>, pattern=<pattern>, limit=<limit>)

Parameter-parameternya

Pengaturan Tipe Description
str pyspark.sql.Column atau str ekspresi string untuk dipisahkan
pattern pyspark.sql.Column atau literal string string yang mewakili ekspresi reguler. String regex harus menjadi ekspresi reguler Java. diterima sebagai representasi ekspresi reguler, untuk kompatibilitas mundur. Selain int, limit sekarang menerima nama kolom dan kolom.
limit pyspark.sql.Column atau str atau int bilangan bulat yang mengontrol berapa kali pattern diterapkan. _ limit > 0: Panjang array yang dihasilkan tidak akan lebih dari limit, dan entri terakhir array yang dihasilkan akan berisi semua input di luar pola terakhir yang cocok. _ limit <= 0: pattern akan diterapkan sebanyak mungkin, dan array yang dihasilkan dapat memiliki ukuran apa pun.

Pengembalian Barang

pyspark.sql.Column: array string yang dipisahkan.

Examples

from pyspark.databricks.sql import functions as dbf
df = spark.createDataFrame([('oneAtwoBthreeC',)], ['s',])
df.select('*', dbf.split(df.s, '[ABC]')).show()
df.select('*', dbf.split(df.s, '[ABC]', 2)).show()
df.select('*', dbf.split('s', '[ABC]', -2)).show()
df = spark.createDataFrame([
('oneAtwoBthreeC', '[ABC]', 2),
('1A2B3C', '[1-9]+', 1),
('aa2bb3cc4', '[1-9]+', -1)], ['s', 'p', 'l'])
df.select('*', dbf.split(df.s, df.p)).show()
df.select(dbf.split('s', df.p, 'l')).show()