Anmerkung
Der Zugriff auf diese Seite erfordert eine Genehmigung. Du kannst versuchen, dich anzumelden oder die Verzeichnisse zu wechseln.
Der Zugriff auf diese Seite erfordert eine Genehmigung. Du kannst versuchen , die Verzeichnisse zu wechseln.
Sammlungsfunktion: Verkettet mehrere Eingabespalten in einer einzelnen Spalte. Die Funktion funktioniert mit Zeichenfolgen, numerischen, binären und kompatiblen Arrayspalten. Unterstützt Spark Connect.
Die entsprechende Databricks SQL-Funktion finden Sie unter concat Funktion.
Syntax
from pyspark.databricks.sql import functions as dbf
dbf.concat(*cols)
Die Parameter
| Parameter | Typ | Description |
|---|---|---|
cols |
pyspark.sql.Column oder str |
Zielspalte oder Spalten, die bearbeitet werden sollen. |
Rückkehr
pyspark.sql.Column: verkettete Werte. Der Typ des Typs hängt vom Typ der Column Eingabespalten ab.
Examples
Beispiel 1: Verketten von Zeichenfolgenspalten
from pyspark.databricks.sql import functions as dbf
df = spark.createDataFrame([('abcd','123')], ['s', 'd'])
df.select(dbf.concat(df.s, df.d)).show()
+------------+
|concat(s, d)|
+------------+
| abcd123|
+------------+
Beispiel 2: Verketten von Arrayspalten
from pyspark.databricks.sql import functions as dbf
df = spark.createDataFrame([([1, 2], [3, 4], [5]), ([1, 2], None, [3])], ['a', 'b', 'c'])
df.select(dbf.concat(df.a, df.b, df.c)).show()
+---------------+
|concat(a, b, c)|
+---------------+
|[1, 2, 3, 4, 5]|
| NULL|
+---------------+