Compartir vía


concat

Función de colección: concatena varias columnas de entrada juntas en una sola columna. La función funciona con cadenas, columnas numéricas, binarias y de matriz compatibles. Soporta Spark Connect.

Para obtener la función SQL de Databricks correspondiente, consulte concat function.

Syntax

from pyspark.databricks.sql import functions as dbf

dbf.concat(*cols)

Parámetros

Parámetro Tipo Description
cols pyspark.sql.Column o str Columna o columnas de destino en las que trabajar.

Devoluciones

pyspark.sql.Column: valores concatenados. El tipo de depende Column del tipo de columnas de entrada.

Examples

Ejemplo 1: Concatenación de columnas de cadena

from pyspark.databricks.sql import functions as dbf
df = spark.createDataFrame([('abcd','123')], ['s', 'd'])
df.select(dbf.concat(df.s, df.d)).show()
+------------+
|concat(s, d)|
+------------+
|     abcd123|
+------------+

Ejemplo 2: Concatenación de columnas de matriz

from pyspark.databricks.sql import functions as dbf
df = spark.createDataFrame([([1, 2], [3, 4], [5]), ([1, 2], None, [3])], ['a', 'b', 'c'])
df.select(dbf.concat(df.a, df.b, df.c)).show()
+---------------+
|concat(a, b, c)|
+---------------+
|[1, 2, 3, 4, 5]|
|           NULL|
+---------------+