Megosztás:


tömb

Új tömboszlopot hoz létre a bemeneti oszlopokból vagy oszlopnevekből.

Szemantika

from pyspark.sql import functions as sf

sf.array(*cols)

Paraméterek

Paraméter Típus Description
cols pyspark.sql.Column vagy str Azonos adattípusú oszlopnevek vagy oszlopobjektumok.

Visszatérítések

pyspark.sql.Column: Egy új tömbtípusú oszlop, amelyben minden érték egy tömb, amely a bemeneti oszlopok megfelelő értékeit tartalmazza.

Példák

1. példa: A tömbfüggvény alapszintű használata oszlopnevekkel.

from pyspark.sql import functions as sf
df = spark.createDataFrame([("Alice", "doctor"), ("Bob", "engineer")],
    ("name", "occupation"))
df.select(sf.array('name', 'occupation')).show()
+-----------------------+
|array(name, occupation)|
+-----------------------+
|        [Alice, doctor]|
|        [Bob, engineer]|
+-----------------------+

2. példa: Tömbfüggvény használata oszlopobjektumokkal.

from pyspark.sql import functions as sf
df = spark.createDataFrame([("Alice", "doctor"), ("Bob", "engineer")],
    ("name", "occupation"))
df.select(sf.array(df.name, df.occupation)).show()
+-----------------------+
|array(name, occupation)|
+-----------------------+
|        [Alice, doctor]|
|        [Bob, engineer]|
+-----------------------+

3. példa: Egyetlen argumentum az oszlopnevek listájaként.

from pyspark.sql import functions as sf
df = spark.createDataFrame([("Alice", "doctor"), ("Bob", "engineer")],
    ("name", "occupation"))
df.select(sf.array(['name', 'occupation'])).show()
+-----------------------+
|array(name, occupation)|
+-----------------------+
|        [Alice, doctor]|
|        [Bob, engineer]|
+-----------------------+

4. példa: Tömbfüggvény használata különböző típusú oszlopokkal.

from pyspark.sql import functions as sf
df = spark.createDataFrame(
    [("Alice", 2, 22.2), ("Bob", 5, 36.1)],
    ("name", "age", "weight"))
df.select(sf.array(['age', 'weight'])).show()
+------------------+
|array(age, weight)|
+------------------+
|       [2.0, 22.2]|
|       [5.0, 36.1]|
+------------------+

5. példa: null értékeket tartalmazó oszlopot tartalmazó tömbfüggvény.

from pyspark.sql import functions as sf
df = spark.createDataFrame([("Alice", None), ("Bob", "engineer")],
    ("name", "occupation"))
df.select(sf.array('name', 'occupation')).show()
+-----------------------+
|array(name, occupation)|
+-----------------------+
|          [Alice, NULL]|
|        [Bob, engineer]|
+-----------------------+