Partager via


create_map

Crée une colonne cartographique à partir d’un nombre pair de colonnes d’entrée ou de références de colonne. Les colonnes d’entrée sont regroupées en paires clé-valeur pour former une carte. Par exemple, l’entrée (key1, value1, key2, value2, ...) produit une carte qui associe key1 à value1, key2 à value2, etc. La fonction prend également en charge le regroupement de colonnes en tant que liste.

Syntaxe

from pyspark.sql import functions as sf

sf.create_map(*cols)

Paramètres

Paramètre Type Descriptif
cols pyspark.sql.Column ou str Les noms de colonnes d’entrée ou les objets Column regroupés en paires clé-valeur. Elles peuvent également être exprimées sous la forme d’une liste de colonnes.

Retours

pyspark.sql.Column: nouvelle colonne de type Map, où chaque valeur est une carte formée à partir des paires clé-valeur correspondantes fournies dans les arguments d’entrée.

Examples

Exemple 1 : Utilisation de base de create_map fonction.

from pyspark.sql import functions as sf
df = spark.createDataFrame([("Alice", 2), ("Bob", 5)], ("name", "age"))
df.select(sf.create_map('name', 'age')).show()
+--------------+
|map(name, age)|
+--------------+
|  {Alice -> 2}|
|    {Bob -> 5}|
+--------------+

Exemple 2 : Utilisation de create_map fonction avec une liste de colonnes.

from pyspark.sql import functions as sf
df = spark.createDataFrame([("Alice", 2), ("Bob", 5)], ("name", "age"))
df.select(sf.create_map([df.name, df.age])).show()
+--------------+
|map(name, age)|
+--------------+
|  {Alice -> 2}|
|    {Bob -> 5}|
+--------------+

Exemple 3 : Utilisation de create_map fonction avec plusieurs paires clé-valeur.

from pyspark.sql import functions as sf
df = spark.createDataFrame([("Alice", 2, "female"),
    ("Bob", 5, "male")], ("name", "age", "gender"))
df.select(sf.create_map(sf.lit('name'), df['name'],
    sf.lit('gender'), df['gender'])).show(truncate=False)
+---------------------------------+
|map(name, name, gender, gender)  |
+---------------------------------+
|{name -> Alice, gender -> female}|
|{name -> Bob, gender -> male}    |
+---------------------------------+

Exemple 4 : Utilisation de create_map fonction avec des valeurs de différents types.

from pyspark.sql import functions as sf
df = spark.createDataFrame([("Alice", 2, 22.2),
    ("Bob", 5, 36.1)], ("name", "age", "weight"))
df.select(sf.create_map(sf.lit('age'), df['age'],
    sf.lit('weight'), df['weight'])).show(truncate=False)
+-----------------------------+
|map(age, age, weight, weight)|
+-----------------------------+
|{age -> 2.0, weight -> 22.2} |
|{age -> 5.0, weight -> 36.1} |
+-----------------------------+