Teilen über


get_json_object

Extrahiert json-Objekt aus einer json-Zeichenfolge basierend auf dem angegebenen JSON-Code path und gibt json-Zeichenfolge des extrahierten JSON-Objekts zurück. Wenn die JSON-Eingabezeichenfolge ungültig ist, wird null zurückgegeben.

Syntax

from pyspark.sql import functions as sf

sf.get_json_object(col, path)

Die Parameter

Parameter Typ Description
col pyspark.sql.Column oder str Zeichenfolgenspalte im JSON-Format.
path str Pfad zum zu extrahierenden JSON-Objekt.

Rückkehr

pyspark.sql.Column: Zeichenfolgendarstellung des angegebenen JSON-Objektwerts.

Examples

Beispiel 1: Extrahieren eines JSON-Objekts aus json-Zeichenfolge

from pyspark.sql import functions as sf
data = [("1", '''{"f1": "value1", "f2": "value2"}'''), ("2", '''{"f1": "value12"}''')]
df = spark.createDataFrame(data, ("key", "jstring"))
df.select(df.key,
    sf.get_json_object(df.jstring, '$.f1').alias("c0"),
    sf.get_json_object(df.jstring, '$.f2').alias("c1")
).show()
+---+-------+------+
|key|     c0|    c1|
+---+-------+------+
|  1| value1|value2|
|  2|value12|  NULL|
+---+-------+------+

Beispiel 2: Extrahieren eines JSON-Objekts aus json-Array

from pyspark.sql import functions as sf
data = [
("1", '''[{"f1": "value1"},{"f1": "value2"}]'''),
("2", '''[{"f1": "value12"},{"f2": "value13"}]''')
]
df = spark.createDataFrame(data, ("key", "jarray"))
df.select(df.key,
    sf.get_json_object(df.jarray, '$[0].f1').alias("c0"),
    sf.get_json_object(df.jarray, '$[1].f2').alias("c1")
).show()
+---+-------+-------+
|key|     c0|     c1|
+---+-------+-------+
|  1| value1|   NULL|
|  2|value12|value13|
+---+-------+-------+
df.select(df.key,
    sf.get_json_object(df.jarray, '$[*].f1').alias("c0"),
    sf.get_json_object(df.jarray, '$[*].f2').alias("c1")
).show()
+---+-------------------+---------+
|key|                 c0|       c1|
+---+-------------------+---------+
|  1|["value1","value2"]|     NULL|
|  2|          "value12"|"value13"|
+---+-------------------+---------+