Partilhar via


from_json

Analisa uma coluna contendo uma cadeia JSON num MapType tipo com StringType as keys, StructType ou ArrayType com o esquema especificado. Retorna null, no caso de uma cadeia não analisável.

Sintaxe

from pyspark.sql import functions as sf

sf.from_json(col, schema, options=None)

Parâmetros

Parâmetro Tipo Description
col pyspark.sql.Column ou str Uma coluna ou nome de coluna em formato JSON.
schema DataType ou str Um literal de string StructType, ArrayType ou Python com uma string formatada em DDL para usar ao analisar a coluna json.
options Dit, opcional Opções para controlar a análise sintática. Aceita as mesmas opções que a fonte de dados json.

Devoluções

pyspark.sql.Column: uma nova coluna de tipo complexo a partir do objeto JSON dado.

Examples

Exemplo 1: Análise de JSON com um esquema especificado

import pyspark.sql.functions as sf
from pyspark.sql.types import StructType, StructField, IntegerType
schema = StructType([StructField("a", IntegerType())])
df = spark.createDataFrame([(1, '''{"a": 1}''')], ("key", "value"))
df.select(sf.from_json(df.value, schema).alias("json")).show()
+----+
|json|
+----+
| {1}|
+----+

Exemplo 2: Análise de JSON com uma string formatada em DDL

import pyspark.sql.functions as sf
df = spark.createDataFrame([(1, '''{"a": 1}''')], ("key", "value"))
df.select(sf.from_json(df.value, "a INT").alias("json")).show()
+----+
|json|
+----+
| {1}|
+----+

Exemplo 3: Analisar JSON num MapType

import pyspark.sql.functions as sf
df = spark.createDataFrame([(1, '''{"a": 1}''')], ("key", "value"))
df.select(sf.from_json(df.value, "MAP<STRING,INT>").alias("json")).show()
+--------+
|    json|
+--------+
|{a -> 1}|
+--------+

Exemplo 4: Analisar JSON num ArrayType de StructType

import pyspark.sql.functions as sf
from pyspark.sql.types import ArrayType, StructType, StructField, IntegerType
schema = ArrayType(StructType([StructField("a", IntegerType())]))
df = spark.createDataFrame([(1, '''[{"a": 1}]''')], ("key", "value"))
df.select(sf.from_json(df.value, schema).alias("json")).show()
+-----+
| json|
+-----+
|[{1}]|
+-----+

Exemplo 5: Analisar JSON num ArrayType

import pyspark.sql.functions as sf
from pyspark.sql.types import ArrayType, IntegerType
schema = ArrayType(IntegerType())
df = spark.createDataFrame([(1, '''[1, 2, 3]''')], ("key", "value"))
df.select(sf.from_json(df.value, schema).alias("json")).show()
+---------+
|     json|
+---------+
|[1, 2, 3]|
+---------+

Exemplo 6: Análise de JSON com opções especificadas

import pyspark.sql.functions as sf
df = spark.createDataFrame([(1, '''{a:123}'''), (2, '''{"a":456}''')], ("key", "value"))
parsed1 = sf.from_json(df.value, "a INT")
parsed2 = sf.from_json(df.value, "a INT", {"allowUnquotedFieldNames": "true"})
df.select("value", parsed1, parsed2).show()
+---------+----------------+----------------+
|    value|from_json(value)|from_json(value)|
+---------+----------------+----------------+
|  {a:123}|          {NULL}|           {123}|
|{"a":456}|           {456}|           {456}|
+---------+----------------+----------------+