通过


typeof

为输入的数据类型返回 DDL 格式的类型字符串。

Syntax

from pyspark.sql import functions as sf

sf.typeof(col)

参数

参数 类型 Description
col pyspark.sql.Column 或 str 要获取其类型的列。

例子

示例 1:获取各种列的类型

from pyspark.sql import functions as sf
df = spark.createDataFrame([(True, 1, 1.0, 'xyz',)], ['a', 'b', 'c', 'd'])
df.select(sf.typeof(df.a), sf.typeof(df.b), sf.typeof('c'), sf.typeof('d')).show()
+---------+---------+---------+---------+
|typeof(a)|typeof(b)|typeof(c)|typeof(d)|
+---------+---------+---------+---------+
|  boolean|   bigint|   double|   string|
+---------+---------+---------+---------+