为输入的数据类型返回 DDL 格式的类型字符串。
Syntax
from pyspark.sql import functions as sf
sf.typeof(col)
参数
| 参数 | 类型 | Description |
|---|---|---|
col |
pyspark.sql.Column 或 str |
要获取其类型的列。 |
例子
示例 1:获取各种列的类型
from pyspark.sql import functions as sf
df = spark.createDataFrame([(True, 1, 1.0, 'xyz',)], ['a', 'b', 'c', 'd'])
df.select(sf.typeof(df.a), sf.typeof(df.b), sf.typeof('c'), sf.typeof('d')).show()
+---------+---------+---------+---------+
|typeof(a)|typeof(b)|typeof(c)|typeof(d)|
+---------+---------+---------+---------+
| boolean| bigint| double| string|
+---------+---------+---------+---------+