Compartir a través de


Tipos de datos pySpark

En esta página se proporciona una lista de los tipos de datos pySpark disponibles en Databricks con vínculos a la documentación de referencia correspondiente.

Tipo de dato Description
ArrayType(elementType[, containsNull]) Tipo de datos de matriz
BinaryType() Tipo de datos binario (matriz de bytes)
BooleanType() tipo de datos Boolean
ByteType() Tipo de dato Byte, que representa enteros con signo de 8 bits
CalendarIntervalType() Intervalos de calendario
CharType(length) Tipo de datos Char
DataType() Clase base para tipos de datos
DateType() Tipo de dato Date (datetime.date)
DayTimeIntervalType([startField, endField]) DayTimeIntervalType (datetime.timedelta)
DecimalType([precision, scale]) Decimal (tipo de datos decimal.Decimal)
DoubleType() Tipo de datos doble, que representa floats de precisión doble
FloatType() Tipo de datos float, que representa números flotantes de precisión única
Geography (Únicamente para Databricks) Tipo de datos geography
Geometry (Únicamente para Databricks) Tipo de datos geometry
IntegerType() Tipo de datos Int, que representa enteros de 32 bits con signo
LongType() Tipo de datos largo, que representa enteros de 64 bits con signo
MapType(keyType, valueType[, valueContainsNull]) Tipo de datos de mapa
NullType() Tipo nulo
ShortType() Tipo de datos corto, que representa enteros de 16 bits con signo
StringType([collation]) tipo de datos String
StructField(name, dataType[, nullable, metadata]) Un campo en StructType
StructType([fields]) Tipo de estructura, que consta de una lista de StructField
TimestampType() Tipo de datos Timestamp (datetime.datetime)
TimestampNTZType() Tipo de datos timestamp (datetime.datetime) sin información de zona horaria
VarcharType(length) Tipo de datos Varchar
VariantType() Tipo de datos Variant, que representa valores semiestructurados
YearMonthIntervalType([startField, endField]) YearMonthIntervalType, representa intervalos de año y mes del estándar sql