Bagikan melalui


make_interval

Buat interval dari tahun, bulan, minggu, hari, jam, menit, dan detik.

Untuk fungsi Databricks SQL yang sesuai, lihat make_interval fungsi.

Syntax

from pyspark.databricks.sql import functions as dbf

dbf.make_interval(years=<years>, months=<months>, weeks=<weeks>, days=<days>, hours=<hours>, mins=<mins>, secs=<secs>)

Parameter-parameternya

Pengaturan Tipe Description
years pyspark.sql.Column atau str, optional Jumlah tahun, positif atau negatif.
months pyspark.sql.Column atau str, optional Jumlah bulan, positif atau negatif.
weeks pyspark.sql.Column atau str, optional Jumlah minggu, positif atau negatif.
days pyspark.sql.Column atau str, optional Jumlah hari, positif atau negatif.
hours pyspark.sql.Column atau str, optional Jumlah jam, positif atau negatif.
mins pyspark.sql.Column atau str, optional Jumlah menit, positif atau negatif.
secs pyspark.sql.Column atau str, optional Jumlah detik dengan bagian pecahan dalam presisi mikrodetik.

Pengembalian Barang

pyspark.sql.Column: Kolom baru yang berisi interval.

Examples

from pyspark.databricks.sql import functions as dbf
df = spark.createDataFrame([[100, 11, 1, 1, 12, 30, 01.001001]],
['year', 'month', 'week', 'day', 'hour', 'min', 'sec'])
df.select(
dbf.make_interval(df.year, df.month, 'week', df.day, df.hour, df.min, df.sec)
).show(truncate=False)
df = spark.createDataFrame([[100, 11, 1, 1, 12, 30, 01.001001]],
['year', 'month', 'week', 'day', 'hour', 'min', 'sec'])
df.select(
dbf.make_interval(df.year, df.month, 'week', df.day, df.hour, df.min)
).show(truncate=False)
df = spark.createDataFrame([[100, 11, 1, 1, 12, 30, 01.001001]],
['year', 'month', 'week', 'day', 'hour', 'min', 'sec'])
df.select(
dbf.make_interval(df.year, df.month, 'week', df.day, df.hour)
).show(truncate=False)
df = spark.createDataFrame([[100, 11, 1, 1, 12, 30, 01.001001]],
['year', 'month', 'week', 'day', 'hour', 'min', 'sec'])
df.select(dbf.make_interval(df.year, df.month, 'week', df.day)).show(truncate=False)
df = spark.createDataFrame([[100, 11, 1, 1, 12, 30, 01.001001]],
['year', 'month', 'week', 'day', 'hour', 'min', 'sec'])
df.select(dbf.make_interval(df.year, df.month, 'week')).show(truncate=False)
df = spark.createDataFrame([[100, 11, 1, 1, 12, 30, 01.001001]],
['year', 'month', 'week', 'day', 'hour', 'min', 'sec'])
df.select(dbf.make_interval(df.year, df.month)).show(truncate=False)
df = spark.createDataFrame([[100, 11, 1, 1, 12, 30, 01.001001]],
['year', 'month', 'week', 'day', 'hour', 'min', 'sec'])
df.select(dbf.make_interval(df.year)).show(truncate=False)
spark.range(1).select(dbf.make_interval()).show(truncate=False)