Catatan
Akses ke halaman ini memerlukan otorisasi. Anda dapat mencoba masuk atau mengubah direktori.
Akses ke halaman ini memerlukan otorisasi. Anda dapat mencoba mengubah direktori.
Buat interval dari tahun, bulan, minggu, hari, jam, menit, dan detik.
Untuk fungsi Databricks SQL yang sesuai, lihat make_interval fungsi.
Syntax
from pyspark.databricks.sql import functions as dbf
dbf.make_interval(years=<years>, months=<months>, weeks=<weeks>, days=<days>, hours=<hours>, mins=<mins>, secs=<secs>)
Parameter-parameternya
| Pengaturan | Tipe | Description |
|---|---|---|
years |
pyspark.sql.Column atau str, optional |
Jumlah tahun, positif atau negatif. |
months |
pyspark.sql.Column atau str, optional |
Jumlah bulan, positif atau negatif. |
weeks |
pyspark.sql.Column atau str, optional |
Jumlah minggu, positif atau negatif. |
days |
pyspark.sql.Column atau str, optional |
Jumlah hari, positif atau negatif. |
hours |
pyspark.sql.Column atau str, optional |
Jumlah jam, positif atau negatif. |
mins |
pyspark.sql.Column atau str, optional |
Jumlah menit, positif atau negatif. |
secs |
pyspark.sql.Column atau str, optional |
Jumlah detik dengan bagian pecahan dalam presisi mikrodetik. |
Pengembalian Barang
pyspark.sql.Column: Kolom baru yang berisi interval.
Examples
from pyspark.databricks.sql import functions as dbf
df = spark.createDataFrame([[100, 11, 1, 1, 12, 30, 01.001001]],
['year', 'month', 'week', 'day', 'hour', 'min', 'sec'])
df.select(
dbf.make_interval(df.year, df.month, 'week', df.day, df.hour, df.min, df.sec)
).show(truncate=False)
df = spark.createDataFrame([[100, 11, 1, 1, 12, 30, 01.001001]],
['year', 'month', 'week', 'day', 'hour', 'min', 'sec'])
df.select(
dbf.make_interval(df.year, df.month, 'week', df.day, df.hour, df.min)
).show(truncate=False)
df = spark.createDataFrame([[100, 11, 1, 1, 12, 30, 01.001001]],
['year', 'month', 'week', 'day', 'hour', 'min', 'sec'])
df.select(
dbf.make_interval(df.year, df.month, 'week', df.day, df.hour)
).show(truncate=False)
df = spark.createDataFrame([[100, 11, 1, 1, 12, 30, 01.001001]],
['year', 'month', 'week', 'day', 'hour', 'min', 'sec'])
df.select(dbf.make_interval(df.year, df.month, 'week', df.day)).show(truncate=False)
df = spark.createDataFrame([[100, 11, 1, 1, 12, 30, 01.001001]],
['year', 'month', 'week', 'day', 'hour', 'min', 'sec'])
df.select(dbf.make_interval(df.year, df.month, 'week')).show(truncate=False)
df = spark.createDataFrame([[100, 11, 1, 1, 12, 30, 01.001001]],
['year', 'month', 'week', 'day', 'hour', 'min', 'sec'])
df.select(dbf.make_interval(df.year, df.month)).show(truncate=False)
df = spark.createDataFrame([[100, 11, 1, 1, 12, 30, 01.001001]],
['year', 'month', 'week', 'day', 'hour', 'min', 'sec'])
df.select(dbf.make_interval(df.year)).show(truncate=False)
spark.range(1).select(dbf.make_interval()).show(truncate=False)