Catatan
Akses ke halaman ini memerlukan otorisasi. Anda dapat mencoba masuk atau mengubah direktori.
Akses ke halaman ini memerlukan otorisasi. Anda dapat mencoba mengubah direktori.
Buat tanda waktu saat ini dengan zona waktu lokal dari tahun, bulan, hari, jam, menit, detik, dan bidang zona waktu. Jika konfigurasi spark.sql.ansi.enabled salah, fungsi mengembalikan NULL pada input yang tidak valid. Jika tidak, itu akan melemparkan kesalahan sebagai gantinya.
Syntax
from pyspark.sql import functions as dbf
dbf.make_timestamp_ltz(years=<years>, months=<months>, days=<days>, hours=<hours>, mins=<mins>, secs=<secs>, timezone=<timezone>)
Parameter-parameternya
| Pengaturan | Tipe | Description |
|---|---|---|
years |
pyspark.sql.Column atau str |
Tahun untuk mewakili, dari 1 hingga 9999 |
months |
pyspark.sql.Column atau str |
Bulan setahun yang akan diwakili, dari 1 (Januari) hingga 12 (Desember) |
days |
pyspark.sql.Column atau str |
Hari dalam sebulan untuk diwakili, dari 1 hingga 31 |
hours |
pyspark.sql.Column atau str |
Jam dalam sehari untuk diwakili, dari 0 hingga 23 |
mins |
pyspark.sql.Column atau str |
Menit dari jam yang akan diwakili, dari 0 hingga 59 |
secs |
pyspark.sql.Column atau str |
Detik-of-menit dan mikro-pecahan untuk mewakili, dari 0 hingga 60. Nilai dapat berupa bilangan bulat seperti 13 , atau pecahan seperti 13.123. Jika argumen detik sama dengan 60, bidang detik diatur ke 0 dan 1 menit ditambahkan ke tanda waktu akhir. |
timezone |
pyspark.sql.Column atau str, optional |
Pengidentifikasi zona waktu. Misalnya, CET, UTC dan dll. |
Pengembalian Barang
pyspark.sql.Column: Kolom baru yang berisi tanda waktu saat ini.
Examples
spark.conf.set("spark.sql.session.timeZone", "America/Los_Angeles")
from pyspark.sql import functions as dbf
df = spark.createDataFrame([[2014, 12, 28, 6, 30, 45.887, 'CET']],
['year', 'month', 'day', 'hour', 'min', 'sec', 'tz'])
df.select(
dbf.make_timestamp_ltz(df.year, df.month, 'day', df.hour, df.min, df.sec, 'tz')
).show(truncate=False)
df = spark.createDataFrame([[2014, 12, 28, 6, 30, 45.887, 'CET']],
['year', 'month', 'day', 'hour', 'min', 'sec', 'tz'])
df.select(
dbf.make_timestamp_ltz(df.year, df.month, 'day', df.hour, df.min, df.sec)
).show(truncate=False)
spark.conf.unset("spark.sql.session.timeZone")