TabularDataset Kelas

Mewakili himpunan data tabular untuk digunakan dalam Azure Machine Learning.

TabularDataset menentukan serangkaian operasi yang bersifat lazily-evaluated dan tidak berubah untuk memuat data dari sumber data ke dalam representasi tabular. Data tidak dimuat dari sumber sampai TabularDataset diminta untuk mengirimkan data.

TabularDataset dibuat menggunakan metode seperti from_delimited_files dari kelas TabularDatasetFactory.

Untuk informasi selengkapnya, lihat artikel Menambahkan & mendaftarkan himpunan data. Untuk mulai bekerja dengan himpunan data tabular, lihat https://aka.ms/tabulardataset-samplenotebook.

Menginisialisasi objek TabularDataset.

Konstruktor ini tidak seharusnya dipanggil secara langsung. Himpunan data dimaksudkan untuk dibuat menggunakan TabularDatasetFactory kelas .

Warisan
TabularDataset

Konstruktor

TabularDataset()

Keterangan

TabularDataset dapat dibuat dari CSV, TSV, file Parquet, atau kueri SQL menggunakan metode from_* kelas TabularDatasetFactory. Anda dapat melakukan operasi sub-pengaturan pada TabularDataset seperti memisahkan, melompati, dan memfilter baris. Hasil sub-pengaturan selalu satu atau lebih objek TabularDataset baru.

Anda juga dapat mengonversi TabularDataset ke format lain seperti pandas DataFrame. Pemuatan data yang sebenarnya terjadi ketika TabularDataset diminta untuk mengirimkan data ke mekanisme penyimpanan lain (misalnya Pandas Dataframe, atau file CSV).

TabularDataset dapat digunakan sebagai input dari eksekusi eksperimen. TabularDataset juga dapat didaftarkan ke ruang kerja dengan nama tertentu dan diambil dengan nama itu nanti.

Metode

download

Catatan

Ini adalah metode eksperimental, dan dapat berubah kapan saja. Lihat https://aka.ms/azuremlexperimental untuk mengetahui informasi selengkapnya.

Unduh aliran file yang ditentukan oleh himpunan data ke jalur lokal.

drop_columns

Hilangkan kolom yang ditentukan dari himpunan data.

Jika kolom timeseries dihilangkan, kemampuan terkait juga akan dihilangkan untuk himpunan data yang dikembalikan.

filter

Catatan

Ini adalah metode eksperimental, dan dapat berubah kapan saja. Lihat https://aka.ms/azuremlexperimental untuk mengetahui informasi selengkapnya.

Filter data, hanya menyisakan rekaman yang cocok dengan ekspresi yang ditentukan.

get_profile

Catatan

Ini adalah metode eksperimental, dan dapat berubah kapan saja. Lihat https://aka.ms/azuremlexperimental untuk mengetahui informasi selengkapnya.

Dapatkan profil data dari profil terbaru yang dijalankan untuk himpunan data atau himpunan data yang sama di ruang kerja.

get_profile_runs

Catatan

Ini adalah metode eksperimental, dan dapat berubah kapan saja. Lihat https://aka.ms/azuremlexperimental untuk mengetahui informasi selengkapnya.

Kembalikan eksekusi profil sebelumnya yang terkait dengan himpunan data ini atau yang sama di ruang kerja.

keep_columns

Simpan kolom yang ditentukan dan hapus semua kolom lainnya dari himpunan data.

Jika kolom timeseries dihilangkan, kemampuan terkait juga akan dihilangkan untuk himpunan data yang dikembalikan.

mount

Catatan

Ini adalah metode eksperimental, dan dapat berubah kapan saja. Lihat https://aka.ms/azuremlexperimental untuk mengetahui informasi selengkapnya.

Buat manajer konteks untuk memasang aliran file yang ditentukan oleh himpunan data sebagai file lokal.

partition_by

Data yang dipartisi akan disalin dan dikeluarkan ke tujuan yang ditentukan oleh target.

buat himpunan data dari jalur data yang di output dengan format partisi, daftarkan himpunan data jika nama disediakan, kembalikan himpunan data untuk jalur data baru dengan partisi


   ds = Dataset.get_by_name('test') # indexed by country, state, partition_date

   # #1: call partition_by locally
   new_ds = ds.partition_by(name="repartitioned_ds", partition_keys=['country'],
               target=DataPath(datastore, "repartition"))
   partition_keys = newds.partition_keys # ['country']

   # new_ds can be passed to PRS as input dataset
random_split

Pisahkan baris dalam himpunan data menjadi dua bagian secara acak dan kira-kira berdasarkan persentase yang ditentukan.

Himpunan data pertama berisi kira-kira percentage dari total baris dan himpunan data kedua berisi baris yang tersisa.

skip

Lompati baris dari atas himpunan data menurut hitungan yang ditentukan.

submit_profile_run

Catatan

Ini adalah metode eksperimental, dan dapat berubah kapan saja. Lihat https://aka.ms/azuremlexperimental untuk mengetahui informasi selengkapnya.

Kirimkan eksperimen yang dijalankan untuk menghitung profil data.

Profil data bisa sangat berguna untuk memahami data input, mengidentifikasi anomali dan nilai yang hilang dengan memberikan informasi yang berguna tentang data seperti jenis kolom, nilai yang hilang, dll.

take

Ambil sampel baris dari bagian atas himpunan data menurut hitungan yang ditentukan.

take_sample

Ambil sampel acak baris dalam himpunan data kira-kira berdasarkan peluang yang ditentukan.

time_after

Filter TabularDataset dengan kolom stempel waktu setelah waktu mulai yang ditentukan.

time_before

Filter TabularDataset dengan kolom stempel waktu sebelum waktu akhir yang ditentukan.

time_between

Filter TabularDataset antara waktu mulai dan akhir yang ditentukan.

time_recent

Filter TabularDataset hanya akan berisi durasi (jumlah) data terbaru yang ditentukan.

to_csv_files

Ubah himpunan data saat ini menjadi FileDataset yang berisi file CSV.

Himpunan data yang dihasilkan akan berisi satu atau beberapa file CSV, masing-masing sesuai dengan partisi data dari himpunan data saat ini. File-file ini tidak terwujud sampai diunduh atau dibaca.

to_dask_dataframe

Catatan

Ini adalah metode eksperimental, dan dapat berubah kapan saja. Lihat https://aka.ms/azuremlexperimental untuk mengetahui informasi selengkapnya.

Kembalikan Dask DataFrame yang lambat membaca data dalam himpunan data.

to_pandas_dataframe

Muat semua baris dari himpunan data ke dalam pandas DataFrame.

to_parquet_files

Ubah himpunan data saat ini menjadi FileDataset yang berisi file Parquet.

Himpunan data yang dihasilkan akan berisi satu atau beberapa file Parquet, masing-masing sesuai dengan partisi data dari himpunan data saat ini. File-file ini tidak terwujud sampai diunduh atau dibaca.

to_spark_dataframe

Muat semua baris dari himpunan data ke dalam Spark DataFrame.

with_timestamp_columns

Tentukan kolom stempel waktu untuk himpunan data.

download

Catatan

Ini adalah metode eksperimental, dan dapat berubah kapan saja. Lihat https://aka.ms/azuremlexperimental untuk mengetahui informasi selengkapnya.

Unduh aliran file yang ditentukan oleh himpunan data ke jalur lokal.

download(stream_column, target_path=None, overwrite=False, ignore_not_found=True)

Parameter

stream_column
str
Diperlukan

Kolom aliran untuk diunduh.

target_path
str
Diperlukan

Direktori lokal untuk mengunduh file. Jika Tidak Ada, data akan diunduh ke direktori sementara.

overwrite
bool
Diperlukan

Menunjukkan apakah akan menimpa file yang ada. Defaultnya adalah False. File yang ada akan ditimpa jika overwrite diatur ke True; jika tidak, pengecualian akan diajukan.

ignore_not_found
bool
Diperlukan

Menunjukkan apakah akan gagal mengunduh jika beberapa file yang ditunjukkan oleh himpunan data tidak ditemukan. Defaultnya adalah True. Unduhan akan gagal jika unduhan file gagal karena alasan apa pun jika ignore_not_found diatur ke False; jika tidak, peringatan akan dicatat untuk kesalahan yang tidak ditemukan dan unduhan akan berhasil selama tidak ada jenis kesalahan lain yang ditemukan.

Mengembalikan

Mengembalikan array jalur file untuk setiap file yang diunduh.

Tipe hasil

drop_columns

Hilangkan kolom yang ditentukan dari himpunan data.

Jika kolom timeseries dihilangkan, kemampuan terkait juga akan dihilangkan untuk himpunan data yang dikembalikan.

drop_columns(columns)

Parameter

columns
Union[str, list[str]]
Diperlukan

Nama atau daftar nama untuk kolom akan dihilangkan.

Mengembalikan

Mengembalikan objek TabularDataset baru dengan kolom tertentu dihilangkan.

Tipe hasil

filter

Catatan

Ini adalah metode eksperimental, dan dapat berubah kapan saja. Lihat https://aka.ms/azuremlexperimental untuk mengetahui informasi selengkapnya.

Filter data, hanya menyisakan rekaman yang cocok dengan ekspresi yang ditentukan.

filter(expression)

Parameter

expression
any
Diperlukan

Ekspresi untuk mengevaluasi.

Mengembalikan

Himpunan data yang dimodifikasi (tidak terdaftar).

Tipe hasil

Keterangan

Ekspresi dimulai dengan mengindeks Dataset dengan nama kolom. Ekspresi mendukung berbagai fungsi dan operator dan dapat digabungkan menggunakan operator logis. Ekspresi yang dihasilkan akan dievaluasi dengan lambat untuk setiap baris ketika terjadi penarikan data dan bukan di tempat yang ditentukan.


   dataset['myColumn'] > dataset['columnToCompareAgainst']
   dataset['myColumn'].starts_with('prefix')

get_profile

Catatan

Ini adalah metode eksperimental, dan dapat berubah kapan saja. Lihat https://aka.ms/azuremlexperimental untuk mengetahui informasi selengkapnya.

Dapatkan profil data dari profil terbaru yang dijalankan untuk himpunan data atau himpunan data yang sama di ruang kerja.

get_profile(workspace=None)

Parameter

workspace
Workspace
Diperlukan

Ruang kerja tempat profil dijalankan telah dikirimkan. Default ke ruang kerja himpunan data ini. Diperlukan jika himpunan data tidak terkait dengan ruang kerja. Lihat https://docs.microsoft.com/en-us/python/api/azureml-core/azureml.core.workspace.workspace untuk informasi selengkapnya tentang ruang kerja.

Mengembalikan

Hasil profil dari eksekusi profil terbaru dari jenis DatasetProfile.

Tipe hasil

get_profile_runs

Catatan

Ini adalah metode eksperimental, dan dapat berubah kapan saja. Lihat https://aka.ms/azuremlexperimental untuk mengetahui informasi selengkapnya.

Kembalikan eksekusi profil sebelumnya yang terkait dengan himpunan data ini atau yang sama di ruang kerja.

get_profile_runs(workspace=None)

Parameter

workspace
Workspace
Diperlukan

Ruang kerja tempat profil dijalankan telah dikirimkan. Default ke ruang kerja himpunan data ini. Diperlukan jika himpunan data tidak terkait dengan ruang kerja. Lihat https://docs.microsoft.com/en-us/python/api/azureml-core/azureml.core.workspace.workspace untuk informasi selengkapnya tentang ruang kerja.

Mengembalikan

objek iterator dari jenis azureml.core.Run.

Tipe hasil

keep_columns

Simpan kolom yang ditentukan dan hapus semua kolom lainnya dari himpunan data.

Jika kolom timeseries dihilangkan, kemampuan terkait juga akan dihilangkan untuk himpunan data yang dikembalikan.

keep_columns(columns, validate=False)

Parameter

columns
Union[str, list[str]]
Diperlukan

Nama atau daftar nama yang akan disimpan oleh kolom.

validate
bool
Diperlukan

Menunjukkan apakah akan memvalidasi bahwa data dapat dimuat dari himpunan data yang dikembalikan. Defaultnya adalah False. Validasi mengharuskan sumber data dapat diakses dari komputasi saat ini.

Mengembalikan

Mengembalikan objek TabularDataset baru yang berisi kolom yang ditentukan saja.

Tipe hasil

mount

Catatan

Ini adalah metode eksperimental, dan dapat berubah kapan saja. Lihat https://aka.ms/azuremlexperimental untuk mengetahui informasi selengkapnya.

Buat manajer konteks untuk memasang aliran file yang ditentukan oleh himpunan data sebagai file lokal.

mount(stream_column, mount_point=None)

Parameter

stream_column
str
Diperlukan

Kolom aliran untuk dipasang.

mount_point
str
Diperlukan

Direktori lokal untuk memasang file. Jika Tidak Ada, data akan dipasang ke direktori sementara, yang dapat Anda temukan dengan memanggil metode instans MountContext.mount_point.

Mengembalikan

Mengembalikan manajer konteks untuk mengelola siklus hidup pemasangan.

Tipe hasil

<xref:azureml.dataprep.fuse.daemon.MountContext>

partition_by

Data yang dipartisi akan disalin dan dikeluarkan ke tujuan yang ditentukan oleh target.

buat himpunan data dari jalur data yang di output dengan format partisi, daftarkan himpunan data jika nama disediakan, kembalikan himpunan data untuk jalur data baru dengan partisi


   ds = Dataset.get_by_name('test') # indexed by country, state, partition_date

   # #1: call partition_by locally
   new_ds = ds.partition_by(name="repartitioned_ds", partition_keys=['country'],
               target=DataPath(datastore, "repartition"))
   partition_keys = newds.partition_keys # ['country']

   # new_ds can be passed to PRS as input dataset
partition_by(partition_keys, target, name=None, show_progress=True, partition_as_file_dataset=False)

Parameter

partition_keys
list[str]
Diperlukan

Diperlukan, kunci partisi

target
DataPath, Datastore atau tuple(Datastore, str) object
Diperlukan

Diperlukan, jalur datastore tempat data dataframe parquet akan diunggah. Folder panduan akan dibuat di bawah jalur target untuk menghindari konflik.

name
str
Diperlukan

Opsional, Nama pendaftaran.

show_progress
bool
Diperlukan

Opsional, menunjukkan apakah akan menampilkan kemajuan unggahan di konsol. Default menjadi True.

partition_as_file_dataset
Diperlukan

Opsional, menunjukkan apakah mengembalikan filedataset atau tidak. Default menjadi False.

Mengembalikan

Himpunan data yang disimpan atau didaftarkan.

Tipe hasil

random_split

Pisahkan baris dalam himpunan data menjadi dua bagian secara acak dan kira-kira berdasarkan persentase yang ditentukan.

Himpunan data pertama berisi kira-kira percentage dari total baris dan himpunan data kedua berisi baris yang tersisa.

random_split(percentage, seed=None)

Parameter

percentage
float
Diperlukan

Persentase perkiraan untuk membagi himpunan data. Ini harus berupa angka antara 0,0 dan 1,0.

seed
int
Diperlukan

Seed opsional yang akan digunakan untuk generator acak.

Mengembalikan

Mengembalikan tuple objek TabularDataset baru yang mewakili dua himpunan data setelah pemisahan.

Tipe hasil

skip

Lompati baris dari atas himpunan data menurut hitungan yang ditentukan.

skip(count)

Parameter

count
int
Diperlukan

Jumlah baris yang akan dilompati.

Mengembalikan

Mengembalikan objek TabularDataset baru yang mewakili himpunan data dengan baris yang dilompati.

Tipe hasil

submit_profile_run

Catatan

Ini adalah metode eksperimental, dan dapat berubah kapan saja. Lihat https://aka.ms/azuremlexperimental untuk mengetahui informasi selengkapnya.

Kirimkan eksperimen yang dijalankan untuk menghitung profil data.

Profil data bisa sangat berguna untuk memahami data input, mengidentifikasi anomali dan nilai yang hilang dengan memberikan informasi yang berguna tentang data seperti jenis kolom, nilai yang hilang, dll.

submit_profile_run(compute_target, experiment, cache_datastore_name=None)

Parameter

compute_target
Union[str, ComputeTarget]
Diperlukan

Target komputasi untuk menjalankan eksperimen perhitungan profil. Tentukan 'lokal' untuk menggunakan komputasi lokal. Lihat https://docs.microsoft.com/en-us/python/api/azureml-core/azureml.core.computetarget untuk informasi selengkapnya tentang target komputasi.

experiment
Experiment
Diperlukan

Objek eksperimen. Lihat https://docs.microsoft.com/en-us/python/api/azureml-core/azureml.core.experiment.experimentuntuk informasi selengkapnya tentang eksperimen.

cache_datastore_name
str
Diperlukan

nama datastore untuk menyimpan cache profil, jika Tidak Ada, datastore default akan digunakan

Mengembalikan

Objek jenis kelas DatasetProfileRun.

Tipe hasil

take

Ambil sampel baris dari bagian atas himpunan data menurut hitungan yang ditentukan.

take(count)

Parameter

count
int
Diperlukan

Jumlah baris yang akan diambil.

Mengembalikan

Mengembalikan objek TabularDataset baru yang mewakili himpunan data sampel.

Tipe hasil

take_sample

Ambil sampel acak baris dalam himpunan data kira-kira berdasarkan peluang yang ditentukan.

take_sample(probability, seed=None)

Parameter

probability
float
Diperlukan

Peluang baris yang dimasukkan dalam sampel.

seed
int
Diperlukan

Seed opsional yang akan digunakan untuk generator acak.

Mengembalikan

Mengembalikan objek TabularDataset baru yang mewakili himpunan data sampel.

Tipe hasil

time_after

Filter TabularDataset dengan kolom stempel waktu setelah waktu mulai yang ditentukan.

time_after(start_time, include_boundary=True, validate=True)

Parameter

start_time
datetime
Diperlukan

Batas bawah untuk memfilter data.

include_boundary
bool
Diperlukan

Tunjukkan apakah baris yang terkait dengan waktu batas (start_time) harus disertakan.

validate
bool
Diperlukan

Menunjukkan apakah akan memvalidasi bahwa kolom tertentu ada dalam himpunan data. Defaultnya adalah True. Validasi mengharuskan sumber data dapat diakses dari komputasi saat ini.

Mengembalikan

TabularDataset dengan himpunan data baru yang difilter.

Tipe hasil

time_before

Filter TabularDataset dengan kolom stempel waktu sebelum waktu akhir yang ditentukan.

time_before(end_time, include_boundary=True, validate=True)

Parameter

end_time
datetime
Diperlukan

Batas atas untuk memfilter data.

include_boundary
bool
Diperlukan

Tunjukkan apakah baris yang terkait dengan waktu batas (end_time) harus disertakan.

validate
bool
Diperlukan

Menunjukkan apakah akan memvalidasi bahwa kolom tertentu ada dalam himpunan data. Defaultnya adalah True. Validasi mengharuskan sumber data dapat diakses dari komputasi saat ini.

Mengembalikan

TabularDataset dengan himpunan data baru yang difilter.

Tipe hasil

time_between

Filter TabularDataset antara waktu mulai dan akhir yang ditentukan.

time_between(start_time, end_time, include_boundary=True, validate=True)

Parameter

start_time
datetime
Diperlukan

Batas Bawah untuk memfilter data.

end_time
datetime
Diperlukan

Batas atas untuk memfilter data.

include_boundary
bool
Diperlukan

Tunjukkan apakah baris yang terkait dengan waktu batas (start_end dan end_time) harus disertakan.

validate
bool
Diperlukan

Menunjukkan apakah akan memvalidasi bahwa kolom tertentu ada dalam himpunan data. Defaultnya adalah True. Validasi mengharuskan sumber data dapat diakses dari komputasi saat ini.

Mengembalikan

TabularDataset dengan himpunan data baru yang difilter.

Tipe hasil

time_recent

Filter TabularDataset hanya akan berisi durasi (jumlah) data terbaru yang ditentukan.

time_recent(time_delta, include_boundary=True, validate=True)

Parameter

time_delta
timedelta
Diperlukan

Durasi (jumlah) data terbaru yang akan diambil.

include_boundary
bool
Diperlukan

Tunjukkan apakah baris yang terkait dengan waktu batas (time_delta) harus disertakan.

validate
bool
Diperlukan

Menunjukkan apakah akan memvalidasi bahwa kolom tertentu ada dalam himpunan data. Defaultnya adalah True. Validasi mengharuskan sumber data dapat diakses dari komputasi saat ini.

Mengembalikan

TabularDataset dengan himpunan data baru yang difilter.

Tipe hasil

to_csv_files

Ubah himpunan data saat ini menjadi FileDataset yang berisi file CSV.

Himpunan data yang dihasilkan akan berisi satu atau beberapa file CSV, masing-masing sesuai dengan partisi data dari himpunan data saat ini. File-file ini tidak terwujud sampai diunduh atau dibaca.

to_csv_files(separator=',')

Parameter

separator
str
Diperlukan

Pemisah yang akan digunakan untuk memisahkan nilai dalam file yang dihasilkan.

Mengembalikan

Mengembalikan objek FileDataset baru dengan sekumpulan file CSV yang berisi data dalam himpunan data ini.

Tipe hasil

to_dask_dataframe

Catatan

Ini adalah metode eksperimental, dan dapat berubah kapan saja. Lihat https://aka.ms/azuremlexperimental untuk mengetahui informasi selengkapnya.

Kembalikan Dask DataFrame yang lambat membaca data dalam himpunan data.

to_dask_dataframe(sample_size=10000, dtypes=None, on_error='null', out_of_range_datetime='null')

Parameter

sample_size
Diperlukan

Jumlah rekaman yang harus dibaca untuk menentukan skema dan jenis.

dtypes
Diperlukan

Dict opsional yang menentukan kolom yang diharapkan dan dtypenya. sample_size diabaikan jika ini disediakan.

on_error
Diperlukan

Cara menangani nilai kesalahan apa pun dalam himpunan data, seperti yang dihasilkan oleh kesalahan saat mengurai nilai. Nilai yang valid adalah 'null' yang menggantikannya dengan null; dan 'fail' yang akan menghasilkan pengecualian.

out_of_range_datetime
Diperlukan

Cara menangani nilai waktu-tanggal yang berada di luar jangkauan yang didukung oleh Pandas. Nilai yang valid adalah 'null' yang menggantikannya dengan null; dan 'gagal' yang akan menghasilkan pengecualian.

Mengembalikan

dask.dataframe.core.DataFrame

to_pandas_dataframe

Muat semua baris dari himpunan data ke dalam pandas DataFrame.

to_pandas_dataframe(on_error='null', out_of_range_datetime='null')

Parameter

on_error
Diperlukan

Cara menangani nilai kesalahan apa pun dalam himpunan data, seperti yang dihasilkan oleh kesalahan saat mengurai nilai. Nilai yang valid adalah 'null' yang menggantikannya dengan null; dan 'fail' yang akan menghasilkan pengecualian.

out_of_range_datetime
Diperlukan

Cara menangani nilai waktu-tanggal yang berada di luar jangkauan yang didukung oleh Pandas. Nilai yang valid adalah 'null' yang menggantikannya dengan null; dan 'fail' yang akan menghasilkan pengecualian.

Mengembalikan

Mengembalikan pandas DataFrame.

Tipe hasil

to_parquet_files

Ubah himpunan data saat ini menjadi FileDataset yang berisi file Parquet.

Himpunan data yang dihasilkan akan berisi satu atau beberapa file Parquet, masing-masing sesuai dengan partisi data dari himpunan data saat ini. File-file ini tidak terwujud sampai diunduh atau dibaca.

to_parquet_files()

Mengembalikan

Mengembalikan objek FileDataset baru dengan satu set file Parquet yang berisi data dalam himpunan data ini.

Tipe hasil

to_spark_dataframe

Muat semua baris dari himpunan data ke dalam Spark DataFrame.

to_spark_dataframe()

Mengembalikan

Mengembalikan Spark DataFrame.

Tipe hasil

with_timestamp_columns

Tentukan kolom stempel waktu untuk himpunan data.

with_timestamp_columns(timestamp=None, partition_timestamp=None, validate=False, **kwargs)

Parameter

timestamp
str
Diperlukan

Nama kolom sebagai stempel waktu (dulu disebut sebagai fine_grain_timestamp) (opsional). Defaultnya adalah None(clear).

partition_timestamp
str
Diperlukan

Nama kolom partition_timestamp (dulu disebut sebagai stempel waktu coarse grain) (opsional). Defaultnya adalah None(clear).

validate
bool
Diperlukan

Menunjukkan apakah akan memvalidasi bahwa kolom tertentu ada dalam himpunan data. Defaultnya adalah False. Validasi mengharuskan sumber data dapat diakses dari komputasi saat ini.

Mengembalikan

Mengembalikan TabularDataset baru dengan kolom stempel waktu yang ditentukan.

Tipe hasil

Keterangan

Metode ini menentukan kolom yang akan digunakan sebagai stempel waktu. Kolom stempel waktu pada himpunan data memungkinkan untuk memperlakukan data sebagai data deret waktu dan mengaktifkan kemampuan tambahan. Ketika himpunan data telah menentukan timestamp (used to be referred as fine_grain_timestamp) dan partition_timestamp (used to be referred as coarse grain timestamp), kedua kolom harus mewakili garis waktu yang sama.

Atribut

timestamp_columns

Kembalikan kolom stempel waktu.

Mengembalikan

Nama kolom untuk stempel waktu (digunakan untuk disebut sebagai fine_grain_timestamp) dan partition_timestamp (digunakan untuk disebut sebagai stempel waktu coarse grain) yang ditentukan untuk himpunan data.

Tipe hasil

(str, str)