Schedule Kelas
Tentukan jadwal untuk mengirimkan alur.
Setelah Alur diterbitkan, Jadwal dapat digunakan untuk mengirimkan Alur pada interval tertentu atau saat perubahan pada lokasi penyimpanan Blob terdeteksi.
Menginisialisasi Jadwal.
- Warisan
-
builtins.objectSchedule
Konstruktor
Schedule(workspace, id, name, description, pipeline_id, status, recurrence, datastore_name, polling_interval, data_path_parameter_name, continue_on_step_failure, path_on_datastore, _schedule_provider=None, pipeline_endpoint_id=None)
Parameter
Nama | Deskripsi |
---|---|
workspace
Diperlukan
|
Objek ruang kerja yang akan dimiliki Jadwal ini. |
id
Diperlukan
|
ID dari Jadwal. |
name
Diperlukan
|
Nama dari Jadwal. |
description
Diperlukan
|
Deskripsi jadwal. |
pipeline_id
Diperlukan
|
Dapatkan ID dari alur yang akan diserahkan jadwal. |
status
Diperlukan
|
Status jadwal, baik 'Aktif' atau 'Dinonaktifkan'. |
recurrence
Diperlukan
|
Jadwal pengulangan untuk alur. |
datastore_name
Diperlukan
|
Nama pada penyimpanan data untuk memantau blob yang diubah/ditambahkan. Catatan: 1) Penyimpanan Data VNET tidak didukung. 2) Jenis autentikasi untuk datastore harus diatur ke "Kunci akun." |
polling_interval
Diperlukan
|
Berapa lama, dalam hitungan menit, antara poling untuk blob yang diubah/ ditambahkan. |
data_path_parameter_name
Diperlukan
|
Nama parameter alur jalur data untuk diatur dengan jalur blob yang diubah. |
continue_on_step_failure
Diperlukan
|
Apakah akan melanjutkan eksekusi langkah lain di PipelineRun yang dikirimkan jika langkah gagal. Jika disediakan, ini akan menimpa pengaturan continue_on_step_failure untuk Alur. |
path_on_datastore
Diperlukan
|
Opsional. Jalur pada datastore untuk memantau blob yang diubah/ditambahkan. Catatan: path_on_datastore akan berada di kontainer untuk penyimpanan data, sehingga jalur sebenarnya yang akan dipantau jadwal adalah kontainer/path_on_datastore. Jika tidak ada, kontainer datastore dipantau. Penambahan/perubahan yang dilakukan dalam subfolder dari path_on_datastore tidak dipantau. Hanya didukung untuk jadwal Penyimpanan data. |
_schedule_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaScheduleProvider>
Penyedia jadwal. Nilai default: None
|
workspace
Diperlukan
|
Objek ruang kerja yang akan dimiliki Jadwal ini. |
id
Diperlukan
|
ID dari Jadwal. |
name
Diperlukan
|
Nama dari Jadwal. |
description
Diperlukan
|
Deskripsi jadwal. |
pipeline_id
Diperlukan
|
Dapatkan ID dari alur yang akan diserahkan jadwal. |
status
Diperlukan
|
Status jadwal, baik 'Aktif' atau 'Dinonaktifkan'. |
recurrence
Diperlukan
|
Pengulangan jadwal untuk alur. |
datastore_name
Diperlukan
|
Nama pada penyimpanan data untuk memantau blob yang diubah/ditambahkan. Catatan: Penyimpanan data VNET tidak didukung. |
polling_interval
Diperlukan
|
Berapa lama, dalam hitungan menit, antara poling untuk blob yang diubah/ ditambahkan. |
data_path_parameter_name
Diperlukan
|
Nama parameter alur jalur data untuk diatur dengan jalur blob yang diubah. |
continue_on_step_failure
Diperlukan
|
Apakah akan melanjutkan eksekusi langkah lain di PipelineRun yang dikirimkan jika langkah gagal. Jika disediakan, ini akan menimpa pengaturan continue_on_step_failure untuk Alur. |
path_on_datastore
Diperlukan
|
Opsional. Jalur pada datastore untuk memantau blob yang diubah/ditambahkan. Catatan: path_on_datastore akan berada di kontainer untuk penyimpanan data, sehingga jalur sebenarnya yang akan dipantau jadwal adalah kontainer/path_on_datastore. Jika tidak ada, kontainer datastore dipantau. Penambahan/perubahan yang dilakukan dalam subfolder dari path_on_datastore tidak dipantau. Hanya didukung untuk jadwal Penyimpanan data. |
_schedule_provider
Diperlukan
|
<xref:azureml.pipeline.core._aeva_provider._AevaScheduleProvider>
Penyedia jadwal. |
pipeline_endpoint_id
|
Dapatkan ID titik akhir alur yang akan dikirimkan jadwal. Nilai default: None
|
Keterangan
Dua jenis jadwal didukung. Yang pertama menggunakan pengulangan waktu untuk menyerahkan Alur pada jadwal yang diberikan. Yang kedua memantau sebuah AzureBlobDatastore untuk blob yang ditambahkan atau dimodifikasi dan menyerahkan Alur saat perubahan terdeteksi.
Untuk membuat Jadwal yang akan mengirimkan Alur pada jadwal berulang, gunakan ScheduleRecurrence ketika membuat Jadwal.
ScheduleRecurrence digunakan ketika membuat Jadwal untuk Alur sebagai berikut:
from azureml.pipeline.core import Schedule, ScheduleRecurrence
recurrence = ScheduleRecurrence(frequency="Hour", interval=12)
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
experiment_name="helloworld", recurrence=recurrence)
Jadwal ini akan menyerahkan PublishedPipeline yang disediakan setiap 12 jam. Alur yang dikirimkan akan dibuat di bawah Eksperimen dengan nama "helloworld".
Untuk membuat Jadwal yang akan memicu PipelineRuns pada perubahan di lokasi penyimpanan Blob, tentukan Datastore dan info data terkait saat membuat Jadwal.
from azureml.pipeline.core import Schedule
from azureml.core.datastore import Datastore
datastore = Datastore(workspace=ws, name="workspaceblobstore")
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id"
experiment_name="helloworld", datastore=datastore,
polling_interval=5, path_on_datastore="file/path")
Perhatikan bahwa parameter polling_interval serta path_on_datastore bersifat opsional. polling_interval menentukan seberapa sering melakukan polling untuk modifikasi ke Datastore, serta secara default adalah 5 menit. path_on_datastore bisa digunakan untuk menentukan folder mana di Datastore untuk memantau perubahan. Jika None, kontainer Penyimpanan data dipantau. Catatan: penambahan/modifikasi blob di sub-folder path_on_datastore atau kontainer Penyimpanan data (jika tidak ada path_on_datastore yang ditentukan) tidak terdeteksi.
Selain itu, jika Alur dibangun untuk menggunakan DataPathPipelineParameter guna mendeskripsikan input langkah, gunakan parameter data_path_parameter_name saat membuat Jadwal yang dipicu Penyimpanan data untuk mengatur input ke file yang diubah saat PipelineRun dikirimkan oleh Jadwal.
Pada contoh berikut, ketika Jadwal memicu PipelineRun, nilai "input_data" PipelineParameter akan ditetapkan sebagai file yang dimodifikasi/ditambahkan:
from azureml.pipeline.core import Schedule
from azureml.core.datastore import Datastore
datastore = Datastore(workspace=ws, name="workspaceblobstore")
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
experiment_name="helloworld", datastore=datastore,
data_path_parameter_name="input_data")
Untuk informasi lebih lanjut tentang Jadwal, lihat: https://aka.ms/pl-schedule.
Metode
create |
Buat sebuah jadwal untuk alur. Menentukan pengulangan untuk jadwal berbasis waktu atau menentukan sebuah Penyimpanan data, (opsional) polling_interval, dan (opsional) data_path_parameter_name untuk membuat jadwal yang akan memantau lokasi Penyimpanan data untuk modifikasi/penambahan. |
create_for_pipeline_endpoint |
Buat sebuah jadwal untuk titik akhir alur. Menentukan pengulangan untuk jadwal berbasis waktu atau menentukan sebuah Penyimpanan data, (opsional) polling_interval, dan (opsional) data_path_parameter_name untuk membuat jadwal yang akan memantau lokasi Penyimpanan data untuk modifikasi/penambahan. |
disable |
Atur jadwal ke 'Dinonaktifkan' dan tidak tersedia untuk menjalankan. |
enable |
Atur jadwal ke 'Aktif' dan tersedia untuk menjalankan. |
get |
Dapatkan jadwal dengan ID yang diberikan. |
get_all |
Dapatkan semua jadwal di ruang kerja saat ini. TIDAK DIGUNAKAN LAGI: Metode ini tidak digunakan lagi karena metode list. |
get_last_pipeline_run |
Ambil alur terakhir yang dijalankan yang diserahkan oleh jadwal. Mengembalikan Tidak Ada jika tidak ada proses menjalankan yang telah dikirimkan. |
get_pipeline_runs |
Ambil alur yang dijalankan yang dihasilkan dari jadwal. |
get_schedules_for_pipeline_endpoint_id |
Dapatkan semua jadwal untuk id titik akhir alur yang diberikan. |
get_schedules_for_pipeline_id |
Dapatkan semua jadwal untuk id titik akhir alur yang diberikan. |
list |
Dapatkan semua jadwal di ruang kerja saat ini. |
load_yaml |
Memuat dan membaca file YAML untuk mendapatkan parameter jadwal. File YAML adalah satu cara yang lain untuk melewati parameter Jadwal untuk membuat jadwal. |
update |
Perbarui jadwal. |
create
Buat sebuah jadwal untuk alur.
Menentukan pengulangan untuk jadwal berbasis waktu atau menentukan sebuah Penyimpanan data, (opsional) polling_interval, dan (opsional) data_path_parameter_name untuk membuat jadwal yang akan memantau lokasi Penyimpanan data untuk modifikasi/penambahan.
static create(workspace, name, pipeline_id, experiment_name, recurrence=None, description=None, pipeline_parameters=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=5, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None, _workflow_provider=None, _service_endpoint=None)
Parameter
Nama | Deskripsi |
---|---|
workspace
Diperlukan
|
Objek ruang kerja yang akan dimiliki Jadwal ini. |
name
Diperlukan
|
Nama dari Jadwal. |
pipeline_id
Diperlukan
|
Dapatkan ID dari alur yang akan diserahkan jadwal. |
experiment_name
Diperlukan
|
Nama eksperimen yang akan diserahkan jadwal berjalan. |
recurrence
|
Pengulangan jadwal untuk alur. Nilai default: None
|
description
|
Deskripsi jadwal. Nilai default: None
|
pipeline_parameters
|
Kamus parameter untuk menetapkan nilai baru {param name, param value} Nilai default: None
|
wait_for_provisioning
|
Apakah menunggu provisi jadwal selesai. Nilai default: False
|
wait_timeout
|
Jumlah detik untuk menunggu sebelum waktu habis. Nilai default: 3600
|
datastore
|
Penyimpanan data untuk memantau blob yang diubah/ditambahkan. Catatan: Penyimpanan data VNET tidak didukung. Tidak dapat digunakan dengan Pengulangan. Nilai default: None
|
polling_interval
|
Berapa lama, dalam hitungan menit, antara poling untuk blob yang diubah/ ditambahkan. Defaultnya adalah 5 menit. Hanya didukung untuk jadwal Penyimpanan data. Nilai default: 5
|
data_path_parameter_name
|
Nama parameter alur jalur data untuk diatur dengan jalur blob yang diubah. Hanya didukung untuk jadwal Penyimpanan data. Nilai default: None
|
continue_on_step_failure
|
Apakah akan melanjutkan eksekusi langkah lain di PipelineRun yang dikirimkan jika langkah gagal. Jika disediakan, ini akan menimpa pengaturan continue_on_step_failure untuk Alur. Nilai default: None
|
path_on_datastore
|
Opsional. Jalur pada datastore untuk memantau blob yang diubah/ditambahkan. Catatan: path_on_datastore akan berada di kontainer untuk penyimpanan data, sehingga jalur sebenarnya yang akan dipantau jadwal adalah kontainer/path_on_datastore. Jika tidak ada, kontainer datastore dipantau. Penambahan/perubahan yang dilakukan dalam subfolder dari path_on_datastore tidak dipantau. Hanya didukung untuk jadwal Penyimpanan data. Nilai default: None
|
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Penyedia alur kerja. Nilai default: None
|
_service_endpoint
|
Titik akhir layanan. Nilai default: None
|
Mengembalikan
Jenis | Deskripsi |
---|---|
Jadwal yang dibuat. |
create_for_pipeline_endpoint
Buat sebuah jadwal untuk titik akhir alur.
Menentukan pengulangan untuk jadwal berbasis waktu atau menentukan sebuah Penyimpanan data, (opsional) polling_interval, dan (opsional) data_path_parameter_name untuk membuat jadwal yang akan memantau lokasi Penyimpanan data untuk modifikasi/penambahan.
static create_for_pipeline_endpoint(workspace, name, pipeline_endpoint_id, experiment_name, recurrence=None, description=None, pipeline_parameters=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=5, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None, _workflow_provider=None, _service_endpoint=None)
Parameter
Nama | Deskripsi |
---|---|
workspace
Diperlukan
|
Objek ruang kerja yang akan dimiliki Jadwal ini. |
name
Diperlukan
|
Nama dari Jadwal. |
pipeline_endpoint_id
Diperlukan
|
Dapatkan ID titik akhir alur yang akan dikirimkan jadwal. |
experiment_name
Diperlukan
|
Nama eksperimen yang akan diserahkan jadwal berjalan. |
recurrence
|
Pengulangan jadwal untuk alur. Nilai default: None
|
description
|
Deskripsi jadwal. Nilai default: None
|
pipeline_parameters
|
Kamus parameter untuk menetapkan nilai baru {param name, param value} Nilai default: None
|
wait_for_provisioning
|
Apakah menunggu provisi jadwal selesai. Nilai default: False
|
wait_timeout
|
Jumlah detik untuk menunggu sebelum waktu habis. Nilai default: 3600
|
datastore
|
Penyimpanan data untuk memantau blob yang diubah/ditambahkan. Catatan: Penyimpanan data VNET tidak didukung. Tidak dapat digunakan dengan Pengulangan. Nilai default: None
|
polling_interval
|
Berapa lama, dalam hitungan menit, antara poling untuk blob yang diubah/ ditambahkan. Defaultnya adalah 5 menit. Hanya didukung untuk jadwal Penyimpanan data. Nilai default: 5
|
data_path_parameter_name
|
Nama parameter alur jalur data untuk diatur dengan jalur blob yang diubah. Hanya didukung untuk jadwal Penyimpanan data. Nilai default: None
|
continue_on_step_failure
|
Apakah akan melanjutkan eksekusi langkah lain di PipelineRun yang dikirimkan jika langkah gagal. Jika disediakan, ini akan menimpa pengaturan continue_on_step_failure untuk Alur. Nilai default: None
|
path_on_datastore
|
Opsional. Jalur pada datastore untuk memantau blob yang diubah/ditambahkan. Catatan: path_on_datastore akan berada di kontainer untuk penyimpanan data, sehingga jalur sebenarnya yang akan dipantau jadwal adalah kontainer/path_on_datastore. Jika tidak ada, kontainer datastore dipantau. Penambahan/perubahan yang dilakukan dalam subfolder dari path_on_datastore tidak dipantau. Hanya didukung untuk jadwal Penyimpanan data. Nilai default: None
|
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Penyedia alur kerja. Nilai default: None
|
_service_endpoint
|
Titik akhir layanan. Nilai default: None
|
Mengembalikan
Jenis | Deskripsi |
---|---|
Jadwal yang dibuat. |
disable
Atur jadwal ke 'Dinonaktifkan' dan tidak tersedia untuk menjalankan.
disable(wait_for_provisioning=False, wait_timeout=3600)
Parameter
Nama | Deskripsi |
---|---|
wait_for_provisioning
|
Apakah menunggu provisi jadwal selesai. Nilai default: False
|
wait_timeout
|
Jumlah detik yang ditunggu sebelum waktu habis. Nilai default: 3600
|
enable
Atur jadwal ke 'Aktif' dan tersedia untuk menjalankan.
enable(wait_for_provisioning=False, wait_timeout=3600)
Parameter
Nama | Deskripsi |
---|---|
wait_for_provisioning
|
Apakah menunggu provisi jadwal selesai. Nilai default: False
|
wait_timeout
|
Jumlah detik yang ditunggu sebelum waktu habis. Nilai default: 3600
|
get
Dapatkan jadwal dengan ID yang diberikan.
static get(workspace, id, _workflow_provider=None, _service_endpoint=None)
Parameter
Nama | Deskripsi |
---|---|
workspace
Diperlukan
|
Ruang kerja tempat jadwal dibuat. |
id
Diperlukan
|
ID jadwal. |
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Penyedia alur kerja. Nilai default: None
|
_service_endpoint
|
Titik akhir layanan. Nilai default: None
|
Mengembalikan
Jenis | Deskripsi |
---|---|
Objek jadwal |
get_all
Dapatkan semua jadwal di ruang kerja saat ini.
TIDAK DIGUNAKAN LAGI: Metode ini tidak digunakan lagi karena metode list.
static get_all(workspace, active_only=True, pipeline_id=None, pipeline_endpoint_id=None, _workflow_provider=None, _service_endpoint=None)
Parameter
Nama | Deskripsi |
---|---|
workspace
Diperlukan
|
Ruang kerja. |
active_only
|
Jika benar, cukup kembalikan jadwal yang saat ini aktif. Hanya berlaku jika tidak ada id alur yang disediakan saja. Nilai default: True
|
pipeline_id
|
Jika disediakan, cukup kembalikan jadwal untuk alur dengan id yang diberikan. Nilai default: None
|
pipeline_endpoint_id
|
Jika disediakan, cukup kembalikan jadwal untuk titik akhir alur dengan id yang diberikan. Nilai default: None
|
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Penyedia alur kerja. Nilai default: None
|
_service_endpoint
|
Titik akhir layanan. Nilai default: None
|
Mengembalikan
Jenis | Deskripsi |
---|---|
Daftar Schedule. |
get_last_pipeline_run
Ambil alur terakhir yang dijalankan yang diserahkan oleh jadwal. Mengembalikan Tidak Ada jika tidak ada proses menjalankan yang telah dikirimkan.
get_last_pipeline_run()
Mengembalikan
Jenis | Deskripsi |
---|---|
Alur terakhir eksekusi. |
get_pipeline_runs
Ambil alur yang dijalankan yang dihasilkan dari jadwal.
get_pipeline_runs()
Mengembalikan
Jenis | Deskripsi |
---|---|
Daftar PipelineRun. |
get_schedules_for_pipeline_endpoint_id
Dapatkan semua jadwal untuk id titik akhir alur yang diberikan.
static get_schedules_for_pipeline_endpoint_id(workspace, pipeline_endpoint_id, _workflow_provider=None, _service_endpoint=None)
Parameter
Nama | Deskripsi |
---|---|
workspace
Diperlukan
|
Ruang kerja. |
pipeline_endpoint_id
Diperlukan
|
ID titik akhir alur. |
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Penyedia alur kerja. Nilai default: None
|
_service_endpoint
|
Titik akhir layanan. Nilai default: None
|
Mengembalikan
Jenis | Deskripsi |
---|---|
Daftar Schedule. |
get_schedules_for_pipeline_id
Dapatkan semua jadwal untuk id titik akhir alur yang diberikan.
static get_schedules_for_pipeline_id(workspace, pipeline_id, _workflow_provider=None, _service_endpoint=None)
Parameter
Nama | Deskripsi |
---|---|
workspace
Diperlukan
|
Ruang kerja. |
pipeline_id
Diperlukan
|
Id alur. |
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Penyedia alur kerja. Nilai default: None
|
_service_endpoint
|
Titik akhir layanan. Nilai default: None
|
Mengembalikan
Jenis | Deskripsi |
---|---|
Daftar Schedule. |
list
Dapatkan semua jadwal di ruang kerja saat ini.
static list(workspace, active_only=True, pipeline_id=None, pipeline_endpoint_id=None, _workflow_provider=None, _service_endpoint=None)
Parameter
Nama | Deskripsi |
---|---|
workspace
Diperlukan
|
Ruang kerja. |
active_only
|
Jika benar, cukup kembalikan jadwal yang saat ini aktif. Hanya berlaku jika tidak ada id alur yang disediakan saja. Nilai default: True
|
pipeline_id
|
Jika disediakan, cukup kembalikan jadwal untuk alur dengan id yang diberikan. Nilai default: None
|
pipeline_endpoint_id
|
Jika disediakan, cukup kembalikan jadwal untuk titik akhir alur dengan id yang diberikan. Nilai default: None
|
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Penyedia alur kerja. Nilai default: None
|
_service_endpoint
|
Titik akhir layanan. Nilai default: None
|
Mengembalikan
Jenis | Deskripsi |
---|---|
Daftar Schedule. |
load_yaml
Memuat dan membaca file YAML untuk mendapatkan parameter jadwal.
File YAML adalah satu cara yang lain untuk melewati parameter Jadwal untuk membuat jadwal.
static load_yaml(workspace, filename, _workflow_provider=None, _service_endpoint=None)
Parameter
Nama | Deskripsi |
---|---|
workspace
Diperlukan
|
Ruang kerja. |
filename
Diperlukan
|
Nama file YAML dengan lokasi. |
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Penyedia alur kerja. Nilai default: None
|
_service_endpoint
|
Titik akhir layanan. Nilai default: None
|
Mengembalikan
Jenis | Deskripsi |
---|---|
Kamus Schedule parameter dan nilai. |
Keterangan
Dua jenis YAML didukung untuk Jadwal-Jadwal. Jenis pertama membaca dan memuat informasi pengulangan untuk pembuatan jadwal guna memicu alur. Jenis kedua membaca dan memuat informasi penyimpanan data untuk pembuatan jadwal guna memicu alur.
Contoh untuk membuat sebuah Jadwal yang akan menyerahkan Alur pada pengulangan, sebagai berikut:
from azureml.pipeline.core import Schedule
schedule_info = Schedule.load_yaml(workspace=workspace,
filename='./yaml/test_schedule_with_recurrence.yaml')
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
experiment_name="helloworld", recurrence=schedule_info.get("recurrence"),
description=schedule_info.get("description"))
Sample YAML file test_schedule_with_recurrence.yaml:
Schedule:
description: "Test create with recurrence"
recurrence:
frequency: Week # Can be "Minute", "Hour", "Day", "Week", or "Month".
interval: 1 # how often fires
start_time: 2019-06-07T10:50:00
time_zone: UTC
hours:
- 1
minutes:
- 0
time_of_day: null
week_days:
- Friday
pipeline_parameters: {'a':1}
wait_for_provisioning: True
wait_timeout: 3600
datastore_name: ~
polling_interval: ~
data_path_parameter_name: ~
continue_on_step_failure: None
path_on_datastore: ~
Contoh untuk membuat Jadwal yang akan mengirimkan Alur pada penyimpanan data, sebagai berikut:
from azureml.pipeline.core import Schedule
schedule_info = Schedule.load_yaml(workspace=workspace,
filename='./yaml/test_schedule_with_datastore.yaml')
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
experiment_name="helloworld",datastore=schedule_info.get("datastore_name"),
polling_interval=schedule_info.get("polling_interval"),
data_path_parameter_name=schedule_info.get("data_path_parameter_name"),
continue_on_step_failure=schedule_info.get("continue_on_step_failure"),
path_on_datastore=schedule_info.get("path_on_datastore"))
update
Perbarui jadwal.
update(name=None, description=None, recurrence=None, pipeline_parameters=None, status=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=None, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None)
Parameter
Nama | Deskripsi |
---|---|
name
|
Nama baru dari Jadwal. Nilai default: None
|
recurrence
|
Pengulangan jadwal baru pada alur. Nilai default: None
|
description
|
Deskripsi yang baru dari jadwal. Nilai default: None
|
pipeline_parameters
|
Kamus parameter untuk menetapkan nilai baru {param name, param value}. Nilai default: None
|
status
|
Status baru jadwal: 'Aktif' atau 'Dinonaktifkan'. Nilai default: None
|
wait_for_provisioning
|
Apakah menunggu provisi jadwal selesai. Nilai default: False
|
wait_timeout
|
Jumlah detik untuk menunggu sebelum waktu habis. Nilai default: 3600
|
datastore
|
Penyimpanan data untuk memantau blob yang diubah/ditambahkan. Catatan: Penyimpanan data VNET tidak didukung. Nilai default: None
|
polling_interval
|
Berapa lama, dalam hitungan menit, antara poling untuk blob yang diubah/ ditambahkan. Defaultnya adalah 5 menit. Nilai default: None
|
data_path_parameter_name
|
Nama parameter alur jalur data untuk diatur dengan jalur blob yang diubah. Nilai default: None
|
continue_on_step_failure
|
Apakah akan melanjutkan eksekusi langkah lain di PipelineRun yang dikirimkan jika langkah gagal. Jika disediakan, ini akan menimpa pengaturan continue_on_step_failure untuk Alur. Nilai default: None
|
path_on_datastore
|
Opsional. Jalur pada datastore untuk memantau blob yang diubah/ditambahkan. Catatan: path_on_datastore akan berada di kontainer untuk penyimpanan data, sehingga jalur sebenarnya yang akan dipantau jadwal adalah kontainer/path_on_datastore. Jika tidak ada, kontainer datastore dipantau. Penambahan/perubahan yang dilakukan dalam subfolder dari path_on_datastore tidak dipantau. Hanya didukung untuk jadwal Penyimpanan data. Nilai default: None
|
Atribut
continue_on_step_failure
Dapatkan nilai pengaturan continue_on_step_failure
.
Mengembalikan
Jenis | Deskripsi |
---|---|
Nilai pengaturan |
data_path_parameter_name
Dapatkan nama parameter alur jalur data untuk diatur dengan jalur blob yang diubah.
Mengembalikan
Jenis | Deskripsi |
---|---|
Nama parameter jalur data. |
datastore_name
Mendapatkan nama Penyimpanan data yang digunakan untuk jadwal.
Mengembalikan
Jenis | Deskripsi |
---|---|
Nama Penyimpanan data. |
description
id
name
path_on_datastore
Mendapatkan jalur di penyimpanan data yang dipantau oleh jadwal.
Mengembalikan
Jenis | Deskripsi |
---|---|
Jalur di datastore. |
pipeline_endpoint_id
pipeline_id
polling_interval
Berapa lama antara polling untuk blob yang diubah/ ditambahkan dalam hitungan menit.
Mengembalikan
Jenis | Deskripsi |
---|---|
Interval polling. |