Schedule Kelas
Tentukan jadwal untuk mengirimkan alur.
Setelah Alur diterbitkan, Jadwal dapat digunakan untuk mengirimkan Alur pada interval tertentu atau saat perubahan pada lokasi penyimpanan Blob terdeteksi.
Menginisialisasi Jadwal.
- Warisan
-
builtins.objectSchedule
Konstruktor
Schedule(workspace, id, name, description, pipeline_id, status, recurrence, datastore_name, polling_interval, data_path_parameter_name, continue_on_step_failure, path_on_datastore, _schedule_provider=None, pipeline_endpoint_id=None)
Parameter
- datastore_name
- str
Nama pada penyimpanan data untuk memantau blob yang diubah/ditambahkan. Catatan: 1) Penyimpanan Data VNET tidak didukung. 2) Jenis autentikasi untuk datastore harus diatur ke "Kunci akun."
- polling_interval
- int
Berapa lama, dalam hitungan menit, antara poling untuk blob yang diubah/ ditambahkan.
- data_path_parameter_name
- str
Nama parameter alur jalur data untuk diatur dengan jalur blob yang diubah.
- continue_on_step_failure
- bool
Apakah akan melanjutkan eksekusi langkah lain di PipelineRun yang dikirimkan jika langkah gagal. Jika disediakan, ini akan menimpa pengaturan continue_on_step_failure untuk Alur.
- path_on_datastore
- str
Opsional. Jalur pada datastore untuk memantau blob yang diubah/ditambahkan. Catatan: path_on_datastore akan berada di kontainer untuk penyimpanan data, sehingga jalur sebenarnya yang akan dipantau jadwal adalah kontainer/path_on_datastore. Jika tidak ada, kontainer datastore dipantau. Penambahan/perubahan yang dilakukan dalam subfolder dari path_on_datastore tidak dipantau. Hanya didukung untuk jadwal Penyimpanan data.
- _schedule_provider
- <xref:azureml.pipeline.core._aeva_provider._AevaScheduleProvider>
Penyedia jadwal.
- datastore_name
- str
Nama pada penyimpanan data untuk memantau blob yang diubah/ditambahkan. Catatan: Penyimpanan data VNET tidak didukung.
- polling_interval
- int
Berapa lama, dalam hitungan menit, antara poling untuk blob yang diubah/ ditambahkan.
- data_path_parameter_name
- str
Nama parameter alur jalur data untuk diatur dengan jalur blob yang diubah.
- continue_on_step_failure
- bool
Apakah akan melanjutkan eksekusi langkah lain di PipelineRun yang dikirimkan jika langkah gagal. Jika disediakan, ini akan menimpa pengaturan continue_on_step_failure untuk Alur.
- path_on_datastore
- str
Opsional. Jalur pada datastore untuk memantau blob yang diubah/ditambahkan. Catatan: path_on_datastore akan berada di kontainer untuk penyimpanan data, sehingga jalur sebenarnya yang akan dipantau jadwal adalah kontainer/path_on_datastore. Jika tidak ada, kontainer datastore dipantau. Penambahan/perubahan yang dilakukan dalam subfolder dari path_on_datastore tidak dipantau. Hanya didukung untuk jadwal Penyimpanan data.
- _schedule_provider
- <xref:azureml.pipeline.core._aeva_provider._AevaScheduleProvider>
Penyedia jadwal.
- pipeline_endpoint_id
- str
Dapatkan ID titik akhir alur yang akan dikirimkan jadwal.
Keterangan
Dua jenis jadwal didukung. Yang pertama menggunakan pengulangan waktu untuk menyerahkan Alur pada jadwal yang diberikan. Yang kedua memantau sebuah AzureBlobDatastore untuk blob yang ditambahkan atau dimodifikasi dan menyerahkan Alur saat perubahan terdeteksi.
Untuk membuat Jadwal yang akan mengirimkan Alur pada jadwal berulang, gunakan ScheduleRecurrence ketika membuat Jadwal.
ScheduleRecurrence digunakan ketika membuat Jadwal untuk Alur sebagai berikut:
from azureml.pipeline.core import Schedule, ScheduleRecurrence
recurrence = ScheduleRecurrence(frequency="Hour", interval=12)
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
experiment_name="helloworld", recurrence=recurrence)
Jadwal ini akan menyerahkan PublishedPipeline yang disediakan setiap 12 jam. Alur yang dikirimkan akan dibuat di bawah Eksperimen dengan nama "helloworld".
Untuk membuat Jadwal yang akan memicu PipelineRuns pada perubahan di lokasi penyimpanan Blob, tentukan Datastore dan info data terkait saat membuat Jadwal.
from azureml.pipeline.core import Schedule
from azureml.core.datastore import Datastore
datastore = Datastore(workspace=ws, name="workspaceblobstore")
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id"
experiment_name="helloworld", datastore=datastore,
polling_interval=5, path_on_datastore="file/path")
Perhatikan bahwa parameter polling_interval serta path_on_datastore bersifat opsional. polling_interval menentukan seberapa sering melakukan polling untuk modifikasi ke Datastore, serta secara default adalah 5 menit. path_on_datastore bisa digunakan untuk menentukan folder mana di Datastore untuk memantau perubahan. Jika None, kontainer Penyimpanan data dipantau. Catatan: penambahan/modifikasi blob di sub-folder path_on_datastore atau kontainer Penyimpanan data (jika tidak ada path_on_datastore yang ditentukan) tidak terdeteksi.
Selain itu, jika Alur dibangun untuk menggunakan DataPathPipelineParameter guna mendeskripsikan input langkah, gunakan parameter data_path_parameter_name saat membuat Jadwal yang dipicu Penyimpanan data untuk mengatur input ke file yang diubah saat PipelineRun dikirimkan oleh Jadwal.
Pada contoh berikut, ketika Jadwal memicu PipelineRun, nilai "input_data" PipelineParameter akan ditetapkan sebagai file yang dimodifikasi/ditambahkan:
from azureml.pipeline.core import Schedule
from azureml.core.datastore import Datastore
datastore = Datastore(workspace=ws, name="workspaceblobstore")
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
experiment_name="helloworld", datastore=datastore,
data_path_parameter_name="input_data")
Untuk informasi lebih lanjut tentang Jadwal, lihat: https://aka.ms/pl-schedule.
Metode
create |
Buat sebuah jadwal untuk alur. Menentukan pengulangan untuk jadwal berbasis waktu atau menentukan sebuah Penyimpanan data, (opsional) polling_interval, dan (opsional) data_path_parameter_name untuk membuat jadwal yang akan memantau lokasi Penyimpanan data untuk modifikasi/penambahan. |
create_for_pipeline_endpoint |
Buat sebuah jadwal untuk titik akhir alur. Menentukan pengulangan untuk jadwal berbasis waktu atau menentukan sebuah Penyimpanan data, (opsional) polling_interval, dan (opsional) data_path_parameter_name untuk membuat jadwal yang akan memantau lokasi Penyimpanan data untuk modifikasi/penambahan. |
disable |
Atur jadwal ke 'Dinonaktifkan' dan tidak tersedia untuk menjalankan. |
enable |
Atur jadwal ke 'Aktif' dan tersedia untuk menjalankan. |
get |
Dapatkan jadwal dengan ID yang diberikan. |
get_all |
Dapatkan semua jadwal di ruang kerja saat ini. TIDAK DIGUNAKAN LAGI: Metode ini tidak digunakan lagi karena metode list. |
get_last_pipeline_run |
Ambil alur terakhir yang dijalankan yang diserahkan oleh jadwal. Mengembalikan Tidak Ada jika tidak ada proses menjalankan yang telah dikirimkan. |
get_pipeline_runs |
Ambil alur yang dijalankan yang dihasilkan dari jadwal. |
get_schedules_for_pipeline_endpoint_id |
Dapatkan semua jadwal untuk id titik akhir alur yang diberikan. |
get_schedules_for_pipeline_id |
Dapatkan semua jadwal untuk id titik akhir alur yang diberikan. |
list |
Dapatkan semua jadwal di ruang kerja saat ini. |
load_yaml |
Memuat dan membaca file YAML untuk mendapatkan parameter jadwal. File YAML adalah satu cara yang lain untuk melewati parameter Jadwal untuk membuat jadwal. |
update |
Perbarui jadwal. |
create
Buat sebuah jadwal untuk alur.
Menentukan pengulangan untuk jadwal berbasis waktu atau menentukan sebuah Penyimpanan data, (opsional) polling_interval, dan (opsional) data_path_parameter_name untuk membuat jadwal yang akan memantau lokasi Penyimpanan data untuk modifikasi/penambahan.
static create(workspace, name, pipeline_id, experiment_name, recurrence=None, description=None, pipeline_parameters=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=5, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None, _workflow_provider=None, _service_endpoint=None)
Parameter
- pipeline_parameters
- dict
Kamus parameter untuk menetapkan nilai baru {param name, param value}
- datastore
- AzureBlobDatastore
Penyimpanan data untuk memantau blob yang diubah/ditambahkan. Catatan: Penyimpanan data VNET tidak didukung. Tidak dapat digunakan dengan Pengulangan.
- polling_interval
- int
Berapa lama, dalam hitungan menit, antara poling untuk blob yang diubah/ ditambahkan. Defaultnya adalah 5 menit. Hanya didukung untuk jadwal Penyimpanan data.
- data_path_parameter_name
- str
Nama parameter alur jalur data untuk diatur dengan jalur blob yang diubah. Hanya didukung untuk jadwal Penyimpanan data.
- continue_on_step_failure
- bool
Apakah akan melanjutkan eksekusi langkah lain di PipelineRun yang dikirimkan jika langkah gagal. Jika disediakan, ini akan menimpa pengaturan continue_on_step_failure untuk Alur.
- path_on_datastore
- str
Opsional. Jalur pada datastore untuk memantau blob yang diubah/ditambahkan. Catatan: path_on_datastore akan berada di kontainer untuk penyimpanan data, sehingga jalur sebenarnya yang akan dipantau jadwal adalah kontainer/path_on_datastore. Jika tidak ada, kontainer datastore dipantau. Penambahan/perubahan yang dilakukan dalam subfolder dari path_on_datastore tidak dipantau. Hanya didukung untuk jadwal Penyimpanan data.
- _workflow_provider
- <xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Penyedia alur kerja.
Mengembalikan
Jadwal yang dibuat.
Tipe hasil
create_for_pipeline_endpoint
Buat sebuah jadwal untuk titik akhir alur.
Menentukan pengulangan untuk jadwal berbasis waktu atau menentukan sebuah Penyimpanan data, (opsional) polling_interval, dan (opsional) data_path_parameter_name untuk membuat jadwal yang akan memantau lokasi Penyimpanan data untuk modifikasi/penambahan.
static create_for_pipeline_endpoint(workspace, name, pipeline_endpoint_id, experiment_name, recurrence=None, description=None, pipeline_parameters=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=5, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None, _workflow_provider=None, _service_endpoint=None)
Parameter
- pipeline_parameters
- dict
Kamus parameter untuk menetapkan nilai baru {param name, param value}
- datastore
- AzureBlobDatastore
Penyimpanan data untuk memantau blob yang diubah/ditambahkan. Catatan: Penyimpanan data VNET tidak didukung. Tidak dapat digunakan dengan Pengulangan.
- polling_interval
- int
Berapa lama, dalam hitungan menit, antara poling untuk blob yang diubah/ ditambahkan. Defaultnya adalah 5 menit. Hanya didukung untuk jadwal Penyimpanan data.
- data_path_parameter_name
- str
Nama parameter alur jalur data untuk diatur dengan jalur blob yang diubah. Hanya didukung untuk jadwal Penyimpanan data.
- continue_on_step_failure
- bool
Apakah akan melanjutkan eksekusi langkah lain di PipelineRun yang dikirimkan jika langkah gagal. Jika disediakan, ini akan menimpa pengaturan continue_on_step_failure untuk Alur.
- path_on_datastore
- str
Opsional. Jalur pada datastore untuk memantau blob yang diubah/ditambahkan. Catatan: path_on_datastore akan berada di kontainer untuk penyimpanan data, sehingga jalur sebenarnya yang akan dipantau jadwal adalah kontainer/path_on_datastore. Jika tidak ada, kontainer datastore dipantau. Penambahan/perubahan yang dilakukan dalam subfolder dari path_on_datastore tidak dipantau. Hanya didukung untuk jadwal Penyimpanan data.
- _workflow_provider
- <xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Penyedia alur kerja.
Mengembalikan
Jadwal yang dibuat.
Tipe hasil
disable
Atur jadwal ke 'Dinonaktifkan' dan tidak tersedia untuk menjalankan.
disable(wait_for_provisioning=False, wait_timeout=3600)
Parameter
enable
Atur jadwal ke 'Aktif' dan tersedia untuk menjalankan.
enable(wait_for_provisioning=False, wait_timeout=3600)
Parameter
get
Dapatkan jadwal dengan ID yang diberikan.
static get(workspace, id, _workflow_provider=None, _service_endpoint=None)
Parameter
- _workflow_provider
- <xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Penyedia alur kerja.
Mengembalikan
Objek jadwal
Tipe hasil
get_all
Dapatkan semua jadwal di ruang kerja saat ini.
TIDAK DIGUNAKAN LAGI: Metode ini tidak digunakan lagi karena metode list.
static get_all(workspace, active_only=True, pipeline_id=None, pipeline_endpoint_id=None, _workflow_provider=None, _service_endpoint=None)
Parameter
- active_only
- bool
Jika benar, cukup kembalikan jadwal yang saat ini aktif. Hanya berlaku jika tidak ada id alur yang disediakan saja.
- pipeline_id
- str
Jika disediakan, cukup kembalikan jadwal untuk alur dengan id yang diberikan.
- pipeline_endpoint_id
- str
Jika disediakan, cukup kembalikan jadwal untuk titik akhir alur dengan id yang diberikan.
- _workflow_provider
- <xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Penyedia alur kerja.
Mengembalikan
Daftar Schedule.
Tipe hasil
get_last_pipeline_run
Ambil alur terakhir yang dijalankan yang diserahkan oleh jadwal. Mengembalikan Tidak Ada jika tidak ada proses menjalankan yang telah dikirimkan.
get_last_pipeline_run()
Mengembalikan
Alur terakhir eksekusi.
Tipe hasil
get_pipeline_runs
Ambil alur yang dijalankan yang dihasilkan dari jadwal.
get_pipeline_runs()
Mengembalikan
Daftar PipelineRun.
Tipe hasil
get_schedules_for_pipeline_endpoint_id
Dapatkan semua jadwal untuk id titik akhir alur yang diberikan.
static get_schedules_for_pipeline_endpoint_id(workspace, pipeline_endpoint_id, _workflow_provider=None, _service_endpoint=None)
Parameter
- _workflow_provider
- <xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Penyedia alur kerja.
Mengembalikan
Daftar Schedule.
Tipe hasil
get_schedules_for_pipeline_id
Dapatkan semua jadwal untuk id titik akhir alur yang diberikan.
static get_schedules_for_pipeline_id(workspace, pipeline_id, _workflow_provider=None, _service_endpoint=None)
Parameter
- _workflow_provider
- <xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Penyedia alur kerja.
Mengembalikan
Daftar Schedule.
Tipe hasil
list
Dapatkan semua jadwal di ruang kerja saat ini.
static list(workspace, active_only=True, pipeline_id=None, pipeline_endpoint_id=None, _workflow_provider=None, _service_endpoint=None)
Parameter
- active_only
- bool
Jika benar, cukup kembalikan jadwal yang saat ini aktif. Hanya berlaku jika tidak ada id alur yang disediakan saja.
- pipeline_id
- str
Jika disediakan, cukup kembalikan jadwal untuk alur dengan id yang diberikan.
- pipeline_endpoint_id
- str
Jika disediakan, cukup kembalikan jadwal untuk titik akhir alur dengan id yang diberikan.
- _workflow_provider
- <xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Penyedia alur kerja.
Mengembalikan
Daftar Schedule.
Tipe hasil
load_yaml
Memuat dan membaca file YAML untuk mendapatkan parameter jadwal.
File YAML adalah satu cara yang lain untuk melewati parameter Jadwal untuk membuat jadwal.
static load_yaml(workspace, filename, _workflow_provider=None, _service_endpoint=None)
Parameter
- _workflow_provider
- <xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Penyedia alur kerja.
Mengembalikan
Kamus Schedule parameter dan nilai.
Tipe hasil
Keterangan
Dua jenis YAML didukung untuk Jadwal-Jadwal. Jenis pertama membaca dan memuat informasi pengulangan untuk pembuatan jadwal guna memicu alur. Jenis kedua membaca dan memuat informasi penyimpanan data untuk pembuatan jadwal guna memicu alur.
Contoh untuk membuat sebuah Jadwal yang akan menyerahkan Alur pada pengulangan, sebagai berikut:
from azureml.pipeline.core import Schedule
schedule_info = Schedule.load_yaml(workspace=workspace,
filename='./yaml/test_schedule_with_recurrence.yaml')
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
experiment_name="helloworld", recurrence=schedule_info.get("recurrence"),
description=schedule_info.get("description"))
Sample YAML file test_schedule_with_recurrence.yaml:
Schedule:
description: "Test create with recurrence"
recurrence:
frequency: Week # Can be "Minute", "Hour", "Day", "Week", or "Month".
interval: 1 # how often fires
start_time: 2019-06-07T10:50:00
time_zone: UTC
hours:
- 1
minutes:
- 0
time_of_day: null
week_days:
- Friday
pipeline_parameters: {'a':1}
wait_for_provisioning: True
wait_timeout: 3600
datastore_name: ~
polling_interval: ~
data_path_parameter_name: ~
continue_on_step_failure: None
path_on_datastore: ~
Contoh untuk membuat Jadwal yang akan mengirimkan Alur pada penyimpanan data, sebagai berikut:
from azureml.pipeline.core import Schedule
schedule_info = Schedule.load_yaml(workspace=workspace,
filename='./yaml/test_schedule_with_datastore.yaml')
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
experiment_name="helloworld",datastore=schedule_info.get("datastore_name"),
polling_interval=schedule_info.get("polling_interval"),
data_path_parameter_name=schedule_info.get("data_path_parameter_name"),
continue_on_step_failure=schedule_info.get("continue_on_step_failure"),
path_on_datastore=schedule_info.get("path_on_datastore"))
update
Perbarui jadwal.
update(name=None, description=None, recurrence=None, pipeline_parameters=None, status=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=None, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None)
Parameter
- pipeline_parameters
- dict
Kamus parameter untuk menetapkan nilai baru {param name, param value}.
- datastore
- AzureBlobDatastore
Penyimpanan data untuk memantau blob yang diubah/ditambahkan. Catatan: Penyimpanan data VNET tidak didukung.
- polling_interval
- int
Berapa lama, dalam hitungan menit, antara poling untuk blob yang diubah/ ditambahkan. Defaultnya adalah 5 menit.
- data_path_parameter_name
- str
Nama parameter alur jalur data untuk diatur dengan jalur blob yang diubah.
- continue_on_step_failure
- bool
Apakah akan melanjutkan eksekusi langkah lain di PipelineRun yang dikirimkan jika langkah gagal. Jika disediakan, ini akan menimpa pengaturan continue_on_step_failure untuk Alur.
- path_on_datastore
- str
Opsional. Jalur pada datastore untuk memantau blob yang diubah/ditambahkan. Catatan: path_on_datastore akan berada di kontainer untuk penyimpanan data, sehingga jalur sebenarnya yang akan dipantau jadwal adalah kontainer/path_on_datastore. Jika tidak ada, kontainer datastore dipantau. Penambahan/perubahan yang dilakukan dalam subfolder dari path_on_datastore tidak dipantau. Hanya didukung untuk jadwal Penyimpanan data.
Atribut
continue_on_step_failure
Dapatkan nilai pengaturan continue_on_step_failure
.
Mengembalikan
Nilai pengaturan continue_on_step_failure
Tipe hasil
data_path_parameter_name
Dapatkan nama parameter alur jalur data untuk diatur dengan jalur blob yang diubah.
Mengembalikan
Nama parameter jalur data.
Tipe hasil
datastore_name
Mendapatkan nama Penyimpanan data yang digunakan untuk jadwal.
Mengembalikan
Nama Penyimpanan data.
Tipe hasil
description
id
name
path_on_datastore
Mendapatkan jalur di penyimpanan data yang dipantau oleh jadwal.
Mengembalikan
Jalur di datastore.
Tipe hasil
pipeline_endpoint_id
pipeline_id
polling_interval
Berapa lama antara polling untuk blob yang diubah/ ditambahkan dalam hitungan menit.
Mengembalikan
Interval polling.
Tipe hasil
recurrence
status
Saran dan Komentar
https://aka.ms/ContentUserFeedback.
Segera hadir: Sepanjang tahun 2024 kami akan menghentikan penggunaan GitHub Issues sebagai mekanisme umpan balik untuk konten dan menggantinya dengan sistem umpan balik baru. Untuk mengetahui informasi selengkapnya, lihat:Kirim dan lihat umpan balik untuk