Schedule クラス

パイプラインを送信するスケジュールを定義します。

パイプラインが発行されると、スケジュールを使用して、指定した間隔で、または BLOB ストレージの場所に対する変更が検出されたときにパイプラインを送信できます。

スケジュールを初期化します。

継承
builtins.object
Schedule

コンストラクター

Schedule(workspace, id, name, description, pipeline_id, status, recurrence, datastore_name, polling_interval, data_path_parameter_name, continue_on_step_failure, path_on_datastore, _schedule_provider=None, pipeline_endpoint_id=None)

パラメーター

workspace
Workspace
必須

このスケジュールの配属先になるワークスペース オブジェクト。

id
str
必須

スケジュールの ID。

name
str
必須

スケジュールの名前。

description
str
必須

スケジュールの説明。

pipeline_id
str
必須

スケジュールが送信するパイプラインの ID。

status
str
必須

スケジュールの状態 ('Active' または 'Disabled')。

recurrence
ScheduleRecurrence
必須

パイプラインのスケジュール繰り返し。

datastore_name
str
必須

変更または追加された BLOB を監視するデータストアの名前。 注: 1) VNET データストアはサポートされていません。 2) データストアの認証の種類を "アカウント キー" に設定する必要があります。

polling_interval
int
必須

変更または追加された BLOB のポーリング間隔 (分)。

data_path_parameter_name
str
必須

変更された BLOB パスで設定するデータ パス パイプライン パラメーターの名前。

continue_on_step_failure
bool
必須

送信された PipelineRun 内の 1 つのステップが失敗した場合に、他のステップの実行を続行するかどうかを指定します。 指定した場合、パイプラインの continue_on_step_failure 設定をオーバーライドします。

path_on_datastore
str
必須

省略可能。 変更または追加された BLOB を監視するデータストア上のパス。 注: path_on_datastore はデータストアのコンテナー配下になるため、スケジュールによって監視される実際のパスは container/path_on_datastore になります。 存在しない場合は、データストア コンテナーが監視されます。 path_on_datastore のサブフォルダーに加えられた追加や変更は監視されません。 データストアのスケジュールでのみサポートされます。

_schedule_provider
<xref:azureml.pipeline.core._aeva_provider._AevaScheduleProvider>
既定値: None

スケジュール プロバイダー。

workspace
Workspace
必須

このスケジュールの配属先になるワークスペース オブジェクト。

id
str
必須

スケジュールの ID。

name
str
必須

スケジュールの名前。

description
str
必須

スケジュールの説明。

pipeline_id
str
必須

スケジュールが送信するパイプラインの ID。

status
str
必須

スケジュールの状態 ('Active' または 'Disabled')。

recurrence
ScheduleRecurrence
必須

パイプラインのスケジュール繰り返し。

datastore_name
str
必須

変更または追加された BLOB を監視するデータストアの名前。 注: VNET データストアはサポートされていません。

polling_interval
int
必須

変更または追加された BLOB のポーリング間隔 (分)。

data_path_parameter_name
str
必須

変更された BLOB パスで設定するデータ パス パイプライン パラメーターの名前。

continue_on_step_failure
bool
必須

送信された PipelineRun 内の 1 つのステップが失敗した場合に、他のステップの実行を続行するかどうかを指定します。 指定した場合、パイプラインの continue_on_step_failure 設定をオーバーライドします。

path_on_datastore
str
必須

省略可能。 変更または追加された BLOB を監視するデータストア上のパス。 注: path_on_datastore はデータストアのコンテナー配下になるため、スケジュールによって監視される実際のパスは container/path_on_datastore になります。 存在しない場合は、データストア コンテナーが監視されます。 path_on_datastore のサブフォルダーに加えられた追加や変更は監視されません。 データストアのスケジュールでのみサポートされます。

_schedule_provider
<xref:azureml.pipeline.core._aeva_provider._AevaScheduleProvider>
必須

スケジュール プロバイダー。

pipeline_endpoint_id
str
既定値: None

スケジュールで送信するパイプライン エンドポイントの ID。

注釈

2 種類のスケジュールがサポートされています。 1 つは、時間の繰り返しを使用して、指定されたスケジュールでパイプラインを送信するものです。 もう 1 つは、AzureBlobDatastore での BLOB の追加または変更を監視し、変更が検出されたらパイプラインを送信するものです。

定期的なスケジュールでパイプラインを送信するスケジュールを作成するには、スケジュールを作成するときに ScheduleRecurrence を使用します。

ScheduleRecurrence は、パイプラインのスケジュールを作成するときに、次のように使用されます。


   from azureml.pipeline.core import Schedule, ScheduleRecurrence

   recurrence = ScheduleRecurrence(frequency="Hour", interval=12)
   schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
                              experiment_name="helloworld", recurrence=recurrence)

このスケジュールは、指定された PublishedPipeline を 12 時間ごとに送信します。 送信されたパイプラインは、"helloworld" という名前の実験の下に作成されます。

BLOB ストレージの場所が変更されると PipelineRuns をトリガーするスケジュールを作成するには、スケジュールを作成するときにデータストアと関連データ情報を指定します。


   from azureml.pipeline.core import Schedule
   from azureml.core.datastore import Datastore

   datastore = Datastore(workspace=ws, name="workspaceblobstore")

   schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id"
                              experiment_name="helloworld", datastore=datastore,
                              polling_interval=5, path_on_datastore="file/path")

polling_interval および path_on_datastore パラメーターは省略可能であることに注意してください。 polling_interval は、データストアの変更をポーリングする頻度を指定します。既定では 5 分です。 path_on_datastore を使用して、データストア上のどのフォルダーの変更を監視するかを指定できます。 None の場合は、データストア コンテナーが監視されます。 注: path_on_datastore またはデータストア コンテナー (path_on_datastore を指定しない場合) のサブフォルダーで BLOB が追加または変更されても、検出されません。

さらに、DataPathPipelineParameter を使用してステップ入力を記述するようにパイプラインが構築されている場合は、データストアによってトリガーされるスケジュールを作成するときに data_path_parameter_name パラメーターを使用して、PipelineRun がスケジュールによって送信されたときの変更済みファイルへの入力を設定します。

次の例では、スケジュールによって PipelineRun がトリガーされると、"input_data" PipelineParameter の値が、変更または追加されたファイルとして設定されます。


   from azureml.pipeline.core import Schedule
   from azureml.core.datastore import Datastore

   datastore = Datastore(workspace=ws, name="workspaceblobstore")

   schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
                              experiment_name="helloworld", datastore=datastore,
                              data_path_parameter_name="input_data")

スケジュールの詳細については、https://aka.ms/pl-schedule を参照してください。

メソッド

create

パイプラインのスケジュールを作成します。

時間ベースのスケジュールの繰り返しを指定するか、データストア、(省略可能な) polling_interval、(省略可能な) data_path_parameter_name を指定して、データストアの場所の変更または追加を監視するスケジュールを作成します。

create_for_pipeline_endpoint

パイプライン エンドポイントのスケジュールを作成します。

時間ベースのスケジュールの繰り返しを指定するか、データストア、(省略可能な) polling_interval、(省略可能な) data_path_parameter_name を指定して、データストアの場所の変更または追加を監視するスケジュールを作成します。

disable

スケジュールを 'Disabled' および実行不可能に設定します。

enable

スケジュールを 'Active' および実行可能に設定します。

get

指定された ID のスケジュールを取得します。

get_all

現在のワークスペース内のすべてのスケジュールを取得します。

非推奨: このメソッドは非推奨になり、list メソッドに置き換えられます。

get_last_pipeline_run

スケジュールによって送信された最後のパイプライン実行をフェッチします。 実行が送信されていない場合は None を返します。

get_pipeline_runs

スケジュールから生成されたパイプライン実行をフェッチします。

get_schedules_for_pipeline_endpoint_id

指定されたパイプライン エンドポイント ID のすべてのスケジュールを取得します。

get_schedules_for_pipeline_id

指定されたパイプライン ID のすべてのスケジュールを取得します。

list

現在のワークスペース内のすべてのスケジュールを取得します。

load_yaml

YAML ファイルを読み込んで読み取り、スケジュール パラメーターを取得します。

YAML ファイルは、Schedule のパラメーターを渡してスケジュールを作成するもう 1 つの方法です。

update

スケジュールを更新します。

create

パイプラインのスケジュールを作成します。

時間ベースのスケジュールの繰り返しを指定するか、データストア、(省略可能な) polling_interval、(省略可能な) data_path_parameter_name を指定して、データストアの場所の変更または追加を監視するスケジュールを作成します。

static create(workspace, name, pipeline_id, experiment_name, recurrence=None, description=None, pipeline_parameters=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=5, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None, _workflow_provider=None, _service_endpoint=None)

パラメーター

workspace
Workspace
必須

このスケジュールの配属先になるワークスペース オブジェクト。

name
str
必須

スケジュールの名前。

pipeline_id
str
必須

スケジュールが送信するパイプラインの ID。

experiment_name
str
必須

スケジュールによって実行が送信される実験の名前。

recurrence
ScheduleRecurrence
既定値: None

パイプラインのスケジュール繰り返し。

description
str
既定値: None

スケジュールの説明。

pipeline_parameters
dict
既定値: None

新しい値 {param name, param value} を割り当てるためのパラメーターの辞書

wait_for_provisioning
bool
既定値: False

スケジュールのプロビジョニングが完了するまで待機するかどうかを指定します。

wait_timeout
int
既定値: 3600

タイムアウトになるまで待機する秒数。

datastore
AzureBlobDatastore
既定値: None

変更または追加された BLOB を監視するデータストア。 注: VNET データストアはサポートされていません。 繰り返しと一緒には使用できません。

polling_interval
int
既定値: 5

変更または追加された BLOB のポーリング間隔 (分)。 既定値は 5 分です。 データストアのスケジュールでのみサポートされます。

data_path_parameter_name
str
既定値: None

変更された BLOB パスで設定するデータ パス パイプライン パラメーターの名前。 データストアのスケジュールでのみサポートされます。

continue_on_step_failure
bool
既定値: None

送信された PipelineRun 内の 1 つのステップが失敗した場合に、他のステップの実行を続行するかどうかを指定します。 指定した場合、パイプラインの continue_on_step_failure 設定をオーバーライドします。

path_on_datastore
str
既定値: None

省略可能。 変更または追加された BLOB を監視するデータストア上のパス。 注: path_on_datastore はデータストアのコンテナー配下になるため、スケジュールによって監視される実際のパスは container/path_on_datastore になります。 存在しない場合は、データストア コンテナーが監視されます。 path_on_datastore のサブフォルダーに加えられた追加や変更は監視されません。 データストアのスケジュールでのみサポートされます。

_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
既定値: None

ワークフロー プロバイダー。

_service_endpoint
str
既定値: None

サービス エンドポイント。

戻り値

作成されたスケジュール。

の戻り値の型 :

create_for_pipeline_endpoint

パイプライン エンドポイントのスケジュールを作成します。

時間ベースのスケジュールの繰り返しを指定するか、データストア、(省略可能な) polling_interval、(省略可能な) data_path_parameter_name を指定して、データストアの場所の変更または追加を監視するスケジュールを作成します。

static create_for_pipeline_endpoint(workspace, name, pipeline_endpoint_id, experiment_name, recurrence=None, description=None, pipeline_parameters=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=5, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None, _workflow_provider=None, _service_endpoint=None)

パラメーター

workspace
Workspace
必須

このスケジュールの配属先になるワークスペース オブジェクト。

name
str
必須

スケジュールの名前。

pipeline_endpoint_id
str
必須

スケジュールで送信するパイプライン エンドポイントの ID。

experiment_name
str
必須

スケジュールによって実行が送信される実験の名前。

recurrence
ScheduleRecurrence
既定値: None

パイプラインのスケジュール繰り返し。

description
str
既定値: None

スケジュールの説明。

pipeline_parameters
dict
既定値: None

新しい値 {param name, param value} を割り当てるためのパラメーターの辞書

wait_for_provisioning
bool
既定値: False

スケジュールのプロビジョニングが完了するまで待機するかどうかを指定します。

wait_timeout
int
既定値: 3600

タイムアウトになるまで待機する秒数。

datastore
AzureBlobDatastore
既定値: None

変更または追加された BLOB を監視するデータストア。 注: VNET データストアはサポートされていません。 繰り返しと一緒には使用できません。

polling_interval
int
既定値: 5

変更または追加された BLOB のポーリング間隔 (分)。 既定値は 5 分です。 データストアのスケジュールでのみサポートされます。

data_path_parameter_name
str
既定値: None

変更された BLOB パスで設定するデータ パス パイプライン パラメーターの名前。 データストアのスケジュールでのみサポートされます。

continue_on_step_failure
bool
既定値: None

送信された PipelineRun 内の 1 つのステップが失敗した場合に、他のステップの実行を続行するかどうかを指定します。 指定した場合、パイプラインの continue_on_step_failure 設定をオーバーライドします。

path_on_datastore
str
既定値: None

省略可能。 変更または追加された BLOB を監視するデータストア上のパス。 注: path_on_datastore はデータストアのコンテナー配下になるため、スケジュールによって監視される実際のパスは container/path_on_datastore になります。 存在しない場合は、データストア コンテナーが監視されます。 path_on_datastore のサブフォルダーに加えられた追加や変更は監視されません。 データストアのスケジュールでのみサポートされます。

_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
既定値: None

ワークフロー プロバイダー。

_service_endpoint
str
既定値: None

サービス エンドポイント。

戻り値

作成されたスケジュール。

の戻り値の型 :

disable

スケジュールを 'Disabled' および実行不可能に設定します。

disable(wait_for_provisioning=False, wait_timeout=3600)

パラメーター

wait_for_provisioning
bool
既定値: False

スケジュールのプロビジョニングが完了するまで待機するかどうかを指定します。

wait_timeout
int
既定値: 3600

タイムアウトするまでに待機する時間 (秒)。

enable

スケジュールを 'Active' および実行可能に設定します。

enable(wait_for_provisioning=False, wait_timeout=3600)

パラメーター

wait_for_provisioning
bool
既定値: False

スケジュールのプロビジョニングが完了するまで待機するかどうかを指定します。

wait_timeout
int
既定値: 3600

タイムアウトするまでに待機する時間 (秒)。

get

指定された ID のスケジュールを取得します。

static get(workspace, id, _workflow_provider=None, _service_endpoint=None)

パラメーター

workspace
Workspace
必須

スケジュールが作成されたワークスペース。

id
str
必須

スケジュールの ID。

_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
既定値: None

ワークフロー プロバイダー。

_service_endpoint
str
既定値: None

サービス エンドポイント。

戻り値

schedule オブジェクト

の戻り値の型 :

get_all

現在のワークスペース内のすべてのスケジュールを取得します。

非推奨: このメソッドは非推奨になり、list メソッドに置き換えられます。

static get_all(workspace, active_only=True, pipeline_id=None, pipeline_endpoint_id=None, _workflow_provider=None, _service_endpoint=None)

パラメーター

workspace
Workspace
必須

ワークスペース。

active_only
bool
既定値: True

true の場合、現在アクティブなスケジュールのみを返します。 パイプライン ID が指定されていない場合にのみ適用されます。

pipeline_id
str
既定値: None

指定されている場合、指定された ID のパイプラインのスケジュールのみを返します。

pipeline_endpoint_id
str
既定値: None

指定されている場合、指定された ID のパイプライン エンドポイントのスケジュールのみを返します。

_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
既定値: None

ワークフロー プロバイダー。

_service_endpoint
str
既定値: None

サービス エンドポイント。

戻り値

Schedule の一覧。

の戻り値の型 :

get_last_pipeline_run

スケジュールによって送信された最後のパイプライン実行をフェッチします。 実行が送信されていない場合は None を返します。

get_last_pipeline_run()

戻り値

最後のパイプライン実行。

の戻り値の型 :

get_pipeline_runs

スケジュールから生成されたパイプライン実行をフェッチします。

get_pipeline_runs()

戻り値

PipelineRun の一覧。

の戻り値の型 :

get_schedules_for_pipeline_endpoint_id

指定されたパイプライン エンドポイント ID のすべてのスケジュールを取得します。

static get_schedules_for_pipeline_endpoint_id(workspace, pipeline_endpoint_id, _workflow_provider=None, _service_endpoint=None)

パラメーター

workspace
Workspace
必須

ワークスペース。

pipeline_endpoint_id
str
必須

パイプライン エンドポイント ID。

_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
既定値: None

ワークフロー プロバイダー。

_service_endpoint
str
既定値: None

サービス エンドポイント。

戻り値

Schedule の一覧。

の戻り値の型 :

get_schedules_for_pipeline_id

指定されたパイプライン ID のすべてのスケジュールを取得します。

static get_schedules_for_pipeline_id(workspace, pipeline_id, _workflow_provider=None, _service_endpoint=None)

パラメーター

workspace
Workspace
必須

ワークスペース。

pipeline_id
str
必須

パイプライン ID。

_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
既定値: None

ワークフロー プロバイダー。

_service_endpoint
str
既定値: None

サービス エンドポイント。

戻り値

Schedule の一覧。

の戻り値の型 :

list

現在のワークスペース内のすべてのスケジュールを取得します。

static list(workspace, active_only=True, pipeline_id=None, pipeline_endpoint_id=None, _workflow_provider=None, _service_endpoint=None)

パラメーター

workspace
Workspace
必須

ワークスペース。

active_only
bool
既定値: True

true の場合、現在アクティブなスケジュールのみを返します。 パイプライン ID が指定されていない場合にのみ適用されます。

pipeline_id
str
既定値: None

指定されている場合、指定された ID のパイプラインのスケジュールのみを返します。

pipeline_endpoint_id
str
既定値: None

指定されている場合、指定された ID のパイプライン エンドポイントのスケジュールのみを返します。

_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
既定値: None

ワークフロー プロバイダー。

_service_endpoint
str
既定値: None

サービス エンドポイント。

戻り値

Schedule の一覧。

の戻り値の型 :

load_yaml

YAML ファイルを読み込んで読み取り、スケジュール パラメーターを取得します。

YAML ファイルは、Schedule のパラメーターを渡してスケジュールを作成するもう 1 つの方法です。

static load_yaml(workspace, filename, _workflow_provider=None, _service_endpoint=None)

パラメーター

workspace
Workspace
必須

ワークスペース。

filename
str
必須

場所を含む YAML ファイル名。

_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
既定値: None

ワークフロー プロバイダー。

_service_endpoint
str
既定値: None

サービス エンドポイント。

戻り値

Schedule のパラメーターと値の辞書。

の戻り値の型 :

注釈

スケジュールでは、2 種類の YAML がサポートされています。 1 つは、スケジュール作成の繰り返し情報の読み取りと読み込みによって、パイプラインをトリガーするものです。 もう 1 つは、スケジュール作成のデータストア情報の読み取りと読み込みによって、パイプラインをトリガーするものです。

繰り返しでパイプラインを送信するスケジュールを作成する例は、次のようになります。


   from azureml.pipeline.core import Schedule

   schedule_info = Schedule.load_yaml(workspace=workspace,
                                      filename='./yaml/test_schedule_with_recurrence.yaml')
   schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
                              experiment_name="helloworld", recurrence=schedule_info.get("recurrence"),
                              description=schedule_info.get("description"))

サンプル YAML ファイル test_schedule_with_recurrence.yaml:


   Schedule:
       description: "Test create with recurrence"
       recurrence:
           frequency: Week # Can be "Minute", "Hour", "Day", "Week", or "Month".
           interval: 1 # how often fires
           start_time: 2019-06-07T10:50:00
           time_zone: UTC
           hours:
           - 1
           minutes:
           - 0
           time_of_day: null
           week_days:
           - Friday
       pipeline_parameters: {'a':1}
       wait_for_provisioning: True
       wait_timeout: 3600
       datastore_name: ~
       polling_interval: ~
       data_path_parameter_name: ~
       continue_on_step_failure: None
       path_on_datastore: ~

データストアでパイプラインを送信するスケジュールを作成する例は、次のようになります。


   from azureml.pipeline.core import Schedule

   schedule_info = Schedule.load_yaml(workspace=workspace,
                                      filename='./yaml/test_schedule_with_datastore.yaml')
   schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
                              experiment_name="helloworld",datastore=schedule_info.get("datastore_name"),
                              polling_interval=schedule_info.get("polling_interval"),
                              data_path_parameter_name=schedule_info.get("data_path_parameter_name"),
                              continue_on_step_failure=schedule_info.get("continue_on_step_failure"),
                              path_on_datastore=schedule_info.get("path_on_datastore"))

update

スケジュールを更新します。

update(name=None, description=None, recurrence=None, pipeline_parameters=None, status=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=None, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None)

パラメーター

name
str
既定値: None

スケジュールの新しい名前。

recurrence
ScheduleRecurrence
既定値: None

パイプラインの新しいスケジュール繰り返し。

description
str
既定値: None

スケジュールの新しい説明。

pipeline_parameters
dict
既定値: None

新しい値 {param name, param value} を割り当てるパラメーターの辞書。

status
str
既定値: None

スケジュールの新しい状態 ('Active' または 'Disabled')。

wait_for_provisioning
bool
既定値: False

スケジュールのプロビジョニングが完了するまで待機するかどうかを指定します。

wait_timeout
int
既定値: 3600

タイムアウトになるまで待機する秒数。

datastore
AzureBlobDatastore
既定値: None

変更または追加された BLOB を監視するデータストア。 注: VNET データストアはサポートされていません。

polling_interval
int
既定値: None

変更または追加された BLOB のポーリング間隔 (分)。 既定値は 5 分です。

data_path_parameter_name
str
既定値: None

変更された BLOB パスで設定するデータ パス パイプライン パラメーターの名前。

continue_on_step_failure
bool
既定値: None

送信された PipelineRun 内の 1 つのステップが失敗した場合に、他のステップの実行を続行するかどうかを指定します。 指定した場合、パイプラインの continue_on_step_failure 設定をオーバーライドします。

path_on_datastore
str
既定値: None

省略可能。 変更または追加された BLOB を監視するデータストア上のパス。 注: path_on_datastore はデータストアのコンテナー配下になるため、スケジュールによって監視される実際のパスは container/path_on_datastore になります。 存在しない場合は、データストア コンテナーが監視されます。 path_on_datastore のサブフォルダーに加えられた追加や変更は監視されません。 データストアのスケジュールでのみサポートされます。

属性

continue_on_step_failure

continue_on_step_failure 設定の値を取得します。

戻り値

continue_on_step_failure 設定の値

の戻り値の型 :

data_path_parameter_name

変更された BLOB パスで設定するデータ パス パイプライン パラメーターの名前を取得します。

戻り値

データ パス パラメーターの名前。

の戻り値の型 :

str

datastore_name

スケジュールに使用されるデータストアの名前を取得します。

戻り値

データストア名。

の戻り値の型 :

str

description

スケジュールの説明を取得します。

戻り値

スケジュールの説明。

の戻り値の型 :

str

id

スケジュールの ID を取得します。

戻り値

ID。

の戻り値の型 :

str

name

スケジュールの名前を取得します。

戻り値

名前。

の戻り値の型 :

str

path_on_datastore

スケジュールで監視するデータストア上のパスを取得します。

戻り値

データストア上のパス。

の戻り値の型 :

str

pipeline_endpoint_id

スケジュールで送信するパイプライン エンドポイントの ID を取得します。

戻り値

ID。

の戻り値の型 :

str

pipeline_id

スケジュールで送信するパイプラインの ID を取得します。

戻り値

ID。

の戻り値の型 :

str

polling_interval

変更または追加された BLOB のポーリング間隔 (分) を取得します。

戻り値

ポーリング間隔。

の戻り値の型 :

int

recurrence

スケジュール繰り返しを取得します。

戻り値

スケジュール繰り返し。

の戻り値の型 :

status

スケジュールの状態を取得します。

戻り値

スケジュールの状態。

の戻り値の型 :

str