Schedule Klass
Definierar ett schema som du vill skicka en pipeline för.
När en pipeline har publicerats kan ett schema användas för att skicka pipelinen med ett angivet intervall eller när ändringar på en Blob Storage-plats identifieras.
Initiera Schema.
- Arv
-
builtins.objectSchedule
Konstruktor
Schedule(workspace, id, name, description, pipeline_id, status, recurrence, datastore_name, polling_interval, data_path_parameter_name, continue_on_step_failure, path_on_datastore, _schedule_provider=None, pipeline_endpoint_id=None)
Parametrar
Name | Description |
---|---|
workspace
Obligatorisk
|
Arbetsyteobjektet som schemalägget ska tillhöra. |
id
Obligatorisk
|
ID för schemat. |
name
Obligatorisk
|
Namnet på schemat. |
description
Obligatorisk
|
Beskrivningen av schemat. |
pipeline_id
Obligatorisk
|
ID:t för pipelinen som schemat ska skicka. |
status
Obligatorisk
|
Status för schemat, antingen "Aktiv" eller "Inaktiverad". |
recurrence
Obligatorisk
|
Upprepning av schemat för pipelinen. |
datastore_name
Obligatorisk
|
Namnet på det datalager som ska övervakas för ändrade/tillagda blobar. Obs! 1) VNET-datalager stöds inte. 2) Autentiseringstypen för datalagringen ska vara inställd på "Kontonyckel". |
polling_interval
Obligatorisk
|
Hur länge, i minuter, mellan avsökning för ändrade/tillagda blobar. |
data_path_parameter_name
Obligatorisk
|
Namnet på pipelineparametern för datasökvägen som ska anges med den ändrade blobsökvägen. |
continue_on_step_failure
Obligatorisk
|
Om du vill fortsätta att köra andra steg i den skickade PipelineRun om ett steg misslyckas. Om detta anges åsidosätter detta inställningen continue_on_step_failure för pipelinen. |
path_on_datastore
Obligatorisk
|
Valfritt. Sökvägen till det datalager som ska övervakas för ändrade/tillagda blobar. Obs! path_on_datastore finns under containern för datalagringen, så den faktiska sökvägen som schemat övervakar är container/path_on_datastore. Om det inte finns någon övervakas datalagercontainern. Tillägg/ändringar som görs i en undermapp i path_on_datastore övervakas inte. Stöds endast för DataStore-scheman. |
_schedule_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaScheduleProvider>
Schemaleverantören. Standardvärde: None
|
workspace
Obligatorisk
|
Arbetsyteobjektet som schemalägget ska tillhöra. |
id
Obligatorisk
|
ID för schemat. |
name
Obligatorisk
|
Namnet på schemat. |
description
Obligatorisk
|
Beskrivningen av schemat. |
pipeline_id
Obligatorisk
|
ID:t för pipelinen som schemat ska skicka. |
status
Obligatorisk
|
Status för schemat, antingen "Aktiv" eller "Inaktiverad". |
recurrence
Obligatorisk
|
Schemat för upprepning av pipelinen. |
datastore_name
Obligatorisk
|
Namnet på det datalager som ska övervakas för ändrade/tillagda blobar. Obs! VNET-datalager stöds inte. |
polling_interval
Obligatorisk
|
Hur länge, i minuter, mellan avsökning för ändrade/tillagda blobar. |
data_path_parameter_name
Obligatorisk
|
Namnet på pipelineparametern för datasökvägen som ska anges med den ändrade blobsökvägen. |
continue_on_step_failure
Obligatorisk
|
Om du vill fortsätta att köra andra steg i den skickade PipelineRun om ett steg misslyckas. Om detta anges åsidosätter detta inställningen continue_on_step_failure för pipelinen. |
path_on_datastore
Obligatorisk
|
Valfritt. Sökvägen till det datalager som ska övervakas för ändrade/tillagda blobar. Obs! path_on_datastore finns under containern för datalagringen, så den faktiska sökvägen som schemat övervakar är container/path_on_datastore. Om det inte finns någon övervakas datalagercontainern. Tillägg/ändringar som görs i en undermapp i path_on_datastore övervakas inte. Stöds endast för DataStore-scheman. |
_schedule_provider
Obligatorisk
|
<xref:azureml.pipeline.core._aeva_provider._AevaScheduleProvider>
Schemaleverantören. |
pipeline_endpoint_id
|
ID:t för pipelineslutpunkten som schemat ska skicka. Standardvärde: None
|
Kommentarer
Två typer av scheman stöds. Den första använder upprepningstid för att skicka en pipeline enligt ett visst schema. Den andra övervakar en AzureBlobDatastore för tillagda eller ändrade blobar och skickar en pipeline när ändringar identifieras.
Om du vill skapa ett schema som skickar en pipeline enligt ett återkommande schema använder du ScheduleRecurrence när du skapar schemat.
En ScheduleRecurrence används när du skapar ett schema för en pipeline enligt följande:
from azureml.pipeline.core import Schedule, ScheduleRecurrence
recurrence = ScheduleRecurrence(frequency="Hour", interval=12)
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
experiment_name="helloworld", recurrence=recurrence)
Det här schemat skickar den angivna PublishedPipeline var 12:e timme. Den skickade pipelinen skapas under experimentet med namnet "helloworld".
Om du vill skapa ett schema som utlöser PipelineKörningar vid ändringar av en Blob Storage-plats anger du ett datalager och relaterad datainformation när du skapar schemat.
from azureml.pipeline.core import Schedule
from azureml.core.datastore import Datastore
datastore = Datastore(workspace=ws, name="workspaceblobstore")
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id"
experiment_name="helloworld", datastore=datastore,
polling_interval=5, path_on_datastore="file/path")
Observera att parametrarna polling_interval och path_on_datastore är valfria. Polling_interval anger hur ofta datalagringen ska sökas efter ändringar och är som standard 5 minuter. path_on_datastore kan användas för att ange vilken mapp i datalagringen som ska övervakas för ändringar. Om den är Ingen övervakas Datastore-containern. Obs! Blobtillägg/ändringar i undermappar i path_on_datastore eller Datastore-containern (om ingen path_on_datastore har angetts) identifieras inte.
Om pipelinen har konstruerats för att använda en DataPathPipelineParameter för att beskriva stegindata använder du dessutom parametern data_path_parameter_name när du skapar ett datalagerutlöst schema för att ange indata till den ändrade filen när en PipelineRun skickas av schemat.
I följande exempel, när Schemat utlöser PipelineRun, anges värdet för pipelineparametern "input_data" som filen som ändrades/lades till:
from azureml.pipeline.core import Schedule
from azureml.core.datastore import Datastore
datastore = Datastore(workspace=ws, name="workspaceblobstore")
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
experiment_name="helloworld", datastore=datastore,
data_path_parameter_name="input_data")
Mer information om scheman finns i: https://aka.ms/pl-schedule.
Metoder
create |
Skapa ett schema för en pipeline. Ange upprepning för ett tidsbaserat schema eller ange ett datalager( valfritt) polling_interval och (valfritt) data_path_parameter_name för att skapa ett schema som övervakar datalagringsplatsen för ändringar/tillägg. |
create_for_pipeline_endpoint |
Skapa ett schema för en pipelineslutpunkt. Ange upprepning för ett tidsbaserat schema eller ange ett datalager( valfritt) polling_interval och (valfritt) data_path_parameter_name för att skapa ett schema som övervakar datalagringsplatsen för ändringar/tillägg. |
disable |
Ställ in schemat på "Disabled" (Inaktiverad) och unavailable to run (Inte tillgängligt att köra). |
enable |
Ställ in schemat på "Aktiv" och tillgängligt att köra. |
get |
Hämta schemat med det angivna ID:t. |
get_all |
Hämta alla scheman på den aktuella arbetsytan. INAKTUELL: Den här metoden blir inaktuell till förmån för list metoden . |
get_last_pipeline_run |
Hämta den senaste pipelinekörningen som skickades enligt schemat. Returnerar Ingen om inga körningar har skickats. |
get_pipeline_runs |
Hämta pipelinekörningarna som genererades från schemat. |
get_schedules_for_pipeline_endpoint_id |
Hämta alla scheman för det angivna pipelineslutpunkts-ID:t. |
get_schedules_for_pipeline_id |
Hämta alla scheman för det angivna pipeline-ID:t. |
list |
Hämta alla scheman på den aktuella arbetsytan. |
load_yaml |
Läs in och läs YAML-filen för att hämta schemaparametrar. YAML-filen är ytterligare ett sätt att skicka schemaparametrar för att skapa ett schema. |
update |
Uppdatera schemat. |
create
Skapa ett schema för en pipeline.
Ange upprepning för ett tidsbaserat schema eller ange ett datalager( valfritt) polling_interval och (valfritt) data_path_parameter_name för att skapa ett schema som övervakar datalagringsplatsen för ändringar/tillägg.
static create(workspace, name, pipeline_id, experiment_name, recurrence=None, description=None, pipeline_parameters=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=5, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None, _workflow_provider=None, _service_endpoint=None)
Parametrar
Name | Description |
---|---|
workspace
Obligatorisk
|
Arbetsyteobjektet som schemalägget ska tillhöra. |
name
Obligatorisk
|
Namnet på schemat. |
pipeline_id
Obligatorisk
|
ID:t för pipelinen som schemat ska skicka. |
experiment_name
Obligatorisk
|
Namnet på experimentet som schemat skickar körs på. |
recurrence
|
Schemat för upprepning av pipelinen. Standardvärde: None
|
description
|
Beskrivningen av schemat. Standardvärde: None
|
pipeline_parameters
|
En ordlista med parametrar för att tilldela nya värden {param name, param value} Standardvärde: None
|
wait_for_provisioning
|
Om du vill vänta tills schemat har etablerats. Standardvärde: False
|
wait_timeout
|
Antal sekunder som ska vänta innan tidsgränsen nås. Standardvärde: 3600
|
datastore
|
Det datalager som ska övervakas för ändrade/tillagda blobar. Obs! VNET-datalager stöds inte. Det går inte att använda med upprepning. Standardvärde: None
|
polling_interval
|
Hur länge, i minuter, mellan avsökning för ändrade/tillagda blobar. Standardvärdet är 5 minuter. Stöds endast för DataStore-scheman. Standardvärde: 5
|
data_path_parameter_name
|
Namnet på pipelineparametern för datasökvägen som ska anges med den ändrade blobsökvägen. Stöds endast för DataStore-scheman. Standardvärde: None
|
continue_on_step_failure
|
Om du vill fortsätta att köra andra steg i den skickade PipelineRun om ett steg misslyckas. Om detta anges åsidosätter detta inställningen continue_on_step_failure för pipelinen. Standardvärde: None
|
path_on_datastore
|
Valfritt. Sökvägen till det datalager som ska övervakas för ändrade/tillagda blobar. Obs! path_on_datastore finns under containern för datalagringen, så den faktiska sökvägen som schemat övervakar är container/path_on_datastore. Om det inte finns någon övervakas datalagercontainern. Tillägg/ändringar som görs i en undermapp i path_on_datastore övervakas inte. Stöds endast för DataStore-scheman. Standardvärde: None
|
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Arbetsflödesprovidern. Standardvärde: None
|
_service_endpoint
|
Tjänstslutpunkten. Standardvärde: None
|
Returer
Typ | Description |
---|---|
Det skapade schemat. |
create_for_pipeline_endpoint
Skapa ett schema för en pipelineslutpunkt.
Ange upprepning för ett tidsbaserat schema eller ange ett datalager( valfritt) polling_interval och (valfritt) data_path_parameter_name för att skapa ett schema som övervakar datalagringsplatsen för ändringar/tillägg.
static create_for_pipeline_endpoint(workspace, name, pipeline_endpoint_id, experiment_name, recurrence=None, description=None, pipeline_parameters=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=5, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None, _workflow_provider=None, _service_endpoint=None)
Parametrar
Name | Description |
---|---|
workspace
Obligatorisk
|
Arbetsyteobjektet som schemalägget ska tillhöra. |
name
Obligatorisk
|
Namnet på schemat. |
pipeline_endpoint_id
Obligatorisk
|
ID:t för pipelineslutpunkten som schemat ska skicka. |
experiment_name
Obligatorisk
|
Namnet på experimentet som schemat skickar körs på. |
recurrence
|
Schemat för upprepning av pipelinen. Standardvärde: None
|
description
|
Beskrivningen av schemat. Standardvärde: None
|
pipeline_parameters
|
En ordlista med parametrar för att tilldela nya värden {param name, param value} Standardvärde: None
|
wait_for_provisioning
|
Om du vill vänta tills schemat har etablerats. Standardvärde: False
|
wait_timeout
|
Antal sekunder som ska vänta innan tidsgränsen nås. Standardvärde: 3600
|
datastore
|
Det datalager som ska övervakas för ändrade/tillagda blobar. Obs! VNET-datalager stöds inte. Det går inte att använda med upprepning. Standardvärde: None
|
polling_interval
|
Hur länge, i minuter, mellan avsökning för ändrade/tillagda blobar. Standardvärdet är 5 minuter. Stöds endast för DataStore-scheman. Standardvärde: 5
|
data_path_parameter_name
|
Namnet på pipelineparametern för datasökvägen som ska anges med den ändrade blobsökvägen. Stöds endast för DataStore-scheman. Standardvärde: None
|
continue_on_step_failure
|
Om du vill fortsätta att köra andra steg i den skickade PipelineRun om ett steg misslyckas. Om detta anges åsidosätter detta inställningen continue_on_step_failure för pipelinen. Standardvärde: None
|
path_on_datastore
|
Valfritt. Sökvägen till det datalager som ska övervakas för ändrade/tillagda blobar. Obs! path_on_datastore finns under containern för datalagringen, så den faktiska sökvägen som schemat övervakar är container/path_on_datastore. Om det inte finns någon övervakas datalagercontainern. Tillägg/ändringar som görs i en undermapp i path_on_datastore övervakas inte. Stöds endast för DataStore-scheman. Standardvärde: None
|
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Arbetsflödesprovidern. Standardvärde: None
|
_service_endpoint
|
Tjänstslutpunkten. Standardvärde: None
|
Returer
Typ | Description |
---|---|
Det skapade schemat. |
disable
Ställ in schemat på "Disabled" (Inaktiverad) och unavailable to run (Inte tillgängligt att köra).
disable(wait_for_provisioning=False, wait_timeout=3600)
Parametrar
Name | Description |
---|---|
wait_for_provisioning
|
Om du vill vänta tills schemat har etablerats. Standardvärde: False
|
wait_timeout
|
Antal sekunder att vänta innan tidsgränsen nås. Standardvärde: 3600
|
enable
Ställ in schemat på "Aktiv" och tillgängligt att köra.
enable(wait_for_provisioning=False, wait_timeout=3600)
Parametrar
Name | Description |
---|---|
wait_for_provisioning
|
Om du vill vänta tills schemat har etablerats. Standardvärde: False
|
wait_timeout
|
Antal sekunder att vänta innan tidsgränsen nås. Standardvärde: 3600
|
get
Hämta schemat med det angivna ID:t.
static get(workspace, id, _workflow_provider=None, _service_endpoint=None)
Parametrar
Name | Description |
---|---|
workspace
Obligatorisk
|
Arbetsytan som schemat skapades på. |
id
Obligatorisk
|
ID för schemat. |
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Arbetsflödesprovidern. Standardvärde: None
|
_service_endpoint
|
Tjänstslutpunkten. Standardvärde: None
|
Returer
Typ | Description |
---|---|
Schemaobjekt |
get_all
Hämta alla scheman på den aktuella arbetsytan.
INAKTUELL: Den här metoden blir inaktuell till förmån för list metoden .
static get_all(workspace, active_only=True, pipeline_id=None, pipeline_endpoint_id=None, _workflow_provider=None, _service_endpoint=None)
Parametrar
Name | Description |
---|---|
workspace
Obligatorisk
|
Arbetsytan. |
active_only
|
Om det är sant returnerar du endast scheman som för närvarande är aktiva. Gäller endast om inget pipeline-ID har angetts. Standardvärde: True
|
pipeline_id
|
Om detta anges returnerar du endast scheman för pipelinen med det angivna ID:t. Standardvärde: None
|
pipeline_endpoint_id
|
Om detta anges returnerar du endast scheman för pipelineslutpunkten med det angivna ID:t. Standardvärde: None
|
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Arbetsflödesprovidern. Standardvärde: None
|
_service_endpoint
|
Tjänstslutpunkten. Standardvärde: None
|
Returer
Typ | Description |
---|---|
En lista över Schedule. |
get_last_pipeline_run
Hämta den senaste pipelinekörningen som skickades enligt schemat. Returnerar Ingen om inga körningar har skickats.
get_last_pipeline_run()
Returer
Typ | Description |
---|---|
Den senaste pipelinekörningen. |
get_pipeline_runs
Hämta pipelinekörningarna som genererades från schemat.
get_pipeline_runs()
Returer
Typ | Description |
---|---|
En lista över PipelineRun. |
get_schedules_for_pipeline_endpoint_id
Hämta alla scheman för det angivna pipelineslutpunkts-ID:t.
static get_schedules_for_pipeline_endpoint_id(workspace, pipeline_endpoint_id, _workflow_provider=None, _service_endpoint=None)
Parametrar
Name | Description |
---|---|
workspace
Obligatorisk
|
Arbetsytan. |
pipeline_endpoint_id
Obligatorisk
|
Pipelinens slutpunkts-ID. |
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Arbetsflödesprovidern. Standardvärde: None
|
_service_endpoint
|
Tjänstslutpunkten. Standardvärde: None
|
Returer
Typ | Description |
---|---|
En lista över Schedule. |
get_schedules_for_pipeline_id
Hämta alla scheman för det angivna pipeline-ID:t.
static get_schedules_for_pipeline_id(workspace, pipeline_id, _workflow_provider=None, _service_endpoint=None)
Parametrar
Name | Description |
---|---|
workspace
Obligatorisk
|
Arbetsytan. |
pipeline_id
Obligatorisk
|
Pipeline-ID:t. |
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Arbetsflödesprovidern. Standardvärde: None
|
_service_endpoint
|
Tjänstslutpunkten. Standardvärde: None
|
Returer
Typ | Description |
---|---|
En lista över Schedule. |
list
Hämta alla scheman på den aktuella arbetsytan.
static list(workspace, active_only=True, pipeline_id=None, pipeline_endpoint_id=None, _workflow_provider=None, _service_endpoint=None)
Parametrar
Name | Description |
---|---|
workspace
Obligatorisk
|
Arbetsytan. |
active_only
|
Om det är sant returnerar du endast scheman som för närvarande är aktiva. Gäller endast om inget pipeline-ID har angetts. Standardvärde: True
|
pipeline_id
|
Om detta anges returnerar du endast scheman för pipelinen med det angivna ID:t. Standardvärde: None
|
pipeline_endpoint_id
|
Om detta anges returnerar du endast scheman för pipelineslutpunkten med det angivna ID:t. Standardvärde: None
|
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Arbetsflödesprovidern. Standardvärde: None
|
_service_endpoint
|
Tjänstslutpunkten. Standardvärde: None
|
Returer
Typ | Description |
---|---|
En lista över Schedule. |
load_yaml
Läs in och läs YAML-filen för att hämta schemaparametrar.
YAML-filen är ytterligare ett sätt att skicka schemaparametrar för att skapa ett schema.
static load_yaml(workspace, filename, _workflow_provider=None, _service_endpoint=None)
Parametrar
Name | Description |
---|---|
workspace
Obligatorisk
|
Arbetsytan. |
filename
Obligatorisk
|
YAML-filnamnet med plats. |
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Arbetsflödesprovidern. Standardvärde: None
|
_service_endpoint
|
Tjänstslutpunkten. Standardvärde: None
|
Returer
Typ | Description |
---|---|
En ordlista med Schedule parametrar och värden. |
Kommentarer
Två typer av YAML stöds för Scheman. Den första läser in och läser in information om upprepning för schemaskapande för att utlösa pipeline. Den andra läser och läser in information om datalager för schemaskapande för att utlösa pipeline.
Exempel för att skapa ett schema som skickar en pipeline vid återkommande, enligt följande:
from azureml.pipeline.core import Schedule
schedule_info = Schedule.load_yaml(workspace=workspace,
filename='./yaml/test_schedule_with_recurrence.yaml')
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
experiment_name="helloworld", recurrence=schedule_info.get("recurrence"),
description=schedule_info.get("description"))
Yaml-exempelfil test_schedule_with_recurrence.yaml:
Schedule:
description: "Test create with recurrence"
recurrence:
frequency: Week # Can be "Minute", "Hour", "Day", "Week", or "Month".
interval: 1 # how often fires
start_time: 2019-06-07T10:50:00
time_zone: UTC
hours:
- 1
minutes:
- 0
time_of_day: null
week_days:
- Friday
pipeline_parameters: {'a':1}
wait_for_provisioning: True
wait_timeout: 3600
datastore_name: ~
polling_interval: ~
data_path_parameter_name: ~
continue_on_step_failure: None
path_on_datastore: ~
Exempel för att skapa ett schema som skickar en pipeline i ett datalager enligt följande:
from azureml.pipeline.core import Schedule
schedule_info = Schedule.load_yaml(workspace=workspace,
filename='./yaml/test_schedule_with_datastore.yaml')
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
experiment_name="helloworld",datastore=schedule_info.get("datastore_name"),
polling_interval=schedule_info.get("polling_interval"),
data_path_parameter_name=schedule_info.get("data_path_parameter_name"),
continue_on_step_failure=schedule_info.get("continue_on_step_failure"),
path_on_datastore=schedule_info.get("path_on_datastore"))
update
Uppdatera schemat.
update(name=None, description=None, recurrence=None, pipeline_parameters=None, status=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=None, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None)
Parametrar
Name | Description |
---|---|
name
|
Det nya namnet på schemat. Standardvärde: None
|
recurrence
|
Det nya schemat för pipelinens upprepning. Standardvärde: None
|
description
|
Den nya beskrivningen av schemat. Standardvärde: None
|
pipeline_parameters
|
En ordlista med parametrar för att tilldela nya värden {param name, param value}. Standardvärde: None
|
status
|
Schemats nya status: "Aktiv" eller "Inaktiverad". Standardvärde: None
|
wait_for_provisioning
|
Om du vill vänta tills schemat har etablerats. Standardvärde: False
|
wait_timeout
|
Antal sekunder som ska vänta innan tidsgränsen nås. Standardvärde: 3600
|
datastore
|
Det datalager som ska övervakas för ändrade/tillagda blobar. Obs! VNET-datalager stöds inte. Standardvärde: None
|
polling_interval
|
Hur länge, i minuter, mellan avsökning för ändrade/tillagda blobar. Standardvärdet är 5 minuter. Standardvärde: None
|
data_path_parameter_name
|
Namnet på pipelineparametern för datasökvägen som ska anges med den ändrade blobsökvägen. Standardvärde: None
|
continue_on_step_failure
|
Om du vill fortsätta att köra andra steg i den skickade PipelineRun om ett steg misslyckas. Om detta anges åsidosätter detta inställningen continue_on_step_failure för pipelinen. Standardvärde: None
|
path_on_datastore
|
Valfritt. Sökvägen till det datalager som ska övervakas för ändrade/tillagda blobar. Obs! path_on_datastore finns under containern för datalagringen, så den faktiska sökvägen som schemat övervakar är container/path_on_datastore. Om det inte finns någon övervakas datalagercontainern. Tillägg/ändringar som görs i en undermapp i path_on_datastore övervakas inte. Stöds endast för DataStore-scheman. Standardvärde: None
|
Attribut
continue_on_step_failure
Hämta värdet för inställningen continue_on_step_failure
.
Returer
Typ | Description |
---|---|
Värdet för inställningen |
data_path_parameter_name
Hämta namnet på pipelineparametern för datasökvägen som ska anges med den ändrade blobsökvägen.
Returer
Typ | Description |
---|---|
Parameternamnet för datasökvägen. |
datastore_name
Hämta namnet på det datalager som används för schemat.
Returer
Typ | Description |
---|---|
Namnet på datalager. |
description
id
name
path_on_datastore
Hämta sökvägen till det datalager som schemat övervakar.
Returer
Typ | Description |
---|---|
Sökvägen till datalager. |
pipeline_endpoint_id
pipeline_id
polling_interval
Hämta hur länge, i minuter, mellan avsökning för ändrade/tillagda blobar.
Returer
Typ | Description |
---|---|
Avsökningsintervallet. |