core Pacchetto
Contiene le funzionalità di base per le pipeline di Azure Machine Learning, che sono flussi di lavoro di Machine Learning configurabili.
Le pipeline di Azure Machine Learning consentono di creare flussi di lavoro di Machine Learning resusable che possono essere usati come modello per gli scenari di Machine Learning. Questo pacchetto contiene le funzionalità principali per l'uso delle pipeline di Azure ML e viene in genere usato insieme alle classi nel steps pacchetto.
Una pipeline di Machine Learning è rappresentata da una raccolta di PipelineStep oggetti che possono essere sequenziati e parallelizzati o creati con dipendenze esplicite tra i passaggi. I passaggi della pipeline vengono usati per definire un Pipeline oggetto che rappresenta il flusso di lavoro da eseguire. È possibile creare e usare pipeline in un Jupyter Notebook o in qualsiasi altro IDE con Azure ML SDK installato.
Le pipeline di Azure ML consentono di concentrarsi sull'apprendimento automatico anziché sull'infrastruttura. Per iniziare a creare una pipeline, vedere https://aka.ms/pl-first-pipeline.
Per altre informazioni sui vantaggi della pipeline di Machine Learning e su come sono correlate ad altre pipeline offerte da Azure, vedere Che cosa sono le pipeline di Machine Learning nel servizio Azure Machine Learning?
Moduli
builder |
Definisce le classi per la creazione di una pipeline di Azure Machine Learning. Un grafico della pipeline è costituito da passaggi della pipeline (), dati della pipeline facoltativi (PipelineStepPipelineData) prodotti o usati in ogni passaggio e una sequenza di esecuzione facoltativa dei passaggi (StepSequence). |
graph |
Definisce le classi per la creazione di grafici della pipeline di Azure Machine Learning. I grafici della pipeline di Azure ML vengono creati per Pipeline gli oggetti, quando si usano PipelineStep (e classi derivate), PipelineDatae PipelineData gli oggetti . In casi d'uso tipici non sarà necessario usare direttamente le classi in questo modulo. Un grafico di esecuzione della pipeline è costituito da nodi del modulo che rappresentano unità di base, ad esempio un'origine dati o un passaggio. I nodi possono avere porte di input e porte di output e parametri associati. I bordi definiscono le relazioni tra due porte del nodo in un grafico. |
module |
Contiene classi per la creazione e la gestione di unità di calcolo resusable di una pipeline di Azure Machine Learning. I moduli consentono di creare unità di calcolo in un Pipeline, che possono avere input, output e si basano su parametri e una configurazione dell'ambiente da operare. Un modulo può essere modificato e usato in pipeline di Azure Machine Learning diverse a differenza PipelineStep di (e classi derivate) usate in una pipeline. I moduli sono progettati per essere riutilizzati in diverse pipeline e possono evolversi per adattare una logica di calcolo specifica per casi d'uso diversi. Un passaggio in una pipeline può essere usato in iterazioni veloci per migliorare un algoritmo e una volta raggiunto l'obiettivo, l'algoritmo viene in genere pubblicato come modulo per abilitare il riutilizzo. |
module_step_base |
Contiene funzionalità per aggiungere un passaggio a una pipeline usando una versione di un Moduleoggetto . |
pipeline |
Definisce la classe per la creazione di flussi di lavoro riutilizzabili di Azure Machine Learning. |
pipeline_draft |
Definisce le classi per la gestione delle pipeline modificabili. |
pipeline_endpoint |
Definisce le classi per la gestione delle pipeline, tra cui il controllo delle versioni e gli endpoint. |
pipeline_output_dataset |
Contiene funzionalità per promuovere un output intermedio in un set di dati di Azure Machine Learning. I dati intermedi (output) in una pipeline per impostazione predefinita non diventano un set di dati di Azure Machine Learning. Per promuovere i dati intermedi in un set di dati di Azure Machine Learning, chiamare il as_dataset metodo nella classe PipelineData per restituire un PipelineOutputFileDataset oggetto. Da un oggetto PipelineOutputFileDataset è quindi possibile creare un PipelineOutputTabularDataset oggetto. |
run |
Definisce le classi per le pipeline inviate, incluse le classi per il controllo dello stato e il recupero dei dettagli dell'esecuzione. |
schedule |
Definisce le classi per la pianificazione degli invii di pipeline di Azure Machine Learning. |
Classi
InputPortBinding |
Definisce un'associazione da un'origine a un input di un passaggio della pipeline. Un InputPortBinding può essere usato come input per un passaggio. L'origine può essere un PipelineDataoggetto , PortDataReference, DataReference, PipelineDataseto OutputPortBinding. InputPortBinding è utile per specificare il nome dell'input del passaggio, se deve essere diverso dal nome dell'oggetto bind, ad esempio per evitare nomi di input/output duplicati o perché lo script di passaggio necessita di un input per avere un determinato nome. Può essere usato anche per specificare il bind_mode per PythonScriptStep gli input. Inizializzare InputPortBinding. |
Module |
Rappresenta un'unità di calcolo usata in una pipeline di Azure Machine Learning. Un modulo è una raccolta di file che verranno eseguiti su una destinazione di calcolo e una descrizione di un'interfaccia. La raccolta di file può essere script, file binari o qualsiasi altro file necessario per l'esecuzione nella destinazione di calcolo. L'interfaccia del modulo descrive input, output e definizioni di parametri. Non li associa a valori o dati specifici. Un modulo ha uno snapshot associato a esso, che acquisisce la raccolta di file definiti per il modulo. Inizializzare il modulo. |
ModuleVersion |
Rappresenta l'unità di calcolo effettiva all'interno di un Moduleoggetto . Non è consigliabile usare direttamente questa classe. Usare invece uno dei metodi di pubblicazione della Module classe. Inizializzare ModuleVersion. |
ModuleVersionDescriptor |
Definisce la versione e l'ID di un ModuleVersionoggetto . Inizializzare ModuleVersionDescriptor. |
OutputPortBinding |
Definisce un output denominato di un passaggio della pipeline. OutputPortBinding può essere usato per specificare il tipo di dati che verrà prodotto da un passaggio e come verranno generati i dati. Può essere usato con InputPortBinding per specificare che l'output del passaggio è un input obbligatorio di un altro passaggio. Inizializzare OutputPortBinding. |
Pipeline |
Rappresenta una raccolta di passaggi che possono essere eseguiti come flusso di lavoro riutilizzabile di Azure Machine Learning. Usare una pipeline per creare e gestire i flussi di lavoro che unisce varie fasi di Machine Learning. Ogni fase di Machine Learning, ad esempio preparazione dei dati e training del modello, può essere costituita da uno o più passaggi in una pipeline. Per una panoramica di perché e quando usare pipeline, vedere https://aka.ms/pl-concept. Per una panoramica sulla costruzione di una pipeline, vedere https://aka.ms/pl-first-pipeline. Inizializzare la pipeline. |
PipelineData |
Rappresenta i dati intermedi in una pipeline di Azure Machine Learning. I dati usati nella pipeline possono essere generati da un passaggio e utilizzati in un altro passaggio fornendo un oggetto PipelineData come output di un passaggio e un input di uno o più passaggi successivi. Si noti se si usano i dati della pipeline, assicurarsi che la directory usata esista. Un esempio python per assicurarsi che la directory esista, si supponga di avere una porta di output denominata output_folder in un unico passaggio della pipeline, si desidera scrivere alcuni dati nel percorso relativo in questa cartella.
PipelineData usa dataReference sottostante che non è più l'approccio consigliato per l'accesso ai dati e il recapito, usare invece OutputFileDatasetConfig , è possibile trovare l'esempio seguente: Pipeline con OutputFileDatasetConfig. Inizializzare PipelineData. |
PipelineDataset |
Funge da adattatore per Set di dati e pipeline. Nota Questa classe è deprecata. Informazioni su come usare il set di dati con la pipeline, vedere https://aka.ms/pipeline-with-dataset. Si tratta di una classe interna. Non è consigliabile creare direttamente questa classe, ma chiamare i metodi di istanza di as_* nei set di dati o nelle classi OutputDatasetConfig. Fungere da adattatore per set di dati e pipeline. Si tratta di una classe interna. Non è consigliabile creare direttamente questa classe, ma chiamare i metodi di istanza di as_* nei set di dati o nelle classi OutputDatasetConfig. |
PipelineDraft |
Rappresenta una pipeline modificabile che può essere usata per inviare esecuzioni e creare pipeline pubblicate. Usare PipelineDrafts per eseguire l'iterazione nelle pipeline. PipelineDrafts può essere creato da zero, da un'altra pipelineDraft o da pipeline esistenti: Pipeline, PublishedPipelineo PipelineRun. Inizializzare PipelineDraft. |
PipelineEndpoint |
Rappresenta un Pipeline flusso di lavoro che può essere attivato da un URL univoco dell'endpoint. È possibile usare PipelineEndpoints per creare nuove versioni di un PublishedPipeline oggetto mantenendo lo stesso endpoint. PipelineEndpoints è denominato in modo univoco all'interno di un'area di lavoro. Usando l'attributo endpoint di un oggetto PipelineEndpoint, è possibile attivare nuove esecuzioni della pipeline da applicazioni esterne con chiamate REST. Per informazioni su come eseguire l'autenticazione quando si chiamano endpoint REST, vedere https://aka.ms/pl-restep-auth. Per altre informazioni sulla creazione ed esecuzione di pipeline di Machine Learning, vedere https://aka.ms/pl-first-pipeline. Inizializzare PipelineEndpoint. |
PipelineParameter |
Definisce un parametro in un'esecuzione della pipeline. Usare PipelineParameters per costruire pipeline versatili che possono essere restituite in un secondo momento con valori di parametro variabili. Inizializzare i parametri della pipeline. |
PipelineRun |
Rappresenta un'esecuzione di un Pipelineoggetto . Questa classe può essere usata per gestire, controllare lo stato e recuperare i dettagli dell'esecuzione dopo l'invio di un'esecuzione della pipeline. Usare get_steps per recuperare gli StepRun oggetti creati dall'esecuzione della pipeline. Altri usi includono il recupero dell'oggetto Graph associato all'esecuzione della pipeline, il recupero dello stato dell'esecuzione della pipeline e l'attesa del completamento dell'esecuzione. Inizializzare un'esecuzione della pipeline. |
PipelineStep |
Rappresenta un passaggio di esecuzione in una pipeline di Azure Machine Learning. Le pipeline vengono costruite da più passaggi della pipeline, che sono unità di calcolo distinte nella pipeline. Ogni passaggio può essere eseguito in modo indipendente e può usare risorse di calcolo isolate. Ogni passaggio ha in genere input, output e parametri denominati. La classe PipelineStep è la classe base da cui ereditano altre classi di passaggio predefinite progettate per scenari comuni, ad esempio PythonScriptStep, DataTransferStepe HyperDriveStep. Per una panoramica della correlazione tra Pipeline e PipelineSteps, vedere Informazioni sulle pipeline di Machine Learning. Inizializzare PipelineStep. |
PortDataReference |
Modella i dati associati a un output di un stepRun completato. È possibile utilizzare un oggetto PortDataReference per scaricare i dati di output generati da un oggetto StepRun. Può anche essere usato come input in un passaggio in una pipeline futura. Inizializzare PortDataReference. |
PublishedPipeline |
Rappresenta una pipeline da inviare senza il codice Python che lo ha costruito. Inoltre, è possibile usare una proprietà PublishedPipeline per inviare di nuovo un oggetto Pipeline con valori e input diversi PipelineParameter . Inizializzare PublishedPipeline. :p aram endpoint L'URL dell'endpoint REST per inviare le esecuzioni della pipeline per questa pipeline. :type endpoint: str :p aram total_run_steps: numero di passaggi in questa pipeline :type total_run_steps: int :p aram workspace: l'area di lavoro della pipeline pubblicata. :type workspace: azureml.core.Workspace :p aram continue_on_step_failure: Indica se continuare l'esecuzione di altri passaggi in PipelineRun se un passaggio ha esito negativo, il valore predefinito è false. |
Schedule |
Definisce una pianificazione in base alla quale inviare una pipeline. Dopo la pubblicazione di una pipeline, è possibile usare una pianificazione per inviare la pipeline a un intervallo specificato o quando vengono rilevate modifiche a un percorso di archiviazione BLOB. Inizializza pianificazione. |
ScheduleRecurrence |
Definisce la frequenza, l'intervallo e l'ora di inizio di una pipeline Schedule. ScheduleRecurrence consente anche di specificare il fuso orario e le ore o i minuti o i giorni della settimana per la ricorrenza. Inizializzare una ricorrenza della pianificazione. Consente inoltre di specificare il fuso orario e le ore o i minuti o i giorni della settimana per la ricorrenza. |
StepRun |
Esecuzione di un passaggio in un oggetto Pipeline. Questa classe può essere usata per gestire, controllare lo stato e recuperare i dettagli dell'esecuzione dopo l'invio dell'esecuzione della pipeline padre e la pipeline ha inviato l'esecuzione del passaggio. Inizializzare un'istruzione StepRun. |
StepRunOutput |
Rappresenta un output creato da un StepRun oggetto in una pipeline. È possibile usare StepRunOutput per accedere all'oggetto PortDataReference creato dal passaggio. Inizializzare StepRunOutput. |
StepSequence |
Rappresenta un elenco di passaggi in un Pipeline oggetto e l'ordine in cui eseguirli. Usare stepSequence durante l'inizializzazione di una pipeline per creare un flusso di lavoro contenente i passaggi da eseguire in un ordine specifico. Inizializzare StepSequence. |
TrainingOutput |
Definisce un output specializzato di alcuni pipelineSteps da usare in una pipeline. TrainingOutput consente di rendere disponibile una metrica o un modello di Machine Learning automatizzato come output del passaggio da usare con un altro passaggio in una pipeline di Azure Machine Learning. Può essere usato con AutoMLStep o HyperDriveStep. Inizializzare TrainingOutput. param model_file: file di modello specifico da includere nell'output. Solo per HyperDriveStep . |
Enumerazioni
TimeZone |
Enumera i fusi orari validi per una ricorrenza Schedule. |