Che cos'è la finestra di progettazione di Azure Machine Learning (v1)?

La finestra di progettazione di Azure Machine Learning è un'interfaccia basata su trascinamento della selezione usata per eseguire il training e la distribuzione dei modelli in Azure Machine Learning. Questo articolo descrive le attività che è possibile eseguire nella finestra di progettazione.

Nota

La finestra di progettazione supporta due tipi di componenti, ovvero i componenti predefiniti classici (v1) e i componenti personalizzati (v2). Questi due tipi di componenti NON sono compatibili.

I componenti predefiniti classici forniscono componenti predefiniti principalmente per l'elaborazione dati e le attività di Machine Learning tradizionali come la regressione e la classificazione. Questo tipo di componente continua a essere supportato, ma non avrà nuove aggiunte future.

I componenti personalizzati consentono di eseguire il wrapping del codice personalizzato come componente. Questa opzione supporta la condivisione di componenti tra aree di lavoro e la creazione senza interruzioni nelle interfacce di Studio, CLI v2 e SDK v2.

Per i nuovi progetti, è consigliabile usare un componente personalizzato che sia compatibile con AzureML V2 e che continui a ricevere nuovi aggiornamenti.

Questo articolo si applica ai componenti predefiniti classici e non compatibili con CLI v2 e SDK v2.

GIF of a building a pipeline in the designer.

La finestra di progettazione usa l'area di lavoro di Azure Machine Learning per organizzare le risorse condivise, ad esempio:

Training e distribuzione dei modelli

Usare un canvas visivo per creare un flusso di lavoro di Machine Learning end-to-end. Eseguire il training, testare e distribuire tutti i modelli nella finestra di progettazione:

  • Trascinare la selezione di asset di dati e componentinel canvas.
  • Connettere i componenti per creare una bozza della pipeline.
  • Inviare un'esecuzione della pipeline usando le risorse di calcolo nell'area di lavoro Azure Machine Learning.
  • Convertire le pipeline di training in pipeline di inferenza.
  • Pubblicare le proprie pipeline in un endpoint di pipeline REST per inviare una nuova pipeline eseguita con parametri e asset di dati diversi.
    • Pubblicare una pipeline di training per riusare una singola pipeline per il training di più modelli durante la modifica di parametri e asset di dati.
    • Pubblicare una pipeline di inferenza batch per eseguire stime sui nuovi dati usando un modello precedentemente sottoposto a training.
  • Distribuire una pipeline di inferenza in tempo reale in un endpoint online per eseguire stime sui nuovi dati in tempo reale.

Workflow diagram for training, batch inference, and real-time inference in the designer.

Pipeline

Una pipeline è costituita da asset di dati e componenti analitici, che vengono connessi. Le pipeline hanno molti usi: è possibile creare una pipeline che esegue il training di un singolo modello o una pipeline che esegue il training di più modelli. È possibile creare una pipeline che esegue stime in tempo reale o in batch oppure creare una pipeline che pulisca solo i dati. Le pipeline consentono di riusare il lavoro e organizzare i progetti.

Bozza di pipeline

Quando si modifica una pipeline nella finestra di progettazione, lo stato viene salvato come bozza di pipeline. È possibile modificare una bozza di pipeline in qualsiasi momento aggiungendo o rimuovendo componenti, configurando le destinazioni di calcolo, creando parametri e così via.

Di seguito sono riportate le caratteristiche di una pipeline valida:

  • Gli asset di dati possono connettersi solo ai componenti.
  • I componenti possono connettersi solo ad asset di dati o ad altri componenti.
  • Tutte le porte di input per i componenti devono avere una connessione al flusso di dati.
  • Tutti i parametri necessari per ogni componente devono essere impostati.

Quando si è pronti per eseguire la bozza di pipeline, si invia un processo della pipeline.

Processo della pipeline

Ogni volta che si esegue una pipeline, la sua configurazione e i risultati vengono archiviati nell'area di lavoro come processo della pipeline. È possibile tornare a un processo della pipeline per esaminarlo ai fini della risoluzione di problemi o per un controllo. Clonare un processo della pipeline per creare una nuova bozza di pipeline da modificare.

I processi della pipeline vengono raggruppati in esperimenti per organizzare la cronologia dei processi. È possibile impostare l'esperimento per ogni processo della pipeline.

Dati

Un asset di dati di Machine Learning semplifica l'accesso e l'uso dei dati. Numerosi Esempi di asset di dati con cui sperimentare sono inclusi nella finestra di progettazione. È possibile registrare più asset di dati in base alle necessità.

Componente

Un componente è un algoritmo che è possibile applicare ai dati. La finestra di progettazione include numerosi componenti, dalle funzioni di ingresso dei dati ai processi di training, assegnazione punteggio e convalida.

Un componente può avere un set di parametri che è possibile usare per configurare gli algoritmi interni del componente. Quando si seleziona un componente nel canvas, i parametri del componente sono visualizzati nel riquadro Proprietà a destra del canvas. È possibile modificare i parametri in questo riquadro per ottimizzare il modello. È possibile impostare le risorse di calcolo per i singoli componenti nella finestra di progettazione.

Screenshot showing the component properties.

Per informazioni su come spostarsi nella libreria di algoritmi di Machine Learning disponibili, vedere la Panoramica delle informazioni di riferimento sugli algoritmi e i componenti. Per informazioni sulla scelta di un algoritmo, vedere la Scheda di riferimento rapido sull'algoritmo di Azure Machine Learning.

Risorse di calcolo

Usare le risorse di calcolo dall'area di lavoro per eseguire la pipeline e ospitare i modelli distribuiti come endpoint online o endpoint della pipeline (per l'inferenza batch). Le destinazioni di calcolo supportate sono:

Destinazione del calcolo Formazione Distribuzione
Ambiente di calcolo di Azure Machine Learning
Servizio Azure Kubernetes

Le destinazioni di calcolo sono collegate all'area di lavoro di Azure Machine Learning. È possibile gestire le destinazioni di calcolo nell'area di lavoro in Azure Machine Learning Studio.

Distribuzione

Per eseguire l'inferenza in tempo reale, è necessario distribuire una pipeline come endpoint online. L'endpoint online crea un'interfaccia tra un'applicazione esterna e il modello di punteggio. Una chiamata a un endpoint online restituisce i risultati della stima all'applicazione in tempo reale. Per effettuare una chiamata a un endpoint online, passare una chiave API creata al momento della distribuzione dell'endpoint. Un endpoint è basato su REST, un'opzione di architettura diffusa per progetti di programmazione Web.

Gli endpoint online devono essere distribuiti in un cluster del servizio Azure Kubernetes.

Per informazioni su come distribuire il proprio modello, vedere Esercitazione: distribuire un modello di Machine Learning con la finestra di progettazione.

Pagina

È anche possibile pubblicare una pipeline in un endpoint della pipeline. Analogamente a un endpoint online, un endpoint della pipeline consente di inviare i nuovi processi delle pipeline da applicazioni esterne usando le chiamate REST. Non è tuttavia possibile inviare o ricevere dati in tempo reale tramite un endpoint della pipeline.

Le pipeline pubblicate sono flessibili e possono essere usate per eseguire o ripetere il training dei modelli, eseguire l'inferenza batch, elaborare nuovi dati e molto altro ancora. È possibile pubblicare più pipeline in un singolo endpoint della pipeline e specificare quale versione della pipeline eseguire.

Una pipeline pubblicata viene eseguita nelle risorse di calcolo definite nella bozza di pipeline per ogni componente.

La finestra di progettazione crea lo stesso oggetto PublishedPipeline dell'SDK.

Passaggi successivi