Share via


O que é o Azure Machine Learning designer (v1)?

O designer do Azure Machine Learning é uma interface de arrastar e soltar usada para treinar e implantar modelos no Azure Machine Learning. Este artigo descreve as tarefas que você pode fazer no designer.

Nota

O Designer suporta dois tipos de componentes, componentes pré-construídos clássicos (v1) e componentes personalizados (v2). Estes dois tipos de componentes NÃO são compatíveis.

Os componentes pré-construídos clássicos fornecem componentes pré-construídos principalmente para processamento de dados e tarefas tradicionais de aprendizado de máquina, como regressão e classificação. Este tipo de componente continua a ser suportado, mas não terá novos componentes adicionados.

Os componentes personalizados permitem que você envolva seu próprio código como um componente. Ele suporta o compartilhamento de componentes entre espaços de trabalho e a criação contínua nas interfaces Studio, CLI v2 e SDK v2.

Para novos projetos, sugerimos que você use o componente personalizado, que é compatível com o AzureML V2 e continuará recebendo novas atualizações.

Este artigo se aplica a componentes pré-criados clássicos e não são compatíveis com CLI v2 e SDK v2.

  • Para começar a usar o designer, consulte Tutorial: Treinar um modelo de regressão sem código.
  • Para saber mais sobre os componentes disponíveis no designer, consulte a Referência de algoritmo e componente.

GIF of a building a pipeline in the designer.

O designer usa seu espaço de trabalho do Azure Machine Learning para organizar recursos compartilhados, como:

Treinamento e implantação de modelos

Use uma tela visual para criar um fluxo de trabalho de aprendizado de máquina de ponta a ponta. Treine, teste e implante modelos no designer:

  • Arraste e solte ativos de dados e componentes na tela.
  • Conecte os componentes para criar um rascunho de pipeline.
  • Envie uma execução de pipeline usando os recursos de computação em seu espaço de trabalho do Azure Machine Learning.
  • Converta seus pipelines de treinamento em pipelines de inferência.
  • Publique seus pipelines em um ponto de extremidade de pipeline REST para enviar um novo pipeline que seja executado com diferentes parâmetros e ativos de dados.
    • Publique um pipeline de treinamento para reutilizar um único pipeline para treinar vários modelos enquanto altera parâmetros e ativos de dados.
    • Publique um pipeline de inferência em lote para fazer previsões sobre novos dados usando um modelo treinado anteriormente.
  • Implante um pipeline de inferência em tempo real em um endpoint online para fazer previsões sobre novos dados em tempo real.

Workflow diagram for training, batch inference, and real-time inference in the designer.

Pipeline

Um pipeline consiste em ativos de dados e componentes analíticos, que você conecta. Os pipelines têm muitos usos: você pode fazer um pipeline que treina um único modelo ou um que treina vários modelos. Você pode criar um pipeline que faça previsões em tempo real ou em lote, ou criar um pipeline que limpe apenas dados. Os pipelines permitem que você reutilize seu trabalho e organize seus projetos.

Projeto de gasoduto

À medida que você edita um pipeline no designer, seu progresso é salvo como um rascunho de pipeline. Você pode editar um rascunho de pipeline a qualquer momento adicionando ou removendo componentes, configurando destinos de computação, criando parâmetros e assim por diante.

Um pipeline válido tem estas características:

  • Os ativos de dados só podem se conectar a componentes.
  • Os componentes só podem se conectar a ativos de dados ou outros componentes.
  • Todas as portas de entrada para componentes devem ter alguma conexão com o fluxo de dados.
  • Todos os parâmetros necessários para cada componente devem ser definidos.

Quando estiver pronto para executar o rascunho do pipeline, envie um trabalho de pipeline.

Trabalho de pipeline

Cada vez que você executa um pipeline, a configuração do pipeline e seus resultados são armazenados em seu espaço de trabalho como um trabalho de pipeline. Você pode voltar a qualquer trabalho de pipeline para inspecioná-lo para solução de problemas ou auditoria. Clone um trabalho de pipeline para criar um novo rascunho de pipeline para você editar.

Os trabalhos de pipeline são agrupados em experimentos para organizar o histórico de trabalhos. Você pode definir o experimento para cada trabalho de pipeline.

Dados

Um ativo de dados de aprendizado de máquina facilita o acesso e o trabalho com seus dados. Vários ativos de dados de exemplo são incluídos no designer para você experimentar. Você pode registrar mais ativos de dados conforme necessário.

Componente

Um componente é um algoritmo que você pode executar em seus dados. O estruturador tem vários componentes desde funções de entrada de dados a processos de preparação, classificação e validação.

Um componente pode ter um conjunto de parâmetros que você pode usar para configurar os algoritmos internos do componente. Quando você seleciona um componente na tela, os parâmetros do componente são exibidos no painel Propriedades à direita da tela. Pode modificar os parâmetros nesse painel para otimizar o seu modelo. Pode definir os recursos de computação para componentes individuais no estruturador.

Screenshot showing the component properties.

Para obter ajuda para navegar pela biblioteca de algoritmos de aprendizado de máquina disponíveis, consulte Visão geral da referência do componente Algoritmo & . Para obter ajuda com a escolha de um algoritmo, consulte o Azure Machine Learning Algorithm Cheat Sheet.

Recursos de computação

Use recursos de computação do seu espaço de trabalho para executar seu pipeline e hospedar seus modelos implantados como pontos de extremidade online ou pontos de extremidade de pipeline (para inferência em lote). Os destinos de computação suportados são:

Destino de computação Formação Implementação
Computação do Azure Machine Learning
Azure Kubernetes Service

Os destinos de computação são anexados ao seu espaço de trabalho do Azure Machine Learning. Você gerencia seus destinos de computação em seu espaço de trabalho no estúdio do Azure Machine Learning.

Implementar

Para executar inferências em tempo real, você deve implantar um pipeline como um ponto de extremidade online. O ponto de extremidade online cria uma interface entre um aplicativo externo e seu modelo de pontuação. Uma chamada para um ponto de extremidade online retorna os resultados da previsão para o aplicativo em tempo real. Para fazer uma chamada para um ponto de extremidade online, passe a chave de API que foi criada quando você implantou o ponto de extremidade. O endpoint é baseado em REST, uma escolha de arquitetura popular para projetos de programação web.

Os pontos de extremidade online devem ser implantados em um cluster do Serviço Kubernetes do Azure.

Para saber como implantar seu modelo, consulte Tutorial: Implantar um modelo de aprendizado de máquina com o designer.

Publicar

Você também pode publicar um pipeline em um ponto de extremidade de pipeline. Semelhante a um ponto de extremidade online, um ponto de extremidade de pipeline permite enviar novos trabalhos de pipeline de aplicativos externos usando chamadas REST. No entanto, não é possível enviar ou receber dados em tempo real usando um ponto de extremidade de pipeline.

Os pipelines publicados são flexíveis, podem ser usados para treinar ou retreinar modelos, realizar inferências em lote, processar novos dados e muito mais. Você pode publicar vários pipelines em um único ponto de extremidade de pipeline e especificar qual versão de pipeline deve ser executada.

Um pipeline publicado é executado nos recursos de computação definidos no rascunho do pipeline para cada componente.

O designer cria o mesmo objeto PublishedPipeline que o SDK.

Próximos passos

  • Aprenda os fundamentos da análise preditiva e do aprendizado de máquina com o Tutorial: Preveja o preço do automóvel com o designer
  • Saiba como modificar amostras de designer existentes para adaptá-las às suas necessidades.