Configurar treino autoML sem código com o estúdio UI

Neste artigo, aprende-se a configurar trabalhos de formação AutoML sem uma única linha de código utilizando ML automatizado Azure Machine Learning no estúdio do Azure Machine Learning.

Machine learning automatizado, AutoML, é um processo no qual é selecionado para si o melhor algoritmo de aprendizagem automática para os seus dados específicos. Este processo permite-lhe gerar modelos de aprendizagem automática rapidamente. Saiba mais sobre como o Azure Machine Learning implementa a aprendizagem automática de máquinas.

Para um exemplo final, experimente os modelos de classificação sem código sonoro: AutoML- train no-code.

Para uma experiência baseada em código Python, configuure as suas experiências automatizadas de aprendizagem automática com o Azure Machine Learning SDK.

Pré-requisitos

Introdução

  1. Inscreva-se na estúdio do Azure Machine Learning.

  2. Selecione a sua subscrição e espaço de trabalho.

  3. Navegue para o painel esquerdo. Selecione ML automatizado na secção Autor .

estúdio do Azure Machine Learning painel de navegação

Se esta é a sua primeira vez fazendo alguma experiência, você verá uma lista vazia e liga-se à documentação.

Caso contrário, verá uma lista das suas recentes experiências automatizadas de ML, incluindo as criadas com o SDK.

Criar e executar experiência

  1. Selecione + Novo trabalho de ML automatizado e preencha o formulário.

  2. Selecione um ativo de dados a partir do seu recipiente de armazenamento ou crie um novo ativo de dados. O ativo de dados pode ser criado a partir de ficheiros locais, urls web, datastores ou conjuntos de dados abertos Azure. Saiba mais sobre a criação de ativos de dados.

    Importante

    Requisitos dos dados de preparação:

    • Os dados devem estar em forma tabular.
    • O valor que pretende prever (coluna-alvo) deve estar presente nos dados.
    1. Para criar um novo conjunto de dados a partir de um ficheiro no seu computador local, selecione +Criar conjunto de dados e, em seguida, selecione A partir de ficheiros locais.

    2. No formulário de informações Básicas , forneça ao seu conjunto de dados um nome único e forneça uma descrição opcional.

    3. Selecione Seguinte para abrir o formulário de seleção de datas e ficheiros. Neste formulário seleciona para onde fazer o upload do conjunto de dados; o recipiente de armazenamento predefinido que é automaticamente criado com o seu espaço de trabalho, ou escolha um recipiente de armazenamento que pretende usar para a experiência.

      1. Se os seus dados estiverem por detrás de uma rede virtual, tem de ativar a função de validação para garantir que o espaço de trabalho pode aceder aos seus dados. Para obter mais informações, consulte Use estúdio do Azure Machine Learning numa rede virtual Azure.
    4. Selecione Procurar para fazer o upload do ficheiro de dados para o seu conjunto de dados.

    5. Reveja as Definições e o formulário de pré-visualização para obter uma precisão. O formulário é inteligentemente povoado com base no tipo de ficheiro.

      Campo Descrição
      Formato do ficheiro Define o layout e o tipo de dados armazenados num ficheiro.
      Delimitador Um ou mais caracteres para especificar a fronteira entre regiões separadas e independentes em texto simples ou outros fluxos de dados.
      Encoding Identifica o bit para a tabela de esquemas de caracteres para usar para ler o seu conjunto de dados.
      Cabeçalhos de coluna Indica como os cabeçalhos do conjunto de dados, se houver, serão tratados.
      Saltar filas Indica quantas, se houver, são ignoradas no conjunto de dados.

      Selecione Seguinte.

    6. O formulário Schema é inteligentemente povoado com base nas seleções no formulário Definições e pré-visualização . Aqui configurar o tipo de dados para cada coluna, rever os nomes das colunas e selecionar quais as colunas a Não incluir para a sua experiência.

      Selecione Seguinte.

    7. O formulário de detalhes confirme é um resumo das informações anteriormente povoadas nas informaçõesbásicas e definições e formulários de pré-visualização . Também tem a opção de criar um perfil de dados para o seu conjunto de dados utilizando um cálculo habilitado para perfis. Saiba mais sobre perfis de dados.

      Selecione Seguinte.

  3. Selecione o conjunto de dados recém-criado assim que aparecer. Também é possível visualizar uma pré-visualização do conjunto de dados e estatísticas da amostra.

  4. No formulário de trabalho configurar , selecione Criar novo e introduza tutorial-automl-deploy para o nome da experiência.

  5. Selecione uma coluna-alvo; esta é a coluna sobre a qual gostaria de fazer previsões.

  6. Selecione um tipo de cálculo para o trabalho de perfis de dados e formação. Pode selecionar um cluster de cálculo ou instância de computação.

  7. Selecione um cálculo da lista de downdown dos seus cálculos existentes. Para criar um novo cálculo, siga as instruções no passo 8.

  8. Selecione Crie um novo computamento para configurar o seu contexto de computação para esta experiência.

    Campo Descrição
    Nome da computação Insira um nome único que identifique o seu contexto de computação.
    Prioridade da máquina virtual As máquinas virtuais de baixa prioridade são mais baratas, mas não garantem os nós de computação.
    Tipo de máquina virtual Selecione CPU ou GPU para o tipo de máquina virtual.
    Tamanho da máquina virtual Selecione o tamanho da máquina virtual para o seu cálculo.
    Nós min / max Para perfilar os dados, tem de especificar 1 ou mais nós. Introduza o número máximo de nós para o seu cálculo. O padrão é de 6 nós para um AzureML Compute.
    Definições avançadas Estas definições permitem configurar uma conta de utilizador e uma rede virtual existente para a sua experiência.

    Selecione Criar. A criação de um novo cálculo pode demorar alguns minutos.

    Nota

    O seu nome de cálculo indicará se o cálculo que seleciona/criar está ativado. (Consulte o perfil de dados da secção para obter mais detalhes).

    Selecione Seguinte.

  9. No tipo de Tarefa e no formulário de configurações , selecione o tipo de tarefa: classificação, regressão ou previsão. Consulte os tipos de tarefas suportados para obter mais informações.

    1. Para a classificação, também pode permitir uma aprendizagem profunda.

      Se a aprendizagem profunda estiver ativada, a validação é limitada a train_validation divisão. Saiba mais sobre opções de validação.

    2. Para a previsão que pode,

      1. Permitir uma aprendizagem profunda.

      2. Selecione coluna de tempo: Esta coluna contém os dados de tempo a utilizar.

      3. Selecione horizonte de previsão: Indicar quantas unidades de tempo (minutos/horas/dias/semanas/meses/anos) serão capazes de prever para o futuro. Quanto mais longe o modelo for necessário para prever o futuro, menos preciso se torna. Saiba mais sobre previsão e previsão do horizonte.

  10. (Opcional) Ver definições de configuração de adição: definições adicionais que pode utilizar para controlar melhor o trabalho de treino. Caso contrário, os padrão são aplicados com base na seleção de experiências e dados.

    Configurações adicionais Description
    Métrica primária Métrica principal usada para marcar o seu modelo. Saiba mais sobre as métricas dos modelos.
    Explicar o melhor modelo Selecione para ativar ou desativar, de modo a mostrar explicações para o melhor modelo recomendado.
    Esta funcionalidade não está atualmente disponível para certos algoritmos de previsão.
    Algoritmo bloqueado Selecione algoritmos que pretende excluir do trabalho de treino.

    Permitir algoritmos só está disponível para experiências SDK.
    Consulte os algoritmos suportados para cada tipo de tarefa.
    Critério de saída Quando qualquer um destes critérios é cumprido, o trabalho de formação é interrompido.
    Tempo de formação (horas): Quanto tempo para permitir que o trabalho de formação corra.
    Limiar de pontuação métrica: Pontuação métrica mínima para todos os oleodutos. Isto garante que se tiver uma métrica de alvo definida que deseja alcançar, não passa mais tempo no trabalho de formação do que o necessário.
    Simultaneidade Iterações concorrentes máximas: Número máximo de oleodutos (iterações) para testar no trabalho de formação. O trabalho não funcionará mais do que o número especificado de iterações. Saiba mais sobre como a ML automatizada realiza múltiplos trabalhos infantis em clusters.
  11. (Opcional) Ver definições de visualização: se optar por ativar a visualização automática no formulário configurações de configuração adicionais , aplicam-se técnicas de aprimídus predefinidos. Nas definições de visualização do View pode alterar estes padrão e personalizar em conformidade. Saiba como personalizar as ações.

    A screenshot mostra a caixa de diálogo do tipo de tarefa Select com as definições de visualização chamadas.

  12. O formulário [Opcional] Valida e o formulário de teste permite-lhe fazer o seguinte.

    1. Especifique o tipo de validação a utilizar para o seu trabalho de treino. Saiba mais sobre validação cruzada.

      1. As tarefas de previsão suportam apenas a validação cruzada k-fold.
    2. Forneça um conjunto de dados de teste (pré-visualização) para avaliar o modelo recomendado que o ML automatizado gera para si no final da sua experiência. Quando fornece dados de teste, um teste é automaticamente ativado no final da sua experiência. Este trabalho de teste é apenas trabalho no melhor modelo que foi recomendado pela ML automatizada. Saiba como obter os resultados do teste remoto.

      Importante

      Fornecer um conjunto de dados de teste para avaliar os modelos gerados é uma funcionalidade de pré-visualização. Esta capacidade é uma funcionalidade de pré-visualização experimental e pode mudar a qualquer momento.

      • Os dados de ensaio são considerados separados do treino e da validação, de modo a não influenciar os resultados do trabalho de teste do modelo recomendado. Saiba mais sobre preconceitos durante a validação do modelo.
      • Pode fornecer o seu próprio conjunto de dados de teste ou optar por utilizar uma percentagem do conjunto de dados de treino. Os dados de teste devem ser sob a forma de um Separador de Aprendizagem de Máquinas Azure.
      • O esquema do conjunto de dados de teste deve coincidir com o conjunto de dados de treino. A coluna-alvo é opcional, mas se não for indicada nenhuma coluna-alvo, não são calculadas métricas de teste.
      • O conjunto de dados de teste não deve ser o mesmo que o conjunto de dados de treino ou o conjunto de dados de validação.
      • Os trabalhos de previsão não suportam a divisão entre comboios e testes.

      O screenshot mostra o formulário onde selecionar dados de validação e dados de teste

Personalizar a exibição

No formulário Desativação , pode ativar/desativar a caracterização automática e personalizar as definições automáticas de exibição para a sua experiência. Para abrir este formulário, consulte o passo 10 na secção Criar e executar experiências .

A tabela seguinte resume as personalizações atualmente disponíveis através do estúdio.

Coluna Personalização
Incluídos Especifica quais colunas incluir para o treino.
Tipo de recurso Altere o tipo de valor para a coluna selecionada.
Impute com Selecione com que valor imputar valores em falta nos seus dados.

estúdio do Azure Machine Learning a exibição personalizada

Executar experiência e visualizar resultados

Selecione Finish para executar a sua experiência. O processo de preparação da experimentação pode demorar até 10 minutos. As tarefas de preparação podem demorar mais 2 ou 3 minutos para cada pipeline concluir a execução.

Nota

Os algoritmos que a ML automatizada emprega têm aleatoriedade inerente que pode causar uma ligeira variação na pontuação final das métricas finais de um modelo recomendado, como precisão. A ML automatizada também realiza operações em dados como divisão de ensaios de comboio, divisão de validação de comboios ou validação cruzada quando necessário. Portanto, se executar uma experiência com as mesmas configurações e métrica primária várias vezes, provavelmente verá variação em cada experiência métricas finais pontuar devido a estes fatores.

Ver detalhes da experimentação

O ecrã 'Detalhes de Trabalho ' abre-se ao separador Detalhes . Este ecrã mostra-lhe um resumo do trabalho de experiência, incluindo uma barra de estado no topo ao lado do número de trabalho.

O separadorModelos contém uma lista dos modelos criados encomendados pela pontuação de métrica. Por predefinição, o modelo com a classificação mais alta com base na métrica escolhida está no topo da lista. À medida que a tarefa de preparação experimenta mais modelos, estes são adicionados à lista. Utilize-a para obter uma comparação rápida das métricas dos modelos produzidos até agora.

Detalhe de trabalho

Ver detalhes do trabalho de formação

Desacompra-se em qualquer um dos modelos preenchidos para ver detalhes do trabalho de formação. No separador Modelo , os detalhes são como um resumo do modelo e os hiperparmetros utilizados para o modelo selecionado.

Detalhes do hiperparmetro

Também pode ver gráficos métricos de desempenho específicos do modelo no separador Métricas.

Detalhes da iteração

No separador de transformação de Dados, pode ver um diagrama do pré-processamento de dados, engenharia de recursos, técnicas de escala e o algoritmo de aprendizagem automática que foram aplicados para gerar este modelo.

Importante

O separador de transformação de Dados está em pré-visualização. Esta capacidade deve ser considerada experimental e pode mudar a qualquer momento.

Transformação de dados

Ver resultados do trabalho de teste remoto (pré-visualização)

Se especificou um conjunto de dados de teste ou optou por uma divisão de comboio/teste durante a configuração da sua experiência-- no formulário Validado e de teste , o ML automatizado testa automaticamente o modelo recomendado por padrão. Como resultado, o ML automatizado calcula as métricas de teste para determinar a qualidade do modelo recomendado e as suas previsões.

Importante

Testar os seus modelos com um conjunto de dados de teste para avaliar os modelos gerados é uma funcionalidade de pré-visualização. Esta capacidade é uma funcionalidade de pré-visualização experimental e pode mudar a qualquer momento.

Para visualizar as métricas de trabalho de teste do modelo recomendado,

  1. Navegue na página Modelos , selecione o melhor modelo.
  2. Selecione o separador resultados do Teste (pré-visualização ).
  3. Selecione o trabalho que deseja e veja o separador Métricas . Teste o separador de resultados do modelo recomendado automaticamente testado

Para visualizar as previsões de teste utilizadas para calcular as métricas de teste,

  1. Navegue para a parte inferior da página e selecione o link no conjunto de dados de Saídas para abrir o conjunto de dados.
  2. Na página Datasets , selecione o separador Explore para ver as previsões do teste.
    1. Em alternativa, o ficheiro de previsão também pode ser visualizado/descarregado a partir do separador Saídas + registos , expandir a pasta Previsões para localizar o seu predicted.csv ficheiro.

Em alternativa, o ficheiro de previsões também pode ser visualizado/descarregado a partir do separador Saídas + registos, expandir a pasta de Previsões para localizar o seu ficheiro predictions.csv.

O teste de modelo gera o ficheiro predictions.csv que é armazenado na datastore padrão criada com o espaço de trabalho. Esta loja de dados é visível para todos os utilizadores com a mesma subscrição. Os trabalhos de ensaio não são recomendados para cenários se alguma das informações utilizadas ou criadas pelo trabalho de teste tiver de permanecer privada.

Testar um modelo ML automatizado existente (pré-visualização)

Importante

Testar os seus modelos com um conjunto de dados de teste para avaliar os modelos gerados é uma funcionalidade de pré-visualização. Esta capacidade é uma funcionalidade de pré-visualização experimental e pode mudar a qualquer momento.

Após a conclusão da sua experiência, pode testar os modelos(s) que ml automatizados geram para si. Se pretender testar um modelo ml diferente, não o modelo recomendado, pode fazê-lo com os seguintes passos.

  1. Selecione um trabalho de experiência ml automatizado existente.

  2. Navegue no separador Modelos do trabalho e selecione o modelo completo que pretende testar.

  3. Na página 'Detalhes ' do modelo, selecione o botão de pré-visualização do modelo de teste para abrir o painel do modelo de Teste .

  4. No painel de modelos de Teste , selecione o cluster de cálculo e um conjunto de dados de teste que pretende utilizar para o seu trabalho de teste.

  5. Selecione o botão Testar. O esquema do conjunto de dados de teste deve coincidir com o conjunto de dados de treino, mas a coluna-alvo é opcional.

  6. Após a criação bem sucedida do trabalho de teste de modelo, a página Detalhes exibe uma mensagem de sucesso. Selecione o separador resultados do Teste para ver o progresso do trabalho.

  7. Para visualizar os resultados do teste, abra a página Detalhes e siga os passos na vista dos resultados da secção de teste remoto .

    Forma de modelo de teste

Explicações do modelo (pré-visualização)

Para melhor compreender o seu modelo, pode ver quais as características de dados (cruas ou concebidas) que influenciaram as previsões do modelo com o painel de explicações do modelo.

O painel de explicações do modelo fornece uma análise global do modelo treinado juntamente com as suas previsões e explicações. Também permite perfurar um ponto de dados individual e a sua importância individual. Saiba mais sobre as visualizações do painel de explicação.

Para obter explicações para um modelo em particular,

  1. No separador Modelos , selecione o modelo que pretende entender.

  2. Selecione o botão do modelo Explicar e forneça um cálculo que possa ser usado para gerar as explicações.

  3. Verifique a conta de trabalhos infantis para obter o estado.

  4. Uma vez concluído, navegue para o separador Explicações (pré-visualização) que contém o painel de explicações.

    Painel de explicação do modelo

Editar e submeter empregos (pré-visualização)

Importante

A capacidade de copiar, editar e submeter uma nova experiência baseada numa experiência existente é uma funcionalidade de pré-visualização. Esta capacidade é uma funcionalidade de pré-visualização experimental e pode mudar a qualquer momento.

Em cenários em que gostaria de criar uma nova experiência baseada nas definições de uma experiência existente, a ML automatizada fornece a opção de fazê-lo com o Botão Edit e submeter no UI do estúdio.

Esta funcionalidade limita-se a experiências iniciadas a partir do estúdio UI e requer o esquema de dados para a nova experiência para combinar com a da experiência original.

O botão Editar e submeter abre o Novo assistente de trabalho automatizado de ML com as definições de dados, cálculo e experiência pré-povoadas. Pode analisar cada formulário e editar as seleções conforme necessário para a sua nova experiência.

Implemente o seu modelo

Quando tem o melhor modelo em mãos, é o momento de o implementar como um serviço Web para prever novos dados.

Dica

Se procura implementar um modelo que foi gerado através do automl pacote com o Python SDK, tem de registar o seu modelo no espaço de trabalho.

Uma vez registado o modelo, encontre-o no estúdio selecionando Modelos no painel esquerdo. Assim que abrir o modelo, pode selecionar o botão Desdobrar na parte superior do ecrã e, em seguida, seguir as instruções descritas como descrito no passo 2 da secção 'Implementar' .

O ML automatizado ajuda-o a implementar o modelo sem escrever código:

  1. Tem algumas opções para a implantação.

    • Opção 1: Implementar o melhor modelo, de acordo com os critérios métricos definidos.

      1. Após a conclusão da experiência, navegue para a página de trabalho dos pais selecionando Job 1 no topo do ecrã.
      2. Selecione o modelo listado na secção de resumo do modelo Best .
      3. Selecione Desdobre-se na parte superior esquerda da janela.
    • Opção 2: Implementar uma iteração específica do modelo desta experiência.

      1. Selecione o modelo desejado no separador Modelos
      2. Selecione Desdobre-se na parte superior esquerda da janela.
  2. Povoar o painel de modelos de implantação .

    Campo Valor
    Nome Insira um nome único para a sua implantação.
    Description Introduza uma descrição para identificar melhor para que é esta implantação.
    Tipo de computação Selecione o tipo de ponto final que pretende implementar: Azure Kubernetes Service (AKS) ou Azure Container Instance (ACI).
    Nome da computação Aplica-se apenas a AKS: Selecione o nome do cluster AKS para o quais pretende implementar.
    Ative a autenticação Selecione para permitir a autenticação baseada em símbolos ou em teclas.
    Utilize ativos de implantação personalizados Ative esta funcionalidade se quiser carregar o seu próprio script de pontuação e ficheiro ambiente. Caso contrário, a ML automatizada fornece estes ativos por defeito. Saiba mais sobre os scripts de classificação.

    Importante

    Os nomes dos ficheiros devem ter menos de 32 caracteres e devem começar e terminar com alfanuméricos. Podem incluir traços, carateres de sublinhado, pontos e carateres alfanuméricos. Não são permitidos espaços.

    O menu Avançado oferece funcionalidades de implementação predefinidas, como definições de utilização de recursos e recolha de dados. Se quiser substituir estas predefinições, poderá fazê-lo neste menu.

  3. Selecione Implementar. A conclusão da implementação pode demorar cerca de 20 minutos. Assim que a implementação for iniciada, o separador Resumo do modelo é apresentado. Veja o progresso da implementação na secção Estado da implementação.

Agora, tem um serviço Web operacional para gerar predições! Pode testar as predições ao consultar o serviço no Suporte do Azure Machine Learning integrado no Power BI.

Passos seguintes