Configure o treinamento AutoML sem código para dados tabulares com a IU do estúdio

Neste artigo, você aprenderá a configurar os trabalhos de treinamento de AutoML sem uma única linha de código usando o ML automatizado do Azure Machine Learning no Estúdio do Azure Machine Learning.

O machine learning automatizado, AutoML, é um processo no qual o melhor algoritmo de machine learning a ser usado para seus dados específicos é selecionado para você. Esse processo permite que você gere modelos de machine learning rapidamente. Saiba mais sobre como o Azure Machine Learning implementa o machine learning automatizado.

Para um exemplo de ponta a ponta, experimente o Tutorial: AutoML– treinar modelos de classificação sem código.

Para uma experiência baseada em códigos Python, configure seus experimentos de machine Learning automatizado com o SDK do Azure Machine Learning.

Pré-requisitos

Introdução

  1. Entre no Estúdio do Azure Machine Learning.

  2. Selecione sua assinatura e seu espaço de trabalho.

  3. Navegue até o painel esquerdo. Selecione ML automatizado na seção Autorização.

Azure Machine Learning studio navigation pane

Se esta for sua primeira vez fazendo experimentos, você verá uma lista vazia e links para a documentação.

Caso contrário, você verá uma lista dos seus experimentos de ML automatizados recentes, incluindo aqueles criados com o SDK.

Criar e executar o experimento

  1. Selecione + Novo trabalho de ML automatizado e preencha o formulário.

  2. Selecione um ativo de dados no seu contêiner de armazenamento ou crie um novo. Os ativos de dados podem ser criados a partir de arquivos locais, URLs da Web, armazenamento de dados ou Azure Open Datasets. Saiba mais sobre acriação do ativo de dados.

    Importante

    Requisitos para dados de treinamento:

    • Os dados devem estar em formato de tabela.
    • O valor que você quer prever (coluna de destino) deve estar presente nos dados.
    1. Para criar um novo conjunto de dados de um arquivo em seu computador local,selecione +Criar conjunto de dados e, em seguida, selecionedo arquivo local.

    2. Selecione Avançar para abrir o Formulário de armazenamento de dados e de seleção de arquivos. , você seleciona onde carregar seu conjunto de dados; o contêiner de armazenamento padrão que é criado automaticamente com seu espaço de trabalho ou escolhe um contêiner de armazenamento que deseja usar para o experimento.

      1. Se seus dados estiverem atrás de uma rede virtual, você precisará habilitar a funçãoignorar a validaçãopara garantir que o espaço de trabalho possa acessar seus dados. Para obter mais informações, confiraUsar o Estúdio do Azure Machine Learning em uma rede virtual do Azure.
    3. SelecioneNavegarpara carregar o arquivo de dados para o seu conjunto de dados.

    4. Revise a precisão do formulário de Configurações e versão prévia. O formulário é preenchido de forma inteligente com base no tipo de arquivo.

      Campo Descrição
      Formato de arquivo Define o layout e o tipo de dados armazenados em um arquivo.
      Delimitador Um ou mais caracteres para especificar o limite entre regiões separadas e independentes em texto sem formatação ou outros fluxos de dados.
      Codificação Identifica qual tabela de esquema de bit para caractere usar para ler seu conjunto de dados.
      Cabeçalhos da coluna Indica como os cabeçalhos do conjunto de dados, se houver, serão tratados.
      Ignorar linhas Indica quantas linhas, se houver, serão ignoradas no conjunto de registros.

      Selecione Avançar.

    5. O formulário Esquema é preenchido de forma inteligente com base nas seleções feitas no formulário Configurações e visualização. Aqui, configure o tipo de dados para cada coluna, revise os nomes das colunas e selecione quais delas não incluir no seu experimento.

      Selecione Avançar.

    6. O formulário Confirmar detalhes é um resumo das informações previamente preenchidas nos formulários Informações básicas e Configurações e versão prévia. Você também tem a opção de criar um perfil de dados para o seu conjunto de dados usando uma computação de criação de perfil habilitada.

      Selecione Avançar.

  3. Selecione seu conjunto de dados recém-criado assim que ele aparecer. Você também pode visualizar uma prévia do conjunto de dados e das estatísticas da amostra.

  4. No formulário Configurar trabalho, selecione Criar novo e insira Tutorial-automl-deploy para o nome do experimento.

  5. Selecione uma coluna de destino, a qual representa a coluna na qual você gostaria de fazer previsões.

  6. Selecione um tipo de computação para o trabalho de treinamento e de criação de perfis de dados. Você pode selecionar um cluster de computação ou uma instância de computação.

  7. Selecione uma computação na lista suspensa das computações existentes. Para criar uma nova computação, siga as instruções da Etapa 8.

  8. Selecione Criar uma nova computação para configurar o contexto de computação desse experimento.

    Campo Descrição
    Nome da computação Insira um nome exclusivo que identifique o contexto da computação.
    Prioridade de máquina virtual As máquinas virtuais com baixa prioridade são as mais baratas, mas não garantem os nós de computação.
    Tipo de máquina virtual Selecione CPU ou GPU do tipo de máquina virtual.
    Tamanho da máquina virtual Selecione o tamanho da máquina virtual da computação.
    Mín./máx. de nós Para criar um perfil de dados, você deve especificar um ou mais nós. Insira o número máximo de nós da sua computação. O padrão é seis nós para Computação do Machine Learning.
    Configurações avançadas Estas configurações permitem que você configure uma conta de usuário e uma rede virtual existente para seu experimento.

    Selecione Criar. A criação da nova computação pode levar alguns minutos.

    Selecione Avançar.

  9. No formulário Tipo de tarefa e configurações, selecione o tipo de tarefa: classificação, regressão ou previsão. Consulte ostipos de tarefas com suporte para obter mais informações.

    1. Para aclassificação,você também pode habilitar o aprendizado profundo.

    2. Para aprevisão,você pode,

      1. Habilitar o aprendizado profundo.

      2. Selecione acoluna de tempo: esta coluna contém os dados de tempo a serem usados.

      3. Selecione ohorizonte de previsão: Indique quantas unidades de tempo (minutos/horas/dias/semanas/meses/anos) o modelo será capaz de prever para o futuro. Quanto mais longe no futuro o modelo tiver que prever, menos preciso ele se tornará. Saiba mais sobre previsão e horizonte de previsão.

  10. (Opcional) Exibir definições de configuração adicionais: configurações adicionais que você pode usar para controlar melhor o trabalho de treinamento. Caso contrário, os padrões são aplicados com base na seleção e nos dados de experimento.

    Configurações adicionais Descrição
    Métrica principal Métrica principal usada para a pontuação do seu modelo. Saiba mais sobre as métricas do modelo.
    Habilitar o empilhamento de ensembles O aprendizado Ensemble aprimora os resultados do machine learning e o desempenho preditivo combinando vários modelos em contraste com o uso de modelos únicos. Saiba mais sobre modelos de ensemble.
    Modelos bloqueados Selecione os modelos a serem excluídos do trabalho de treinamento.

    A permissão de modelos só está disponível para experimentos do SDK.
    Confira os algoritmos com suporte para cada tipo de tarefa.
    Explicar o melhor modelo Mostra automaticamente a explicabilidade no melhor modelo criado pelo ML Automatizado.
    Rótulo de classe positiva Rótulo que o ML Automatizado usará para calcular métricas binárias.
  11. (Opcional)Exibição da definição do conjunto de recursos: se você optar por habilitar adefinição de recursos automáticano formulário dedefinições de configuração adicional, as técnicas padrão de personalização serão aplicadas. Nas Configurações de definição de recursos da visualização, você pode alterar esses padrões e personalizá-los de acordo. Saiba como personalizar a definição de recursos.

    Screenshot shows the Select task type dialog box with View featurization settings called out.

  12. O formulário Limites [opcional] permite que você faça o seguinte.

    Opção Descrição
    Máx. de tentativas O número máximo de tentativas, cada uma com uma combinação diferente de algoritmo e hiperparâmetros a serem testadas durante o trabalho de AutoML. Precisa ser um número inteiro entre 1 e 1000.
    Máx. de tentativas simultâneas O número máximo de trabalhos de tentativa que podem ser executados em paralelo. Precisa ser um número inteiro entre 1 e 1000.
    Máx. de nós O número máximo de nós que esse trabalho pode usar no destino de computação selecionado.
    Limite de pontuação da métrica Quando esse valor limite for atingido para uma métrica de iteração, o trabalho de treinamento será encerrado. Tenha em mente que modelos significativos têm correlação > 0, caso contrário, eles são tão bons quanto adivinhar a média. O limite da métrica deve estar entre os limites [0, 10].
    Tempo limite do experimento (em minutos) O tempo máximo em minutos que o experimento como um todo tem permissão para ser executado. Quando esse limite for atingido, o sistema cancelará o trabalho do AutoML, incluindo todas as suas tentativas (trabalhos filhos).
    Tempo limite da iteração (em minutos) O tempo máximo, em minutos, que cada trabalho de tentativa tem permissão para ser executado. Quando esse limite for atingido, o sistema cancelará a avaliação gratuita.
    Habilitar o encerramento antecipado Selecione para terminar o trabalho caso a pontuação não esteja melhorando em curto prazo.
  13. O formulário [Opcional] Validar e testar permite que você faça o seguinte.

a. Especifique o tipo de validação a ser usado para seu trabalho de treinamento. Se você não especificar explicitamente um parâmetro validation_data ou n_cross_validations, o ML automatizado aplicará técnicas padrão dependendo do número de linhas fornecidas no único conjunto de dados training_data.

Tamanho dos dados de treinamento Técnica de validação
Maior que 20.000 linhas A divisão de dados de treinamento/validação é aplicada. O padrão é levar 10% do conjunto de dados de treinamento inicial como o conjunto de validação. Por sua vez, esse conjunto de validação é usado para cálculo de métricas.
Menor que 20.000 linhas A abordagem de validação cruzada é aplicada. O número padrão de dobras depende do número de colunas.
Se o conjunto de registros for menor que 1.000 linhas, serão usadas 10 dobras.
Se as linhas estiverem entre 1.000 e 20.000, serão usadas três dobras.

b. Forneça um conjuntos de dados de teste (versão prévia) para avaliar o modelo recomendado que o ML automatizado gera para você no final do experimento. Quando você fornece dados de teste, um trabalho de teste é disparado automaticamente no final do experimento. Esse trabalho de teste é realizado apenas no melhor modelo recomendado pelo ML automatizado. Saiba como obter os resultados do trabalho de teste remoto.

Importante

Fornecer um conjuntos de dados de teste para avaliar modelos gerados é uma versão prévia do recurso. Esse recurso está em versão prévia experimental e pode mudar a qualquer momento. * Os dados de teste são considerados separados do treinamento e da validação, de modo a não influenciar os resultados do trabalho de teste do modelo recomendado. Saiba mais sobre desvio durante a validação do modelo. * Você pode fornecer seu próprio conjunto de dados de teste ou optar por usar uma porcentagem do seu conjunto de dados de treinamento. Os dados de teste devem estar na forma de um TabularDataset do Azure Machine Learning.
* O esquema do conjunto de dados de teste deve corresponder ao conjunto de dados de treinamento. A coluna de destino é opcional, mas se nenhuma coluna de destino for indicada, nenhuma métrica de teste será calculada. * O conjunto de dados de teste não deve ser igual ao conjunto de dados de treinamento ou ao conjunto de dados de validação. * Os trabalhos de previsão não suportam a divisão de treinamento/teste.

Screenshot shows the form where to select validation data and test data

Personalizar a definição de recursos

No formulárioDefinição de recursos,você pode habilitar/desabilitar a definição de recursos automática e personalizar as configurações de definição e recursos automática para o experimento. Para abrir este formulário,consulte a etapa 10 na seçãoCriar e executar experimento.

A tabela a seguir sintetize as personalizações disponíveis presente por meio do estúdio.

Coluna Personalização
Tipo de recurso Altera o tipo de valor da coluna selecionada.
Entrar com a conta da Microsoft Selecione qual valor entrar com a conta da Microsoft com valores ausentes em seus dados.

Screenshot showing Azure Machine Learning studio custom featurization.

Executar o experimento e exibir os resultados

Selecione Concluir, para executar o experimento. O processo de preparação do experimento pode levar até 10 minutos. Os trabalhos de treinamento podem levar mais 2 a 3 minutos para que cada pipeline termine a execução. Se você tiver especificado a geração do painel RAI para o melhor modelo recomendado, isso poderá levar até 40 minutos.

Observação

Os algoritmos automated ML empregam uma aleatoriedade inerente que pode causar uma pequena variação em uma pontuação de métrica final do modelo recomendado, como a precisão. O ML automatizado também realiza operações nos dados como a Divisão de validação de treinamento,a divisão de validação ou cruzada, quando necessário. Portanto, se você executar um experimento com os mesmos parâmetros de configuração e métrica primária várias vezes, provavelmente verá a variação em cada experimento a pontuação de métricas finais devido a esses fatores.

Exibir detalhes do experimento

A tela Detalhes do Trabalho é aberta na guia Detalhes. Essa tela mostra um resumo do trabalho de experimento, incluindo uma barra de status na parte superior, ao lado do número de trabalho.

A guia Modelos contém uma lista dos modelos criados ordenados pela pontuação da métrica. Por padrão, o modelo com a pontuação mais alta de acordo com a métrica escolhida é exibido no início da lista. À medida que o trabalho de treinamento experimenta mais modelos, eles são adicionados à lista. Use isso para obter uma comparação rápida das métricas dos modelos produzidos até agora.

Exibir detalhes do trabalho de treinamento

Analise detalhadamente qualquer um dos modelos concluídos para ver os detalhes do trabalho de treinamento.

Visualize gráficos de métricas de desempenho específicos do modelo no guia Métricas. Saiba mais sobre gráficos.

Também é aqui que você poderá encontrar detalhes sobre todas as propriedades do modelo, bem como código, trabalhos filho e imagens associados.

Exibir resultados do trabalho de teste remoto (versão prévia)

Se você especificou um conjunto de dados de teste ou optou por uma divisão de treinamento/teste durante a configuração do experimento, no formulário Validar e Testar, o ML automatizado testa automaticamente o modelo recomendado por padrão. Como resultado, o ML automatizado calcula as métricas de teste para determinar a qualidade do modelo recomendado e suas previsões.

Importante

Testar seus modelos com um conjunto de dados de teste para avaliar modelos gerados por ML automatizados é uma versão prévia do recurso. Esse recurso está em versão prévia experimental e pode mudar a qualquer momento.

Para exibir as métricas do trabalho de teste do modelo recomendado,

  1. Navegue até a página Modelos e selecione o melhor modelo.
  2. Selecione a guia Resultados do teste (versão prévia) .
  3. Selecione o trabalho que você deseja e veja a guia Métricas. Test results tab of automatically tested, recommended model

Para exibir as previsões de teste usadas para calcular as métricas de teste,

  1. Navegue até a parte inferior da página e selecione o link em Conjunto de dados de saída para abrir o conjuntos de dados.
  2. Na página Conjuntos de dados, selecione a guia Explorar para exibir as previsões do trabalho de teste.
    1. Como alternativa, o arquivo de previsão também pode ser exibido/baixado na guia Saídas + logs, expanda a pasta Previsões para localizar o predicted.csv arquivo.

Como alternativa, o arquivo de previsões também pode ser exibido/baixado na guia Saídas + logs, expanda a pasta Previsões para localizar seu arquivo predictions.csv.

O modelo de trabalho de teste gera o arquivo predictions.csv, que é armazenado no armazenamento de dados padrão criado com o workspace. Esse armazenamento de dados é visível para todos os usuários com a mesma assinatura. Os trabalhos de teste não são recomendados para cenários em que qualquer informação usada ou criada pelo trabalho de teste precisa permanecer privada.

Testar um modelo de ML automatizado existente (versão prévia)

Importante

Testar seus modelos com um conjunto de dados de teste para avaliar modelos gerados por ML automatizados é uma versão prévia do recurso. Esse recurso está em versão prévia experimental e pode mudar a qualquer momento.

Depois que o experimento for concluído, você poderá testar os modelos que ML automatizado geraram para você. Se você quiser testar um modelo ML gerado automatizado diferente, não o modelo recomendado, poderá fazer isso com as etapas a seguir.

  1. Selecione um trabalho de experimento do ML automatizado existente.

  2. Navegue até a guia Modelos do trabalho e selecione o modelo concluído que você deseja testar.

  3. Na página Detalhes do modelo, selecione o botão Modelo de teste (versão prévia) para abrir o painel Modelo de teste.

  4. No painel Modelo de teste, selecione o cluster de computação e um conjunto de teste que você deseja usar para o trabalho de teste.

  5. Selecione no botão Testar. O esquema do conjunto de dados de teste deve corresponder ao conjunto de dados de treinamento, mas a coluna de destino é opcional.

  6. Após a criação bem-sucedida do trabalho de teste do modelo, a página Detalhes exibirá uma mensagem de êxito. Selecione a guia Resultados de teste para ver o progresso do trabalho.

  7. Para exibir os resultados do trabalho de teste, abra a página Detalhes e siga as etapas na seção Exibir resultados do trabalho de teste remoto.

    Test model form

Painel de IA Responsável (versão prévia)

Para entender melhor seu modelo, você pode ver várias informações sobre ele usando o Painel de IA Responsável. Ele permite avaliação e depuração do seu melhor modelo de machine learning automatizado. O Painel de IA Responsável avaliará os erros do modelo e os problemas de imparcialidade, diagnosticará por que esses erros estão ocorrendo, avaliando os dados de treinamento e/ou teste e observando as explicações do modelo. Juntos, esses insights podem ajudar você a criar confiança em seu modelo e a ser aprovado nos processos de auditoria. Os Painéis de IA Responsável não podem ser gerados em um modelo de aprendizado de máquina automatizado existente. Ele só é criado para o melhor modelo recomendado quando um novo trabalho do AutoML é criado. Os usuários devem continuar a usar apenas as Explicações do modelo (versão prévia) até que o suporte seja fornecido para os modelos existentes.

Para gerar um Painel de IA Responsável para um modelo específico,

  1. Ao enviar um trabalho de ML automatizado, acesse a seção Configurações da tarefa na barra de navegação esquerda e selecione a opção Exibir configurações adicionais.

  2. No novo formulário que aparece após essa seleção, marque a caixa de seleção Explicar melhor modelo.

    Screenshot showing the Automated ML job configuration page with Explain best model selected.

  3. Prossiga para a página Compute do formulário de configuração e escolha a opção Sem servidor para sua computação.

    Serverless compute selection

  4. Depois de concluído, navegue até a página Modelos de seu trabalho de ML automatizado, que contém uma lista com seus modelos treinados. Selecione no link Exibir o Painel de IA Responsável:

    View dashboard page within an Automated ML job

O Painel de IA Responsável é exibido para esse modelo, conforme mostrado nesta imagem:

Responsible AI dashboard

No painel, você encontrará quatro componentes ativados para o melhor modelo do seu Automated ML:

Componente O que o componente mostra? Como fazer a leitura do gráfico?
Análise de Erro Use a Análise de Erro quando precisar:
Compreender profundamente como as falhas do modelo são distribuídas em um conjunto de dados e em várias dimensões de entradas e recursos.
Dividir as métricas de desempenho agregadas para descobrir automaticamente coortes errôneas para informar as suas etapas de mitigação direcionadas.
Gráficos de Análise de Erros
Visão geral do Modelo e Imparcialidade Use este componente para:
Obtenha uma compreensão profunda do desempenho do seu modelo em diferentes coortes de dados.
Entenda os problemas de imparcialidade de seu modelo observando as métricas de disparidade. Essas métricas podem avaliar e comparar o comportamento do modelo em subgrupos identificados em termos de recursos confidenciais (ou não confidenciais).
Visão geral do Modelo e Gráficos de Imparcialidade
Explicações do Modelo Use o componente de explicação do modelo para gerar descrições compreensíveis por humanos das previsões de um modelo de aprendizado de máquina, observando:
Explicações globais: por exemplo, quais recursos afetam o comportamento geral de um modelo de alocação de empréstimos?
Explicações locais: Por exemplo, por que o pedido de empréstimo de um cliente foi aprovado ou rejeitado?
Gráficos de Explicabilidade do Modelo
Análise de Dados Use a análise de dados quando precisar:
Explorar as estatísticas do conjunto de dados selecionando filtros diferentes para dividir seus dados em dimensões diferentes (também conhecidas como coortes).
Entender a distribuição do conjunto de dados em diferentes coortes e grupos de recursos.
Determinar se as suas descobertas relacionadas à imparcialidade, análise de erro e causalidade (derivadas de outros componentes do dashboard) são resultado da distribuição do conjunto de dados.
Decidir em quais áreas coletar mais dados para atenuar erros decorrentes de problemas de representação, ruído de rótulo, ruído de recurso, desvio de rótulo e fatores semelhantes.
Gráficos do Data Explorer
  1. Além disso, é possível criar coortes (subgrupos de pontos de dados que compartilham características específicas) para concentrar a análise de cada componente em diferentes coortes. O nome do coorte que está atualmente aplicado ao painel é sempre mostrado no canto superior esquerdo acima do painel. A exibição padrão do seu painel é todo o conjunto de dados, intitulado "Todos os dados" (por padrão). Saiba mais sobre o controle global do seu painel aqui.

Editar e enviar trabalhos (versão prévia)

Importante

A capacidade de copiar, editar e enviar um novo experimento com base em um experimento existente é uma versão prévia do recurso. Esse recurso está em versão prévia experimental e pode mudar a qualquer momento.

Em cenários em que você gostaria de criar um novo experimento com base nas configurações de um experimento existente, o ML automatizado fornece a opção de fazer isso com o botão Editar e enviar na interface do usuário do estúdio.

Essa funcionalidade é limitada a experimentos iniciados na interface do usuário do estúdio e requer o esquema de dados para o novo experimento corresponder ao teste original.

O botão Editar e enviar abre o assistente Criar um novo trabalho de ML automatizado com as configurações de dados, computação e experimento pré-preenchidas. Você pode percorrer cada formulário e editar as seleções conforme necessário para o seu novo experimento.

Implantar o seu modelo

Quando você tiver o melhor modelo em mãos, é hora de implantá-lo como um serviço Web para fazer previsões com base em novos dados.

Dica

Se quiser implantar um modelo gerado por meio do pacote automl com o SDK do Python, você deverá registrar o modelo} no espaço de trabalho.

Depois que o modelo for registrado, encontre-o no estúdio selecionandoModelosno painel esquerdo. Após abrir seu modelo, você pode selecionar o botãoImplantarna parte superior da tela e, em seguida, seguir as instruções, conforme descrito naEtapa 2da seçãoimplantar seu modelo.

O ML automatizado ajuda a implantar o modelo sem escrever códigos:

  1. Você tem algumas opções de implantação:

    • Opção 1: Implante o melhor modelo, conforme os critérios de métrica que você definiu.

      1. Conforme o experimento for concluído, navegue para a página do trabalho pai, selecionando Trabalho 1 na parte superior da tela.
      2. Selecione o modelo listado na seçãoMelhor resumo de modelo.
      3. SelecioneImplantarna parte superior esquerda da janela.
    • Opção 2: Para implantar uma iteração do modelo específica deste experimento.

      1. Selecione o modelo desejado na guia Modelos
      2. SelecioneImplantarna parte superior esquerda da janela.
  2. Preencha o painel Implantar um modelo.

    Campo Valor
    Nome Insira um nome exclusivo para sua implantação.
    Descrição Insira uma descrição para identificar melhor a finalidade da implantação.
    Tipo de computação Selecione o tipo de ponto de extremidade que você deseja implantar: Serviço de Kubernetes do Azure (AKS) ou Instância de Contêiner do Azure (ACI).
    Nome da computação Aplica-se somente ao AKS: selecione o nome do cluster AKS no qual você deseja fazer a implantação.
    Habilitar autenticação Selecione para permitir a autenticação baseada em token ou em chave.
    Usar ativos da implantação personalizada Habilite esse recurso caso queira carregar seu próprio script de pontuação e o arquivo de ambiente. Caso contrário, o ML automatizado fornecerá esses ativos para você por padrão. Saiba mais sobre scripts de pontuação.

    Importante

    Os nomes de arquivo devem ter menos de 32 caracteres e devem começar e terminar com caracteres alfanuméricos. Eles podem conter traços, sublinhados, pontos e caracteres alfanuméricos nas partes do meio. Espaços não são permitidos.

    O menu Avançado oferece recursos de implantação padrão, como coleta de dados e configurações de utilização de recursos. Caso queira substituir esses padrões, você deve fazê-lo nesse menu.

  3. Selecione Implantar. A implantação pode levar cerca de 20 minutos para ser concluída. Depois que a implantação for iniciada, a guia Resumo do modelo será exibida. Consulte o progresso da implantação na seção Status de implantação.

Agora você tem um serviço Web operacional para gerar previsões. Você pode testar as previsões por meio de consultas ao serviço de Suporte ao Azure Machine Learning interno do Power BI.

Próximas etapas