Share via


Importação da Tabela Azure

Importante

O suporte para o Estúdio de ML (clássico) terminará a 31 de agosto de 2024. Recomendamos a transição para o Azure Machine Learning até essa data.

A partir de 1 de dezembro de 2021, não poderá criar novos recursos do Estúdio de ML (clássico). Até 31 de agosto de 2024, pode continuar a utilizar os recursos existentes do Estúdio de ML (clássico).

A documentação do Estúdio de ML (clássico) está a ser descontinuada e poderá não ser atualizada no futuro.

Este artigo descreve como usar o módulo de Dados de Importação em Machine Learning Studio (clássico), para importar dados estruturados ou semi-estruturados das tabelas Azure para uma experiência de aprendizagem automática.

Nota

Aplica-se a: Machine Learning Studio (clássico) apenas

Módulos semelhantes de arrasto e queda estão disponíveis em Azure Machine Learning designer.

O serviço de mesa Azure é um serviço de gestão de dados em Azure que pode armazenar grandes quantidades de dados estruturados e não relacionais. É uma loja de dados NoSQL que aceita chamadas autenticadas de dentro e fora de Azure.

Importar do armazenamento da mesa Azure requer que escolha um de dois tipos de conta: uma conta de armazenamento que pode ser acedida através de um URL SAS ou uma conta de armazenamento privado que requer credenciais de login.

Como importar dados a partir de tabelas Azure

Utilize o assistente de importação de dados

O módulo apresenta um novo assistente para o ajudar a escolher uma opção de armazenamento, selecionar entre as subscrições e contas existentes e configurar rapidamente todas as opções.

  1. Adicione o módulo de Dados de Importação à sua experiência. Pode encontrar o módulo em Entrada e Saída de Dados.

  2. Clique em Lançar Assistente de Dados de Importação e siga as instruções.

  3. Quando a configuração estiver concluída, para copiar os dados na sua experiência, clique com o botão direito no módulo e selecione Executar Selecionado.

Se precisar de editar uma ligação de dados existente, o assistente carrega todos os detalhes de configuração anteriores para que não tenha de recomeçar do zero

Definir manualmente propriedades no módulo de dados de importação

Os seguintes passos descrevem como configurar manualmente a fonte de importação.

  1. Adicione o módulo de Dados de Importação à sua experiência. Pode encontrar este módulo no grupo Entrada e Saída de Dados na lista de itens de experiência no Machine Learning Studio (clássico).

  2. Para obter informações sobre dados, selecione Azure Table.

  3. Para o tipo de autenticação, escolha Público (URL SAS) se souber que a informação foi fornecida como fonte de dados públicos. Um URL SAS é um URL de acesso ligado ao tempo que pode gerar usando um utilitário de armazenamento Azure.

    Caso contrário, escolha Conta.

  4. Se os seus dados estiverem numa bolha pública que pode ser acedida através de um URL SAS, não precisa de credenciais adicionais porque a cadeia URL contém todas as informações necessárias para o download e autenticação.

    No campo Tabela SAS URI , escreva ou cole o URI completo que define a conta e a bolha pública.

    Nota

    Numa página acessível via URL SAS, os dados podem ser armazenados apenas usando estes formatos: CSV, TSV e ARFF.

  5. Se os seus dados estiverem numa conta privada , deve fornecer credenciais, incluindo o nome da conta e a chave.

    • Para o nome da conta de tabela, escreva ou cole o nome da conta que contém a bolha a que pretende aceder.

      Por exemplo, se o URL completo da conta de armazenamento for https://myshared.table.core.windows.net, escreveria myshared.

    • Para a chave da conta tabela, cole a chave de acesso que está associada à conta de armazenamento.\

      Se não conhece a chave de acesso, consulte a secção: "Ver, copiar e regenerar as teclas de acesso ao armazenamento" neste artigo: Sobre o Azure Armazenamento Contas.

    • Para o nome da tabela, escreva o nome da tabela específica que pretende ler.

  6. Escolha uma opção que indique quantas linhas os Dados de Importação devem digitalizar. Os Dados de Importação utilizam a digitalização para obter a lista de colunas nos dados e para determinar quais os tipos de dados da coluna.

    • TopN: Verifique apenas o número especificado de linhas, a partir do topo do conjunto de dados.

      Por predefinição, 10 linhas são digitalizadas, mas pode aumentar ou diminuir esse valor utilizando a contagem de Linhas para a opção TopN.

      Se os dados forem homogéneos e previsíveis, selecione TopN e introduza um número para N. Para mesas grandes, isto pode resultar em tempos de leitura mais rápidos.

    • ScanAll: Digitalize todas as linhas da mesa.

      Se os dados forem estruturados com conjuntos de propriedades que variam em função da profundidade e posição da tabela, escolha a opção ScanAll para digitalizar todas as linhas. Isto garante a integridade da sua propriedade resultante e conversão de metadados.

  7. Indique se deseja que os dados sejam atualizados cada vez que a experiência é executada. Se selecionar a opção De resultados em cache ( o padrão) o módulo De Dados de Importação lerá os dados da fonte especificada na primeira vez que a experiência for executada, e, posteriormente, cache os resultados. Se houver alterações nos parâmetros do módulo De Dados de Importação , os dados são reesecando.

    Se desmarcar esta opção, os dados serão lidos a partir da fonte sempre que a experiência for executada, independentemente de os dados serem os mesmos ou não.

Exemplos

Por exemplo, como utilizar o módulo de Dados de Exportação , consulte a Galeria Azure AI.

Notas técnicas

Esta secção contém detalhes de implementação, dicas e respostas a perguntas frequentes.

Perguntas comuns

Como posso evitar reessarcar os mesmos dados desnecessariamente?

Se os dados de origem alterarem, pode atualizar o conjunto de dados e adicionar novos dados re-executando dados de importação. No entanto, se não quiser relê-lo a partir da fonte cada vez que executar a experiência, selecione a opção de resultados em cache para A VERDADEIRA. Quando esta opção é definida como TRUE, o módulo verifica se a experiência já foi executada anteriormente utilizando a mesma fonte e as mesmas opções de entrada, e se for encontrada uma execução anterior, os dados na cache são utilizados, em vez de reencascar os dados da fonte.

Posso filtrar os dados como estão a ser lidos pela fonte?

O módulo De Dados de Importação não suporta a filtragem à medida que os dados estão a ser lidos. A exceção é a leitura a partir de feeds de dados, que por vezes lhe permitem especificar uma condição de filtro como parte do URL do feed.

No entanto, pode alterar ou filtrar dados depois de os ler no Machine Learning Studio (clássico):

  • Utilize um script R personalizado para alterar ou filtrar dados.
  • Utilize o módulo Dados Divididos com uma expressão relativa ou uma expressão regular para isolar os dados que pretende e, em seguida, guarde-os como conjunto de dados.

Nota

Se descobrir que carregou mais dados do que o necessário, pode substituir o conjunto de dados em cache lendo um novo conjunto de dados e guardá-lo com o mesmo nome que os dados mais antigos e maiores.

Como é que os Dados de Importação tratam os dados carregados de diferentes regiões geográficas?

Se a conta de armazenamento de bolhas ou mesas estiver numa região diferente do nó de computação utilizado para a experiência de machine learning, o acesso aos dados pode ser mais lento. Além disso, é cobrado por entrada de dados e saída na subscrição.

Porque é que alguns personagens na minha mesa não são exibidos corretamente?

Machine Learning suporta a codificação UTF-8. Se a sua mesa utilizar outra codificação, os caracteres podem não ser importados corretamente.

Existem caracteres ou caracteres proibidos que sejam alterados durante a importação?

Se os dados de atributos contiverem marcas de apas ou sequências de caracteres escapados, são manipulados utilizando as regras para tais caracteres em Microsoft Excel. Todos os outros caracteres são tratados utilizando as seguintes especificações como uma orientação: RFC 4180.

Parâmetros do módulo

Nome Intervalo Tipo Predefinição Predefinição
Origem de dados Lista Fonte de dados ou pia Armazenamento de Blobs do Azure A fonte de dados pode ser HTTP, FTP, HTTPS anónimo ou FTPS, um ficheiro no armazenamento Azure BLOB, uma tabela Azure, uma Base de Dados SQL do Azure, uma base de dados SQL Server no local, uma tabela Hive ou um ponto final OData.
Tipo de autenticação PublicOrsas

Conta
tableAuthType Conta Especificar se os dados estão num contentor público acessível via URL SAS ou se estão numa conta de armazenamento privado que requer autenticação para acesso.

Público ou SAS - Opções de armazenamento público

Name Intervalo Tipo Predefinição Description
Tabela URI qualquer String
Linhas para digitalizar nomes de propriedade via SAS número inteiro
As linhas contam para topN via SAS

Conta - Opções de armazenamento privado

Name Intervalo Tipo Predefinição Description
Nome da conta de tabela
Chave da conta de tabela qualquer SecureString
Nome da tabela qualquer
Filas para digitalizar nomes de propriedade TopN

ScanAll
As linhas contam para o TopN qualquer número inteiro

Saídas

Nome Tipo Description
Conjunto de dados de resultados Tabela de Dados Dataset com dados descarregados

Exceções

Exceção Description
Erro 0027 Uma exceção ocorre quando dois objetos têm que ter o mesmo tamanho, mas não são.
Erro 0003 Uma exceção ocorre se uma ou mais entradas forem nulas ou vazias.
Erro 0029 Uma exceção ocorre quando um URI inválido é passado.
Erro 0030 uma exceção ocorre quando não é possível descarregar um ficheiro.
Erro 0002 Ocorre uma exceção se um ou mais parâmetros não puderem ser analisados ou convertidos do tipo especificado para o tipo exigido pelo método-alvo.
Erro 0009 Ocorre uma exceção se o nome da conta de armazenamento Azure ou o nome do recipiente forem especificados incorretamente.
Erro 0048 Uma exceção ocorre quando não é possível abrir um ficheiro.
Erro 0046 Uma exceção ocorre quando não é possível criar um diretório em caminho especificado.
Erro 0049 Uma exceção ocorre quando não é possível analisar um ficheiro.

Para obter uma lista de erros específicos dos módulos Studio (clássicos), consulte Machine Learning Códigos de Erro.

Para obter uma lista de exceções da API, consulte Machine Learning CÓDIGOs de Erro da API REST.

Ver também

Importar Dados
Dados de Exportação
Importar a partir do URL da Web através de HTTP
Importação da Consulta de Colmeia
Importar a partir da Base de Dados SQL do Azure
Importação de Azure Blob Armazenamento
Importação de Fornecedores de Feed de Dados
Importação de Bases de Dados SQL Server de Instalações