Compartilhar via


Conectar-se ao Spotfire Analyst

Este artigo descreve como usar o Spotfire Analyst com um cluster do Azure Databricks ou um warehouse do SQL do Azure Databricks.

Requisitos

Etapas para se conectar

  1. No Spotfire Analyst, na barra de navegação, clique no ícone mais (Arquivos e dados) e clique em Conectar-se a.
  2. Selecione Databricks e clique em Nova conexão.
  3. Na caixa de diálogo de SQL do Apache Spark, na guia Geral, para Servidor, insira os valores de campo Nome do Host do Servidor e Porta da Etapa 1, separados por dois pontos.
  4. Para Método de autenticação, selecione Nome de usuário e senha.
  5. Em Nome de usuário, insira a palavra token.
  6. Em Senha, insira seu token de acesso pessoal obtido na Etapa 1.
  7. Na guia Avançado, para Modo de transporte Thrift, selecione HTTP.
  8. Para Caminho HTTP, insira o valor do campo Caminho HTTP da Etapa 1.
  9. Na guia Geral, clique em Conectar.
  10. Após uma conexão bem-sucedida, na lista Banco de dados, selecione o banco de dados que você deseja usar e clique em OK.

Selecionar os dados do Azure Databricks para análise

Selecione dados na caixa de diálogo Exibições em Conexão.

Tabelas Disponíveis

  1. Procure as tabelas disponíveis no Azure Databricks.
  2. Adicione as tabelas que você deseja como exibições, que serão as tabelas de dados analisadas no Spotfire.
  3. Para cada exibição, você pode decidir quais colunas deseja incluir. Se você quiser criar uma seleção de dados muito específica e flexível, terá acesso a uma variedade de ferramentas poderosas nesta caixa de diálogo, como:
    • Consultas personalizadas. Com as consultas personalizadas, você pode selecionar os dados que deseja analisar digitando uma consulta SQL personalizada.
    • Configuração de prompts. Deixe a seleção de dados para o usuário do arquivo de análise. Configure os prompts com base nas colunas de sua escolha. Em seguida, o usuário final que abre a análise pode selecionar limitar e exibir dados apenas para valores relevantes. Por exemplo, o usuário pode selecionar dados dentro de um determinado período de tempo ou para uma região geográfica específica.
  4. Clique em OK.

Efetuar push de consultas para o Azure Databricks ou importar dados

Quando você tiver selecionado os dados que deseja analisar, a etapa final será escolher como deseja recuperar os dados do Azure Databricks. Um resumo das tabelas de dados que você está adicionando à sua análise é exibido e você pode clicar em cada tabela para alterar o método de carregamento de dados.

exemplo de tabela de ordens

A opção padrão para o Azure Databricks é Externo. Isso significa que a tabela de dados é mantida no banco de dados no Azure Databricks e o Spotfire envia consultas diferentes ao banco de dados para as fatias relevantes de dados, com base em suas ações na análise.

Selecione também Importado, e o Spotfire extrairá toda a tabela de dados antecipadamente, o que permitirá a análise local na memória. Ao importar tabelas de dados, você também usa funções analíticas no mecanismo de dados embutido na memória do TIBCO Spotfire.

A terceira opção é Sob demanda (correspondente a uma cláusula WHERE dinâmica), o que significa que fatias de dados serão extraídas com base nas ações do usuário na análise. Você pode definir os critérios, que podem ser ações como marcar ou filtrar dados ou alterar as propriedades do documento. O carregamento de dados sob demanda também pode ser combinado com tabelas de dados Externas.

Recursos adicionais

Suporte