Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
Este artigo descreve como usar o Spotfire Analyst com um cluster do Azure Databricks ou um warehouse do SQL do Azure Databricks.
Requisitos
Um cluster ou SQL warehouse do workspace do Azure Databricks.
Os detalhes da conexão do cluster ou do SQL warehouse, especificamente os valores nome do Host do Servidor, Porta e Caminho HTTP.
Um token de acesso pessoal do Azure Databricks ou um token do Microsoft Entra ID (antigo Azure Active Directory). Para criar um token de acesso pessoal, siga as etapas em Tokens de acesso pessoal do Azure Databricks para usuários do workspace.
Observação
Como melhor prática de segurança, ao autenticar com ferramentas, sistemas, scripts e aplicativos automatizados, o Databricks recomenda que você use tokens de acesso pertencentes às entidades de serviço e não aos usuários do workspace. Para criar tokens para entidades de serviço, consulte Gerenciar tokens para uma entidade de serviço.
Etapas para se conectar
- No Spotfire Analyst, na barra de navegação, clique no ícone mais (Arquivos e dados) e clique em Conectar-se a.
- Selecione Databricks e clique em Nova conexão.
- Na caixa de diálogo de SQL do Apache Spark, na guia Geral, para Servidor, insira os valores de campo Nome do Host do Servidor e Porta da Etapa 1, separados por dois pontos.
- Para Método de autenticação, selecione Nome de usuário e senha.
- Em Nome de usuário, insira a palavra
token
. - Em Senha, insira seu token de acesso pessoal obtido na Etapa 1.
- Na guia Avançado, para Modo de transporte Thrift, selecione HTTP.
- Para Caminho HTTP, insira o valor do campo Caminho HTTP da Etapa 1.
- Na guia Geral, clique em Conectar.
- Após uma conexão bem-sucedida, na lista Banco de dados, selecione o banco de dados que você deseja usar e clique em OK.
Selecionar os dados do Azure Databricks para análise
Selecione dados na caixa de diálogo Exibições em Conexão.
- Procure as tabelas disponíveis no Azure Databricks.
- Adicione as tabelas que você deseja como exibições, que serão as tabelas de dados analisadas no Spotfire.
- Para cada exibição, você pode decidir quais colunas deseja incluir. Se você quiser criar uma seleção de dados muito específica e flexível, terá acesso a uma variedade de ferramentas poderosas nesta caixa de diálogo, como:
- Consultas personalizadas. Com as consultas personalizadas, você pode selecionar os dados que deseja analisar digitando uma consulta SQL personalizada.
- Configuração de prompts. Deixe a seleção de dados para o usuário do arquivo de análise. Configure os prompts com base nas colunas de sua escolha. Em seguida, o usuário final que abre a análise pode selecionar limitar e exibir dados apenas para valores relevantes. Por exemplo, o usuário pode selecionar dados dentro de um determinado período de tempo ou para uma região geográfica específica.
- Clique em OK.
Efetuar push de consultas para o Azure Databricks ou importar dados
Quando você tiver selecionado os dados que deseja analisar, a etapa final será escolher como deseja recuperar os dados do Azure Databricks. Um resumo das tabelas de dados que você está adicionando à sua análise é exibido e você pode clicar em cada tabela para alterar o método de carregamento de dados.
A opção padrão para o Azure Databricks é Externo. Isso significa que a tabela de dados é mantida no banco de dados no Azure Databricks e o Spotfire envia consultas diferentes ao banco de dados para as fatias relevantes de dados, com base em suas ações na análise.
Selecione também Importado, e o Spotfire extrairá toda a tabela de dados antecipadamente, o que permitirá a análise local na memória. Ao importar tabelas de dados, você também usa funções analíticas no mecanismo de dados embutido na memória do TIBCO Spotfire.
A terceira opção é Sob demanda (correspondente a uma cláusula WHERE
dinâmica), o que significa que fatias de dados serão extraídas com base nas ações do usuário na análise. Você pode definir os critérios, que podem ser ações como marcar ou filtrar dados ou alterar as propriedades do documento. O carregamento de dados sob demanda também pode ser combinado com tabelas de dados Externas.