次の方法で共有


Spotfire Analyst に接続する

この記事では、Azure Databricks クラスターまたは Azure Databricks SQL ウェアハウスで、Spotfire Analyst を使用する方法について説明します。

要件

接続する手順

  1. Spotfire Analyst のナビゲーション バーで、プラス ([ファイルとデータ]) アイコンをクリックし、[接続先] をクリックします。
  2. [Databricks] を選択し、[新しい接続] をクリックします。
  3. [Apache Spark SQL] ダイアログの [全般] タブの [サーバー] に、手順 1 の [サーバー ホスト名] フィールドと [ポート] フィールドの値をコロンで区切って入力します。
  4. [認証方法] には [ユーザー名とパスワード] を選択します。
  5. [ユーザー名] に「token」という単語を入力します 。
  6. [パスワード] に、手順 1 の個人用アクセス トークンを入力します。
  7. [詳細設定] タブ の [Thrift トランスポート モード] で、[HTTP] を選択します。
  8. [HTTP パス] に、手順 1 の [HTTP パス] フィールドの値を入力します。
  9. [全般] タブで [接続]をクリックします。
  10. 接続が成功したら、[データベース] の一覧で、使用するデータベースを選択し、[OK] をクリックします。

分析する Azure Databricks データを選択する

データの選択は [接続のビュー] ダイアログで行います。

使用できるテーブル

  1. Azure Databricks で使用可能なテーブルを参照します。
  2. 必要なテーブルをビューとして追加します。これがSpotfire で分析するデータ テーブルになります。
  3. ビューごとに、含める列を決定できます。 より具体的で柔軟なデータ選択を作成する場合は、このダイアログで次のようなさまざまな強力なツールにアクセスできます。
    • カスタム クエリ カスタム クエリを使用すると、カスタム SQL クエリを入力して、分析するデータを選択できます。
    • プロンプト データの選択を分析ファイルのユーザーに任せます。 選択した列に基づいてプロンプトを構成します。 次に、分析を開くエンド ユーザーが、関連する値のデータのみを制限して表示するよう選択できます。 たとえば、ユーザーが、特定の期間内を選択したり、特定の地理的リージョンのデータを選択したりできます。
  4. [OK] をクリックします。

クエリを Azure Databricks にプッシュダウンする、またはデータをインポートする

分析するデータを選択したら、最後の手順は、Azure Databricks からデータを取得する方法を選択することです。 分析に追加しようとしているデータ テーブルの概要が表示され、各テーブルをクリックしてデータの読み込み方法を変更できます。

orders テーブルのサンプル

Azure Databricks でのこのオプションの既定の値は [外部] です。 つまり、データ テーブルは Azure Databricks の内部データベースに保持され、 Spotfire は分析でのアクションに基づいて、関連するデータ スライスに対してデータベースにさまざまなクエリをプッシュします。

[インポート済み] を選択して、Spotfire によってデータ テーブル全体が前もって抽出されるようにすることもできます。この場合、ローカルでのメモリ内分析が可能になります。 データ テーブルをインポートする場合は、TIBCO Spotfire の埋め込みメモリ内データ エンジンでも分析関数を使用します。

3 つ目のオプションは [オンデマンド] (動的 WHERE 句に対応) です。これは、分析のユーザー アクションに基づいてデータのスライスが抽出されるという方法です。 条件を定義できます。これは、データのマーキングやフィルター処理、ドキュメントのプロパティの変更などのアクションです。 オンデマンドのデータ読み込みを外部データ テーブルと組み 合わせることもできます。

その他の技術情報

サポート