次の方法で共有


Google Sheets から Azure Databricks に接続する

Important

この機能は パブリック プレビュー段階です

このページでは、 Databricks Connector for Google Sheets を使用して、Google Sheets から Azure Databricks に接続する方法について説明します。 Databricks Connector は、Google Sheets 内から Azure Databricks データに対してクエリを実行し、さらに分析できるようにします。

開始する前に

Azure Databricks ワークスペースに接続する

最初に Azure Databricks ワークスペースに接続して、Databricks Connector for Google Sheets を使用して Azure Databricks から Google Sheets にデータをインポートします。

  1. Google スプレッドシートで、[拡張機能] > [Databricks Connector] > [サイドバーを起動] を選択してコネクタを開きます。

    Google スプレッドシートで Databricks コネクタを起動する

  2. [ ログイン ] ダイアログで、Azure Databricks ワークスペースの URL を入力します。 ワークスペースの URL を検索する方法については、「ワークスペース オブジェクトの識別子を取得する」を参照してください。

    • ワークスペースの URL は、次の形式になります: adb-<workspace-id>.<random-number>.azuredatabricks.net
  3. サインインをクリックします。

  4. サインインを求めるダイアログボックスが表示されるか、ログインの状態が表示されます。

  5. ログイン後、使用する SQL ウェアハウスを選択できます。 Databricks Connector サイドバーの [ データ ] タブで、コネクタ サイドバーの右上にある円をクリックし、希望する Databricks SQL ウェアハウスを選択します。 コネクタによって、選択した SQL ウェアハウスが開始されます。

    Google Sheets コネクタで DBSQL ウェアハウスを切り替える

Google スプレッドシート用 Databricks コネクタを使用する

Databricks Connector for Google Sheets は、Unity カタログでアクセスできるデータに対してクエリを実行し、そのデータを Google Sheets にインポートします。 コネクタは、すべてのクエリをインポートとして自動的に保存します。 Google スプレッドシートでは、結果の更新、既存のクエリの再利用、データの配信元の追跡を行うことができます。

データがインポートされると、クエリはシートに関連付けられます。 シート名を変更すると、マッピングが中断されます。 名前の変更を処理する方法については、「 制限事項」を参照してください。

Important

クエリの実行は 3 分後にタイムアウトになります。 クエリがこの制限を超えると、自動的に取り消されます。 大きな結果セットの場合、最初の 1,000 行が直ちに書き込まれ、残りのデータは段階的にフェッチされます。 データフェッチが中断された場合、部分的な結果はシートに残り、クエリを再実行することでクリアできます。

インポート方法を選択する

Azure Databricks からデータをインポートするには、次のいずれかの方法を選択します。

テーブルを選択する

Azure Databricks のテーブルからデータをインポートするには:

  1. コネクタサイドバーの Import メソッドで、[ データの選択] を選択します。
  2. [ カタログ] で、カタログ、スキーマ、テーブルのドロップダウン メニューを使用して、インポートするテーブルを検索します。
  3. 必要に応じて、 資産名 を更新して、このインポートの名前を変更します。
  4. 必要に応じて、[ フィールド] で、含める列または除外する列を選択します。
  5. 必要に応じて 、ピボット テーブルとしてインポートできます。
  6. フィルターを追加するには、+ フィルターフィルターの下でクリックします。 フィルターを適用する とフィルターの種類を選択 します
  7. 必要に応じて、[ 行の制限] をオンにして、インポートする行数の制限を設定します。
  8. [ 詳細オプション] で、クエリ結果を新しいシートまたは現在のシートに保存するかどうかを選択します。
    • 現在のシートを選択する場合は、データの追加を開始するセルを指定します。
  9. [ 保存] & [インポート] をクリックしてシートを設定します。

SQL クエリを記述する

新しい SQL クエリを作成するには:

  1. コネクタサイドバーの Import メソッドで、[ 新しいクエリの作成] を選択します。
  2. Databricks では、特定できるようにクエリの名前を入力することをお勧めします。
  3. カタログ、スキーマ、およびテーブルを参照できます。
  4. [クエリ] テキストに、SQL クエリを入力します。
  5. 必要に応じて 、クエリ パラメーターを追加できます。
  6. [ 詳細オプション] で、クエリ結果を新しいシートまたは現在のシートに保存するかどうかを選択します。
    • 現在のシートを選択する場合は、データの追加を開始するセルを指定します。
  7. [ 保存] & [インポート] をクリックしてクエリを実行し、シートにデータを入力します。

Important

"データの選択" を使用して Unity カタログメトリック ビューをインポートする場合、Unity カタログメトリックはピボットデータを表しているため、ピボットテーブルとしてのみインポートできます。

クエリ結果が設定されたシート

クエリ パラメーターを追加する (省略可能)

SQL クエリにクエリ パラメーターを追加するには:

  1. クエリに、 :parameter_nameの形式で少なくとも 1 つのクエリ パラメーターがあることを確認します。 クエリ パラメーターの詳細については、「 クエリ パラメーターの操作」を参照してください。

  2. [ + パラメーターの追加] をクリックします。

  3. 最初のボックスにパラメーターを入力します。 パラメーター名がクエリ エディターで入力したものと一致していることを確認します。

  4. 2 番目のボックスに、シート名の後の感嘆符を含む、パラメーター値のシート名とセルの位置を入力します。

  5. クエリ パラメーターをさらに追加するには、[ + パラメーターの追加] をもう一度クリックします。

    たとえば、次のクエリには、シート :trip_distanceセル H1 で定義されているクエリ パラメーター sheet_1が含まれています。

    クエリ パラメーターを使用したクエリ

ピボット テーブルとしてインポートする (省略可能)

データをピボット テーブルとしてインポートするには:

  1. データをインポートするときは、[ ピボット テーブル] を選択します。
  2. [ ピボットの構成] で、ピボット テーブルのディメンションの を選択します。
  3. 集計する値を指定します。 [ + 値の追加] をクリックし、列と集計方法を選択します。
  4. 必要に応じて、[+ フィルターの 追加 ] をクリックしてフィルターを追加し、 フィルターの種類を選択します。
  5. [ 保存] および [インポート] をクリックして、結果をピボット テーブルとしてインポートします。 ピボット テーブルのインポートは、新しいシートに自動的にインポートされます。

Databricks コネクタでピボット テーブルを構成する

インポートされたデータを管理する

Azure Databricks からインポートするデータを管理するには:

  1. コネクタサイドバー の[インポート ]タブを選択します。
  2. インポートを更新するには、クエリ名の横にある更新アイコンをクリックします。
  3. インポート先のシートを確認するには、[Kebab] メニュー アイコンをクリックします。>クエリ名の横にあるシートに移動します。
  4. インポートを編集するには、[Kebab] メニュー アイコンをクリックします。>クエリ名の横にある [編集] をクリックします。
  5. インポートを削除するには、[Kebab] メニュー アイコンをクリックします。>クエリ名の横にある [削除] をクリックします。 これにより、Google スプレッドシートにインポートされたデータではなく、クエリが削除されます。 インポートしたデータは手動で削除する必要があります。

Google スプレッドシートでインポートされた Databricks データを管理する

Azure Databricks ワークスペースを変更する

接続先の Azure Databricks ワークスペースを変更するには:

  1. [ 拡張機能] > [Databricks Connector] > [ワークスペースの変更] を選択します
  2. 新しいワークスペース URL を入力し、ワークスペースに対して認証します。

共有への影響

このアドオンは、Google シートを共有する機能には影響しません。 ただし、ファイルを共有する方法は、受信者がアドオンを使用して実行できるアクションに影響します。

  • ビューアーまたはコメンダー ロールを持つ受信者は、アドオンにアクセスできません。
  • エディター ロールと同等のデータ資産アクセス権を持つ受信者は、Google アカウントでアドオンを使用できます。 所有者と同じようにコネクタを使用できます。
  • エディター ロールを持ち、基になるリソースに同じアクセス権を持つ受信者は、同じ Azure Databricks ワークスペースにログインしている場合、インポートを更新できます。

制限事項

  • 既存のインポートにアタッチされているシートの名前を変更または削除すると、インポートを更新できなくなります。 これを修正するには、次 のいずれかの 操作を行います。

    • まったく同じ名前でシートを再作成します。
    • 新しいインポートを作成するには、[ソースとして クエリを選択 ] を選択し、インポートを再利用して、[ 新規として保存] をクリックします。
  • 2 つのクエリが同じ範囲または重複する範囲にマップされた場合、アドオンには最後に実行されたクエリの結果が表示されます。 これにより、以前にインポートされたデータが上書きされます。