このクイック スタートでは、Apache HBase シェルを使用して HBase テーブルを作成し、データを挿入して、テーブルのクエリを実行する方法について説明します。
Azure サブスクリプションをお持ちでない場合は、開始する前に 無料アカウント を作成してください。
前提条件
Apache HBase クラスター。 HDInsight クラスターを作成するためには、クラスターの作成を参照してください。 HBase クラスターの種類を選択してください。
SSH クライアント 詳細については、SSH を使用して HDInsight (Apache Hadoop) に接続する方法に関するページを参照してください。
テーブルを作成してデータを操作する
多くの場合、データは次のような表形式で表示されます。
HBase (クラウド BigTable の実装) では、同じデータが次のように表示されます。
SSH を使用して HBase クラスターに接続し、Apache HBase シェルを使用して HBase テーブルの作成、データの挿入、データのクエリを実行できます。
ssh
コマンドを使用して HBase クラスターに接続します。 次のコマンドを編集してCLUSTERNAME
をクラスターの名前に置き換えてから、そのコマンドを入力します。ssh sshuser@CLUSTERNAME-ssh.azurehdinsight.net
hbase shell
コマンドを使用して、HBase 対話型シェルを起動します。 SSH 接続で次のコマンドを入力します。hbase shell
create
コマンドを使用して、2 列ファミリの HBase テーブルを作成します。 次のコマンドを入力します。create 'Contacts', 'Personal', 'Office'
list
コマンドを使用して、HBase 内のすべてのテーブルを一覧表示します。 次のコマンドを入力します。list
put
コマンドを使用して、特定のテーブルの指定行の指定列に値を挿入します。 次のコマンドを入力します。put 'Contacts', '1000', 'Personal:Name', 'John Dole' put 'Contacts', '1000', 'Personal:Phone', '1-425-000-0001' put 'Contacts', '1000', 'Office:Phone', '1-425-000-0002' put 'Contacts', '1000', 'Office:Address', '1111 San Gabriel Dr.'
scan
コマンドを使用して、Contacts
テーブルのデータをスキャンして返します。 次のコマンドを入力します。scan 'Contacts'
get
コマンドを使用して、行のコンテンツを取り込みます。 次のコマンドを入力します。get 'Contacts', '1000'
行が 1 つしかないため、
scan
コマンドの使用と同様の結果が表示されます。delete
コマンドを使用して、テーブル内のセル値を削除します。 次のコマンドを入力します。delete 'Contacts', '1000', 'Office:Address'
disable
コマンドを使用してテーブルを無効にします。 次のコマンドを入力します。disable 'Contacts'
drop
コマンドを使用して、HBase からテーブルを削除します。 次のコマンドを入力します。drop 'Contacts'
exit
コマンドを使用して、HBase 対話型シェルを停止します。 次のコマンドを入力します。exit
HBase テーブル スキーマの詳細については、Apache HBase スキーマの設計の概要に関するページを参照してください。 HBase コマンドの詳細については、「Apache HBase のリファレンス ガイド」を参照してください。
リソースをクリーンアップする
このクイックスタートを完了したら、必要に応じてクラスターを削除できます。 HDInsight では、データは Azure Storage に格納されるため、クラスターが使用されていない場合は安全に削除できます。 HDInsight クラスターが使用されていない場合でも、料金が発生します。 クラスターの料金はストレージの料金の何倍も多いため、クラスターが使用されていない場合は削除するのが経済的に理にかなっています。
クラスターを削除するには、「ブラウザー、PowerShell、または Azure CLI を使用して HDInsight クラスターを削除する」を参照してください。
次のステップ
このクイック スタートでは、Apache HBase シェルを使用して HBase テーブルを作成し、データを挿入して、テーブルにクエリを実行する方法について説明しました。 HBase に格納されているデータの詳細については、次の記事で Apache Spark でクエリを実行する方法について説明します。