次の方法で共有


Curl を使用して HDInsight で Apache Sqoop ジョブを実行します。

Curl を使用して HDInsight 上の Apache Hadoop クラスターで Apache Sqoop ジョブを実行する方法について説明します。 この記事では、Curl を使用して、Azure Storage からデータをエクスポートし、SQL Server データベースにインポートする方法を示します。 この記事は、「HDInsight の Hadoop での Apache Sqoop の使用」の続きです。

Curl は、未加工の HTTP 要求を使用して HDInsight とやり取りし、Sqoop ジョブを実行、監視して、その結果を取得する方法を示すために使用します。 これは、HDInsight クラスターで提供される WebHCat REST API (旧称: Templeton) を使用することで機能します。

前提条件

Curl を使用して Apache Sqoop ジョブを送信する

Curl を使用して、Apache Sqoop ジョブを使用して Azure Storage から SQL Server にデータをエクスポートします。

Note

Curl、または WebHCat を使用したその他の REST 通信を使用する場合は、HDInsight クラスター管理者のユーザー名とパスワードを指定して要求を認証する必要があります。 また、サーバーへの要求の送信に使用する Uniform Resource Identifier (URI) にクラスター名を含める必要があります。

このセクションのコマンドの場合、USERNAME をクラスターに対して認証するユーザーの名前に置き換え、PASSWORD をユーザー アカウントのパスワードに置き換えます。 CLUSTERNAME をクラスターの名前に置き換えます。

REST API のセキュリティは、 基本認証を通じて保護されています。 資格情報をサーバーに安全に送信するには、必ずセキュア HTTP (HTTPS) を使用して要求を行う必要があります。

  1. 使いやすくするために、以下の変数を設定します。 この例は、Windows 環境に基づいています。必要に応じて、お使いの環境に合わせて変更してください。

    set CLUSTERNAME=
    set USERNAME=admin
    set PASSWORD=
    set SQLDATABASESERVERNAME=
    set SQLDATABASENAME=
    set SQLPASSWORD=
    set SQLUSER=sqluser
    
  2. コマンド ラインで次のコマンドを使用して、HDInsight クラスターに接続できることを確認します。

    curl -u %USERNAME%:%PASSWORD% -G https://%CLUSTERNAME%.azurehdinsight.net/templeton/v1/status
    

    次のような応答を受け取ります。

    {"status":"ok","version":"v1"}
    
  3. 次のコマンドを使用して sqoop ジョブを送信します。

    curl -u %USERNAME%:%PASSWORD% -d user.name=%USERNAME% -d command="export --connect jdbc:sqlserver://%SQLDATABASESERVERNAME%.database.windows.net;user=%SQLUSER%@%SQLDATABASESERVERNAME%;password=%PASSWORD%;database=%SQLDATABASENAME% --table log4jlogs --export-dir /example/data/sample.log --input-fields-terminated-by \0x20 -m 1" -d statusdir="wasb:///example/data/sqoop/curl" https://%CLUSTERNAME%.azurehdinsight.net/templeton/v1/sqoop
    

    このコマンドで使用されるパラメーターの意味は次のとおりです。

    • -d - -G が使用されていないため、要求は既定で POST メソッドになります。 -d は要求で送信されるデータ値を指定します。

      • user.name : コマンドを実行するユーザー

      • command : 実行する Sqoop コマンド。

      • statusdir : ジョブのステータスが書き込まれるディレクトリ

      このコマンドは、ジョブのステータスの確認に使用できるジョブ ID を返します。

      {"id":"job_1415651640909_0026"}
      
  4. ジョブのステータスを確認するには、次のコマンドを使用します。 JOBID を前の手順で返された値に置き換えます。 たとえば、戻り値が {"id":"job_1415651640909_0026"} の場合、JOBIDjob_1415651640909_0026 になります。 必要に応じて jq の場所を変更します。

    set JOBID=job_1415651640909_0026
    
    curl -G -u %USERNAME%:%PASSWORD% -d user.name=%USERNAME% https://%CLUSTERNAME%.azurehdinsight.net/templeton/v1/jobs/%JOBID% | C:\HDI\jq-win64.exe .status.state
    

    ジョブが完了している場合、ステータスは SUCCEEDEDになります。

    Note

    この Curl 要求では、ジョブに関する情報が記載された JavaScript Object Notation (JSON) ドキュメントが返されます。状態値のみを取得するには jq を使用します。

  5. ジョブのステータスが SUCCEEDED に変わったら、Azure BLOB ストレージからジョブの結果を取得できます。 クエリで渡される statusdir パラメーターには、出力ファイルの場所が含まれます。この場合は、wasb:///example/data/sqoop/curl です。 このアドレスではジョブの出力は、HDInsight クラスターが使用する既定のストレージ コンテナーの example/data/sqoop/curl ディレクトリに保存されます。

    Azure Portal を使用して、stderr および stdout BLOB にアクセスできます。

  6. データがエクスポートされたことを確認するには、SQL クライアントから次のクエリを使用して、エクスポートされたデータを表示します。

    SELECT COUNT(*) FROM [dbo].[log4jlogs] WITH (NOLOCK);
    SELECT TOP(25) * FROM [dbo].[log4jlogs] WITH (NOLOCK);
    

制限事項

  • 一括エクスポート - Linux ベースの HDInsight では、Microsoft SQL Server または Azure SQL Database にデータをエクスポートするために使用する Sqoop コネクタは、一括挿入を現在サポートしていません。
  • バッチ処理 - Linux ベースの HDInsight で、挿入処理実行時に -batch スイッチを使用すると、Sqoop は挿入操作をバッチ処理するのではなく、複数の挿入処理を実行します。

まとめ

このドキュメントで示したように、未加工の HTTP 要求を使用して、HDInsight クラスターで Sqoop ジョブを実行、監視し、その結果を表示できます。

この記事で使用されている REST インターフェイスの詳細については、Apache Sqoop REST API ガイドに関するページをご覧ください。

次のステップ

HDInsight 上の Apache Hadoop で Apache Sqoop を使用する

curl に関するその他の HDInsight の記事: