分享方式:


使用 Apache Beeline 用戶端搭配 Apache Hive

本文說明如何使用命令列 Apache Beeline 用戶端,透過 SSH 連線建立和執行 Apache Hive 查詢。

背景

Beeline 是 Hive 用戶端,隨附於您的 HDInsight 叢集的前端節點。 本文說明如何透過使用 Hive 查詢HiveQL 檔案的範例來使用此工具。

若要連線到安裝在 HDInsight 叢集上的 Beeline 用戶端,或在本機安裝 Beeline,請遵循我們的指南來連線或安裝 Apache Beeline

Beeline 會使用 JDBC 連線至 HiveServer2,它是裝載在 HDInsight 叢集上的服務。 您也可以使用 Beeline 透過網際網路從遠端存取 HDInsight 上的 Hive。 下列範例中提供用來從 Beeline 連接到 HDInsight 最常見的連接字串。

範例的必要條件

  • Azure HDInsight 上的 Hadoop 叢集。 如果您需要叢集,請遵循我們的指南來建立 HDInsight 叢集

  • 請留意叢集主要儲存體的 URI 配置。 例如,適用於 Azure 儲存體的 wasb://,適用於 Azure Data Lake Storage Gen2 的 abfs:// 或適用於 Azure Data Lake Storage Gen1 的 adl://。 如果已對 Azure 儲存體啟用安全傳輸,URI 會是 wasbs://。 如需詳細資訊,請參閱保護傳輸的安全

  • SSH 用戶端。 如需詳細資訊,請參閱使用 SSH 連線至 HDInsight (Apache Hadoop)。 本文件中的大部分步驟都假設您從連往叢集的 SSH 工作階段使用 Beeline。 您也可以使用本地 Beeline 用戶端,但本文未涵蓋這些步驟。

執行 HIVE 查詢

此範例是以使用來自 SSH 連線的 Beeline 用戶端為基礎。

  1. 使用下列程式碼開啟叢集的 SSH 連線。 將 sshuser 取代為叢集的 SSH 使用者,並將 CLUSTERNAME 取代為叢集的名稱。 出現提示時,請輸入 SSH 使用者帳戶的密碼。

    ssh sshuser@CLUSTERNAME-ssh.azurehdinsight.net
    
  2. 輸入下列命令,用 Beeline 用戶端從開啟的 SSH 工作階段連線到 HiveServer2:

    beeline -u 'jdbc:hive2://headnodehost:10001/;transportMode=http'
    

    注意

    如果您使用已啟用企業安全性套件 (ESP) 的叢集,請參考使用 Beeline 連線至 HiveServer2 或在本機安裝 Beeline 以從本機連線中的「使用 Kerberos 的 HDInsight 企業安全性套件 (ESP) 叢集」部分

  3. Beeline 命令以 ! 字元開頭,例如 !help 顯示說明。 不過,一些命令可以省略 !。 例如,help 也能運作。

    會有一個 !sql,用來執行 HiveQL 陳述式。 不過,HiveQL 如此常用,因此您可以省略前面的 !sql。 下列兩個陳述式是相等的:

    !sql show tables;
    show tables;
    

    新的叢集上只會列出一個資料表:hivesampletable

  4. 使用下列命令來顯示 hivesampletable 的結構描述:

    describe hivesampletable;
    

    此命令會傳回下列資訊:

    +-----------------------+------------+----------+--+
    |       col_name        | data_type  | comment  |
    +-----------------------+------------+----------+--+
    | clientid              | string     |          |
    | querytime             | string     |          |
    | market                | string     |          |
    | deviceplatform        | string     |          |
    | devicemake            | string     |          |
    | devicemodel           | string     |          |
    | state                 | string     |          |
    | country               | string     |          |
    | querydwelltime        | double     |          |
    | sessionid             | bigint     |          |
    | sessionpagevieworder  | bigint     |          |
    +-----------------------+------------+----------+--+
    

    此資訊描述資料表中的資料行。

  5. 輸入下列陳述式,以使用 HDInsight 叢集隨附的樣本資料來建立名為 log4jLogs 的資料表:(根據 URI 配置,視需要進行修改。)

    DROP TABLE log4jLogs;
    CREATE EXTERNAL TABLE log4jLogs (
        t1 string,
        t2 string,
        t3 string,
        t4 string,
        t5 string,
        t6 string,
        t7 string)
    ROW FORMAT DELIMITED FIELDS TERMINATED BY ' '
    STORED AS TEXTFILE LOCATION 'wasbs:///example/data/';
    SELECT t4 AS sev, COUNT(*) AS count FROM log4jLogs
        WHERE t4 = '[ERROR]' AND INPUT__FILE__NAME LIKE '%.log'
        GROUP BY t4;
    

    這些陳述式會執行下列動作:

    陳述式 描述
    DROP TABLE 如果資料表存在,就會將其刪除。
    CREATE EXTERNAL TABLE 在 Hive 中建立外部資料表。 外部資料表只會將資料表定義儲存在 Hive 中。 資料會留在原來的位置。
    ROW FORMAT 資料格式的設定方式。 在此情況下,每個記錄中的欄位會以空格隔開。
    STORED AS TEXTFILE LOCATION 儲存資料的所在位置以及以何種檔案格式儲存。
    SELECT 選取在資料行 t4 中包含 [ERROR] 值的所有資料列。 此查詢會傳回值 3 ,因為有 3 個資料列包含此值。
    INPUT__FILE__NAME LIKE '%.log' Hive 嘗試將結構描述套用至目錄中的所有檔案。 在此情況下,目錄包含不符合結構描述的檔案。 若要防止結果中出現亂碼資料,此陳述式會告訴 Hive 只應該從檔名以 .log 結尾的檔案傳回資料。

    注意

    當您預期會由外部來源來更新基礎資料時,請使用外部資料表。 例如,自動化的資料上傳程序,或透過其他 MapReduce 作業。

    捨棄外部資料表並 不會 刪除資料,只會刪除資料表定義。

    此命令的輸出類似下列文字:

    INFO  : Tez session hasn't been created yet. Opening session
    INFO  :
    
    INFO  : Status: Running (Executing on YARN cluster with App id application_1443698635933_0001)
    
    INFO  : Map 1: -/-      Reducer 2: 0/1
    INFO  : Map 1: 0/1      Reducer 2: 0/1
    INFO  : Map 1: 0/1      Reducer 2: 0/1
    INFO  : Map 1: 0/1      Reducer 2: 0/1
    INFO  : Map 1: 0/1      Reducer 2: 0/1
    INFO  : Map 1: 0(+1)/1  Reducer 2: 0/1
    INFO  : Map 1: 0(+1)/1  Reducer 2: 0/1
    INFO  : Map 1: 1/1      Reducer 2: 0/1
    INFO  : Map 1: 1/1      Reducer 2: 0(+1)/1
    INFO  : Map 1: 1/1      Reducer 2: 1/1
    +----------+--------+--+
    |   sev    | count  |
    +----------+--------+--+
    | [ERROR]  | 3      |
    +----------+--------+--+
    1 row selected (47.351 seconds)
    
  6. 結束 Beeline:

    !exit
    

執行 HiveQL 檔案

此範例是先前範例的接續。 使用下列步驟建立檔案,然後利用執行該檔案。

  1. 使用以下命令,建立名為 query.hql 的檔案:

    nano query.hql
    
  2. 使用下列文字做為檔案的內容。 此查詢將建立名為 errorLogs 的新「內部」資料表:

    CREATE TABLE IF NOT EXISTS errorLogs (t1 string, t2 string, t3 string, t4 string, t5 string, t6 string, t7 string) STORED AS ORC;
    INSERT OVERWRITE TABLE errorLogs SELECT t1, t2, t3, t4, t5, t6, t7 FROM log4jLogs WHERE t4 = '[ERROR]' AND INPUT__FILE__NAME LIKE '%.log';
    

    這些陳述式會執行下列動作:

    陳述式 描述
    CREATE TABLE IF NOT EXISTS 如果資料表尚未存在,則會加以建立。 因為未使用 EXTERNAL 關鍵字,這個陳述式會建立內部資料表。 內部資料表儲存在 Hive 資料倉儲中,並完全由 Hive 管理。
    STORED AS ORC 以最佳化資料列單欄式 (Optimized Row Columnar, ORC) 格式儲存資料。 ORC 格式是高度最佳化且有效率的 Hive 資料儲存格式。
    插入覆寫 ...SELECT 從包含 [ERROR]log4jLogs 資料表選取資料列,然後將資料插入 errorLogs 資料表。

    注意

    與外部資料表不同之處在於,捨棄內部資料表也會刪除基礎資料。

  3. 若要儲存檔案,請使用 Ctrl+X,然後輸入 Y,最後按 Enter

  4. 使用下列命令,以使用 Beeline 來執行檔案:

    beeline -u 'jdbc:hive2://headnodehost:10001/;transportMode=http' -i query.hql
    

    注意

    -i 參數會啟動 Beeline 並執行 query.hql 檔案中的陳述式。 當查詢完成時,您會看到 jdbc:hive2://headnodehost:10001/> 提示字元。 您也可以使用 -f 參數執行檔案,它會在查詢完成後結束 Beeline。

  5. 若要確認 errorLogs 資料表已建立,請使用下列陳述式傳回 errorLogs 的所有資料列:

    SELECT * from errorLogs;
    

    應該傳回三個資料列,且在資料行 t4 中全部包含 [ERROR]

    +---------------+---------------+---------------+---------------+---------------+---------------+---------------+--+
    | errorlogs.t1  | errorlogs.t2  | errorlogs.t3  | errorlogs.t4  | errorlogs.t5  | errorlogs.t6  | errorlogs.t7  |
    +---------------+---------------+---------------+---------------+---------------+---------------+---------------+--+
    | 2012-02-03    | 18:35:34      | SampleClass0  | [ERROR]       | incorrect     | id            |               |
    | 2012-02-03    | 18:55:54      | SampleClass1  | [ERROR]       | incorrect     | id            |               |
    | 2012-02-03    | 19:25:27      | SampleClass4  | [ERROR]       | incorrect     | id            |               |
    +---------------+---------------+---------------+---------------+---------------+---------------+---------------+--+
    3 rows selected (0.813 seconds)
    

下一步