分享方式:


Azure HDInsight 上的 Apache Hive 和 HiveQL 是什麼?

Apache Hive 是適用於 Apache Hadoop 的資料倉儲系統。 Hive 可執行資料摘要、查詢以及資料分析。 Hive 查詢是以 HiveQL 撰寫而成,這是類似 SQL 的查詢語言。

Hive 可讓您將結構投影在大量非結構化資料上。 定義結構後,您不需具備 Jave 或 MapReduce 相關知識,即可使用 HiveQL來查詢資料。

HDInsight 提供數種已針對特定工作負載進行微調的叢集類型。 下列叢集類型最常用於 Hive 查詢︰

叢集類型 描述
互動式查詢 提供低延遲分析處理 (LLAP) 功能的 Hadoop 叢集,可改善互動式查詢的回應時間。 如需詳細資訊,請參閱開始使用 HDInsight 中的互動式查詢文件。
Hadoop 已針對批次處理工作負載進行微調的 Hadoop 叢集。 如需詳細資訊,請參閱開始使用 HDInsight 中的 Apache Hadoop 文件。
Spark Apache Spark 有可用於 Hive 的內建功能。 如需詳細資訊,請參閱開始使用 HDInsight 上的 Apache Spark 文件。
hbase HiveQL 可以用來查詢 Apache HBase 中儲存的資料。 如需詳細資訊,請參閱開始使用 HDInsight 上的 Apache HBase 文件。

如何使用 Hive

使用下表了解搭配使用 Hive 與 HDInsight 的各種方式︰

使用此方法,如果您想要... ...互動式查詢 ...批次 處理 ...從此 用戶端作業系統
適用於 Visual Studio Code 的 HDInsight 工具 Linux、Unix、macOS X 或 Windows
HDInsight Tools for Visual Studio Windows
Hive 檢視 任何 (以瀏覽器為基礎)
Beeline 用戶端 Linux、Unix、macOS X 或 Windows
REST API   Linux、Unix、macOS X 或 Windows
Windows PowerShell   Windows

HiveQL 語言參考

HiveQL 語言參考可在語言手冊中取得。

Hive 和資料結構

Hive 了解如何使用結構化和半結構化資料。 例如,以特定字元分隔欄位的文字檔案。 下列 HiveQL 陳述式會使用以空格分隔的資料建立資料表︰

CREATE EXTERNAL TABLE log4jLogs (
    t1 string,
    t2 string,
    t3 string,
    t4 string,
    t5 string,
    t6 string,
    t7 string)
ROW FORMAT DELIMITED FIELDS TERMINATED BY ' '
STORED AS TEXTFILE LOCATION '/example/data/';

Hive 也支援自訂複雜或不規則結構化資料的 序列化/反序列化程式 (SerDe) 。 如需詳細資訊,請參閱如何搭配 HDInsight 使用自訂 JSON SerDe 文件 (英文)。

如需 Hive 所支援檔案格式的詳細資訊,請參閱語言手冊 (https://cwiki.apache.org/confluence/display/Hive/LanguageManual)

Hive 內部和外部資料表比較。

您可以使用 Hive 建立兩種類型的資料表:

  • 內部︰資料會儲存在 Hive 資料倉儲中。 資料倉儲位於叢集之預設儲存體上的 /hive/warehouse/

    符合下列其中一項條件時,請使用內部資料表:

    • 資料是暫存的。
    • 您想要 Hive 管理資料表和資料的生命週期。
  • 外部︰資料會儲存在資料倉儲之外。 資料可以儲存在叢集可存取的任何儲存體上。

    符合下列其中一項條件時,請使用外部資料表:

    • 資料也使用於 Hive 之外。 例如,資料檔案由其他程序所更新 (不會鎖定檔案)。
    • 即使在刪除資料表後,資料都必須保留在基礎位置。
    • 您需要自訂位置,例如非預設儲存體帳戶。
    • Hive 以外的程式管理資料格式、位置等等。

如需詳細資訊,請參閱 Hive 內部和外部資料表簡介部落格文章。

使用者定義函數 (UDF)

Hive 也可透過 使用者定義函數 (UDF)延伸。 UDF 可讓您在 HiveQL 中實作功能或不易模型化的邏輯。 如需將 UDF 與 Hive 搭配使用的範例,請參閱以下文件:

範例資料

HDInsight 上的 Hive 已預先載入名為 hivesampletable 的內部資料表。 HDInsight 也提供可搭配 Hive 使用的範例資料集。 這些資料集會儲存在 /example/data/HdiSamples 目錄中。 這些目錄存在於您叢集的預設儲存體中。

範例 Hive 查詢

下列 HiveQL 陳述式將資料行投影在 /example/data/sample.log 檔案︰

DROP TABLE log4jLogs;
CREATE EXTERNAL TABLE log4jLogs (
    t1 string,
    t2 string,
    t3 string,
    t4 string,
    t5 string,
    t6 string,
    t7 string)
ROW FORMAT DELIMITED FIELDS TERMINATED BY ' '
STORED AS TEXTFILE LOCATION '/example/data/';
SELECT t4 AS sev, COUNT(*) AS count FROM log4jLogs
    WHERE t4 = '[ERROR]' AND INPUT__FILE__NAME LIKE '%.log'
    GROUP BY t4;

在上一個範例中,HiveQL 陳述式會執行下列動作:

陳述式 描述
DROP TABLE 如果資料表已存在,請刪除資料表。
CREATE EXTERNAL TABLE 在 Hive 中建立新的外部資料表。 外部資料表只會將資料表定義儲存在 Hive 中。 資料會留在原來的位置,並保持原始格式。
ROW FORMAT 告訴 Hive 如何設定資料格式。 在此情況下,每個記錄中的欄位會以空格隔開。
STORED AS TEXTFILE LOCATION 將資料的儲存位置 (example/data 目錄) 告訴 Hive,且資料會儲存為文字。 資料可以在目錄的一個檔案中,也可以分散在多個檔案中。
SELECT 選取資料行 t4 包含 [ERROR] 值的所有資料列計數。 這個陳述式會傳回值 3,因為有三個資料列包含此值。
INPUT__FILE__NAME LIKE '%.log' Hive 嘗試將結構描述套用至目錄中的所有檔案。 在此情況下,目錄包含不符合結構描述的檔案。 若要防止結果中出現亂碼資料,此陳述式會告訴 Hive 我們只應該從檔名以 log 結尾的檔案傳回資料。

注意

當您預期會由外部來源來更新基礎資料時,請使用外部資料表。 例如,自動化的資料上傳程序,或 MapReduce 作業。

捨棄外部資料表並「不會」 刪除資料,只會刪除資料表定義。

若要建立內部資料表,而不是外部資料表,請使用下列 HiveQL:

CREATE TABLE IF NOT EXISTS errorLogs (
    t1 string,
    t2 string,
    t3 string,
    t4 string,
    t5 string,
    t6 string,
    t7 string)
STORED AS ORC;
INSERT OVERWRITE TABLE errorLogs
SELECT t1, t2, t3, t4, t5, t6, t7 
    FROM log4jLogs WHERE t4 = '[ERROR]';

這些陳述式會執行下列動作:

陳述式 描述
CREATE TABLE IF NOT EXISTS 如果資料表不存在,請加以建立。 因為未使用 EXTERNAL 關鍵字,這個陳述式會建立內部資料表。 資料表會儲存在 Hive 資料倉儲中,並完全受到 Hive 所管理。
STORED AS ORC 以最佳化資料列單欄式 (Optimized Row Columnar, ORC) 格式儲存資料。 ORC 是高度最佳化且有效率的 Hive 資料儲存格式。
插入覆寫…SELECT log4jLogs 資料表選取包含 [ERROR] 的資料列,然後將資料插入 errorLogs 資料表。

注意

與外部資料表不同之處在於,捨棄內部資料表也會刪除基礎資料。

改善 Hive 查詢效能

Apache Tez

Apache Tez 是可讓資料高用量應用程式 (例如 Hive),以大規模而更有效率方式執行作業的架構。 Tez 預設為啟用。 Tez 上的 Apache Hive 設計文件包含實作選擇和調整設定的詳細資料。

低延遲分析處理 (LLAP)

LLAP (有時也稱為 Live Long and Process) 是 Hive 2.0 的新功能,允許在記憶體中快取查詢。

HDInsight 可提供互動式查詢叢集類型的 LLAP。 如需詳細資訊,請參閱開始使用互動式查詢文件。

排程 Hive 查詢

有數項服務可讓您使用排程或隨需的工作流程來執行 Hive 查詢。

Azure Data Factory

Azure Data Factory 可讓您使用 HDInsight 作為 Data Factory 管線的一部分。 若想進一步了解如何使用管線中的 Hive,請參閱使用 Azure Data Factory 中的 Hive 活動轉換資料文件。

Hive 工作和 SQL Server 整合服務

您可以使用 SQL Server Integration Services (SSIS) 來執行 Hive 作業。 適用於 SSIS 的 Azure Feature Pack 中提供下列元件可搭配 HDInsight 上的 Hive 工作使用。

如需詳細資訊,請參閱 Azure Feature Pack 文件。

Apache Oozie

Apache Oozie 是可管理 Hadoop 作業的工作流程和協調系統。 如需搭配使用 Oozie 與 Hive 的詳細資訊,請參閱使用 Apache Oozie 來定義並執行工作流程文件。

注意

HDInsight 中不支援 Phoenix Storage Handler for Hive

下一步

現在您已了解什麼是 Hive 以及如何搭配 HDInsight 中的 Hadoop 使用它,接著請使用下列連結探索 Azure HDInsight 的其他使用方式。