Share via


設定 SQL Server 巨量資料叢集 - CU9 之前的版本

適用於:SQL Server 2019 (15.x)

重要

Microsoft SQL Server 2019 巨量資料叢集附加元件將會淘汰。 SQL Server 2019 巨量資料叢集的支援將於 2025 年 2 月 28 日結束。 平台上將完全支援含軟體保證 SQL Server 2019 的所有現有使用者,而且軟體將會持續透過 SQL Server 累積更新來維護,直到該時間為止。 如需詳細資訊,請參閱公告部落格文章Microsoft SQL Server 平台上的巨量資料選項

在 SQL Server 2019 巨量資料叢集 CU8 版和更早版本中,您可以在部署階段透過部署 bdc.json 檔案來設定巨量資料叢集設定。 SQL Server 主要執行個體只能使用 mssql-conf 在部署後設定。

注意

在 CU9 版之前和支援已啟用設定的叢集之前,巨量資料叢集只能在部署期間設定,但 SQL Server 主要執行個體除外 - 只能在部署後使用 mssql-conf 進行設定。 如需設定 CU9 和更新版本的指示,請參閱設定 SQL Server 巨量資料叢集

設定範圍

CU9 之前的巨量資料叢集設定有兩個範圍層級:serviceresource。 設定的階層也會遵循這個從最高到最低的順序。 BDC 元件將會採用在最低範圍定義之設定的值。 如果未在指定範圍定義設定,其將繼承來自其較高父範圍的值。

例如,您可以定義 Spark 驅動程式將在存放集區與 Sparkhead 資源中使用的預設核心數目。 您可以使用兩種方式執行此動作:

  • Spark 服務範圍指定預設核心值
  • storage-0sparkhead 資源範圍指定預設核心值

在第一個案例中,Spark 服務 (存放集區與 Sparkhead) 所有較低範圍的資源都將「繼承」來自 Spark 服務預設值的預設核心數目。

在第二個案例中,每個資源都將使用在其各自範圍中定義的值。

如果核心的預設數目已同時在服務與資源範圍中定義,則資源範圍值將會覆寫服務範圍值,因為這是指定設定的最低「使用者設定」範圍。

如需有關設定的特定資訊,請參閱適當的文章:

設定 SQL Server 主要執行個體

設定 SQL Server 巨量資料叢集的主要執行個體。

無法在部署階段為 SQL Server 主要執行個體設定伺服器組態設定。 本文描述如何設定 SQL Server edition、啟用或停用 SQL Server Agent、啟用特定追蹤旗標,或啟用/停用客戶意見反應等設定的暫時因應措施。

若要變更這些設定的任一個,請遵循下列步驟:

  1. 建立包含目標設定的自訂 mssql-custom.conf 檔案。 下列範例會啟用 SQL 代理程式、遙測、設定 Enterprise Edition 的 PID,並啟用追蹤旗標 1204:

    [sqlagent]
    enabled=true
    
    [telemetry]
    customerfeedback=true
    userRequestedLocalAuditDirectory = /tmp/audit
    
    [DEFAULT]
    pid = Enterprise
    
    [traceflag]
    traceflag0 = 1204
    
  2. mssql-custom.conf 檔案複製到 master-0 Pod 中 mssql-server 容器的 /var/opt/mssql 內。 將 <namespaceName> 取代為巨量資料叢集名稱。

    kubectl cp mssql-custom.conf master-0:/var/opt/mssql/mssql-custom.conf -c mssql-server -n <namespaceName>
    
  3. 將 SQL Server 執行個體重新啟動。 將 <namespaceName> 取代為巨量資料叢集名稱。

    kubectl exec -it master-0  -c mssql-server -n <namespaceName> -- /bin/bash
    supervisorctl restart mssql-server
    exit
    

重要

如果 SQL Server 的主要執行個體位於可用性群組設定中,請複製所有 master Pod 中的 mssql-custom.conf 檔案。 請注意,每次重新啟動都會導致容錯移轉,因此,請務必確定您將此活動的時間設定在停機期間。

已知限制

  • 上述步驟需要 Kubernetes 叢集系統管理員權限
  • 您無法在部署後變更巨量資料叢集 SQL Server 主要執行個體的伺服器定序。

設定 Apache Spark 和 Apache Hadoop

為了在巨量資料叢集中設定 Apache Spark 和 Apache Hadoop,您必須在部署階段修改叢集設定檔。

巨量資料叢集有四個組態類別:

  • sql
  • hdfs
  • spark
  • gateway

sqlhdfssparksql 為服務。 每項服務都會對應到同名的組態類別。 所有閘道組態都會分在 gateway 類別。

例如,服務 hdfs 中的所有組態都屬於 hdfs 類別。 請注意,所有 Hadoop (核心網站)、HDFS 和 Zookeeper 組態都屬於 hdfs 類別,而所有 Livy、Spark、Yarn、Hive 中繼存放區組態都屬於 spark 類別。

支援的組態 會列出您可以在部署 SQL Server 巨量數據叢集時設定的 Apache Spark 和 Hadoop 屬性。

下列各節列出您在叢集中無法修改的屬性:

下一步

設定 SQL Server 巨量資料叢集