Cara menyebarkan Kluster Big Data SQL Server di Kubernetes
Berlaku untuk: SQL Server 2019 (15.x)
Penting
Add-on Kluster Big Data Microsoft SQL Server 2019 akan dihentikan. Dukungan untuk SQL Server 2019 Kluster Big Data akan berakhir pada 28 Februari 2025. Semua pengguna SQL Server 2019 yang ada dengan Jaminan Perangkat Lunak akan didukung sepenuhnya pada platform dan perangkat lunak akan terus dipertahankan melalui pembaruan kumulatif SQL Server hingga saat itu. Untuk informasi selengkapnya, lihat posting blog pengumuman dan Opsi big data di platform Microsoft SQL Server.
Kluster Big Data SQL Server disebarkan sebagai kontainer docker pada kluster Kubernetes. Ini adalah gambaran umum langkah-langkah penyiapan dan konfigurasi:
- Siapkan kluster Kubernetes pada satu VM, kluster VM, di Azure Kubernetes Service (AKS), Red Hat OpenShift atau di Azure Red Hat OpenShift (ARO).
- Instal alat konfigurasi kluster Azure Data CLI (
azdata
) di komputer klien Anda. - Sebarkan kluster big data SQL Server dalam kluster Kubernetes.
Konfigurasi yang diuji
Lihat Konfigurasi yang diuji untuk daftar lengkap berbagai platform Kubernetes yang divalidasi untuk menyebarkan SQL Server Kluster Big Data.
Edisi SQL Server
Edisi | Catatan |
---|---|
Perusahaan Standard Pengembang |
Edisi Kluster Big Data ditentukan oleh edisi instans master SQL Server. Pada waktu penyebaran edisi Pengembang disebarkan secara default. Anda dapat mengubah edisi setelah penyebaran. Lihat Mengonfigurasi instans master SQL Server. |
Kubernetes
Penyiapan kluster Kubernetes
Jika Anda sudah memiliki kluster Kubernetes yang memenuhi prasyarat di atas, maka Anda dapat melompat langsung ke langkah penyebaran. Bagian ini mengasumsikan pemahaman dasar tentang konsep Kubernetes. Untuk informasi terperinci tentang Kubernetes, lihat dokumentasi Kubernetes.
Anda dapat memilih untuk menyebarkan Kubernetes dengan cara berikut:
Sebarkan Kubernetes pada: | Deskripsi | Link |
---|---|---|
Azure Kubernetes Services (AKS) | Layanan kontainer Kubernetes terkelola di Azure. | Petunjuk |
Satu atau Beberapa komputer (kubeadm ) |
Kluster Kubernetes yang disebarkan pada komputer fisik atau virtual menggunakan kubeadm |
Petunjuk |
Azure Red Hat OpenShift | Penawaran terkelola OpenShift yang berjalan di Azure. | Petunjuk |
Red Hat OpenShift | Cloud hibrid, platform aplikasi Kubernetes perusahaan. | Petunjuk |
Tip
Anda juga dapat membuat skrip penyebaran AKS dan kluster big data dalam satu langkah. Untuk informasi selengkapnya, lihat cara melakukan ini dalam skrip python atau buku catatan Azure Data Studio.
Memverifikasi konfigurasi Kubernetes
Jalankan kubectl
perintah untuk melihat konfigurasi kluster. Pastikan bahwa kubectl ditujukan ke konteks kluster yang benar.
kubectl config view
Penting
Jika Anda menyebarkan pada kluster Kubernetes multi node yang Anda bootstrap menggunakan kubeadm
, sebelum memulai penyebaran kluster big data, pastikan jam disinkronkan di semua node Kubernetes yang ditargetkan penyebaran. Kluster big data memiliki properti kesehatan bawaan untuk berbagai layanan yang sensitif terhadap waktu dan ke condong jam dapat mengakibatkan status yang salah.
Setelah mengonfigurasi kluster Kubernetes, Anda dapat melanjutkan penyebaran kluster big data SQL Server baru. Jika Anda memutakhirkan dari rilis sebelumnya, lihat Cara meningkatkan SQL Server Kluster Big Data.
Pastikan Anda memiliki penyimpanan yang dikonfigurasi
Sebagian besar penyebaran kluster big data harus memiliki penyimpanan persisten. Saat ini, Anda perlu memastikan bahwa Anda memiliki rencana tentang bagaimana Anda akan menyediakan penyimpanan persisten pada kluster Kubernetes sebelum menyebarkan.
- Jika Anda menyebarkan di AKS, tidak ada penyiapan penyimpanan yang diperlukan. AKS menyediakan kelas penyimpanan bawaan dengan provisi dinamis. Anda dapat menyesuaikan kelas penyimpanan (
default
ataumanaged-premium
) dalam file konfigurasi penyebaran. Profil bawaan menggunakandefault
kelas penyimpanan. - Jika menyebarkan pada kluster Kubernetes yang disebarkan menggunakan
kubeadm
, Anda harus memastikan bahwa Anda memiliki penyimpanan yang memadai untuk kluster skala yang Anda inginkan yang tersedia dan dikonfigurasi untuk digunakan. Jika Anda ingin menyesuaikan bagaimana penyimpanan Anda digunakan, Anda harus melakukan ini sebelum melanjutkan. Lihat Persistensi data dengan kluster big data SQL Server di Kubernetes.
Menginstal alat Big Data SQL Server 2019
Sebelum menyebarkan kluster big data SQL Server 2019, pertama-tama instal alat big data:
- Azure Data CLI (
azdata
) kubectl
- Azure Data Studio
- Ekstensi Virtualisasi Data untuk Azure Data Studio
- Azure CLI, jika menyebarkan ke AKS
Ringkasan penyebaran
Sebagian besar pengaturan kluster big data didefinisikan dalam file konfigurasi penyebaran JSON. Anda dapat menggunakan profil penyebaran default untuk kluster AKS dan Kubernetes yang dibuat dengan kubeadm
atau Anda dapat menyesuaikan file konfigurasi penyebaran Anda sendiri untuk digunakan selama penyiapan. Untuk alasan keamanan, pengaturan autentikasi diteruskan melalui variabel lingkungan.
Bagian berikut memberikan detail selengkapnya tentang cara mengonfigurasi penyebaran kluster big data Anda serta contoh penyesuaian umum. Selain itu, Anda selalu dapat mengedit file konfigurasi penyebaran kustom menggunakan editor seperti Visual Studio Code misalnya.
Konfigurasi default
Opsi penyebaran kluster big data ditentukan dalam file konfigurasi JSON. Anda dapat memulai penyesuaian penyebaran kluster dari profil penyebaran bawaan yang tersedia di Azure Data CLI (azdata
).
Catatan
Gambar kontainer yang diperlukan untuk penyebaran kluster big data dihosting di Microsoft Container Registry (mcr.microsoft.com
), di mssql/bdc
repositori. Secara default, pengaturan ini sudah disertakan dalam control.json
file konfigurasi di setiap profil penyebaran yang disertakan dengan Azure Data CLI (azdata
). Selain itu, tag gambar kontainer untuk setiap rilis juga telah diisi sebelumnya dalam file konfigurasi yang sama. Jika Anda perlu menarik gambar kontainer ke registri kontainer privat Anda sendiri dan atau memodifikasi pengaturan registri/repositori kontainer, ikuti instruksi di artikel Penginstalan offline
Jalankan perintah ini untuk menemukan templat yang tersedia:
azdata bdc config list -o table
Templat berikut tersedia pada SQL Server 2019 CU5:
Profil penyebaran | Lingkungan Kubernetes |
---|---|
aks-dev-test |
Menyebarkan Kluster Big Data SQL Server di Azure Kubernetes Service (AKS) |
aks-dev-test-ha |
Sebarkan Kluster Big Data SQL Server di Azure Kubernetes Service (AKS). Layanan penting misi seperti master SQL Server dan node nama HDFS dikonfigurasi untuk ketersediaan tinggi. |
aro-dev-test |
Sebarkan Kluster Big Data SQL Server di Azure Red Hat OpenShift untuk pengembangan dan pengujian. Diperkenalkan di SQL Server 2019 CU 5. |
aro-dev-test-ha |
Sebarkan Kluster Big Data SQL Server dengan ketersediaan tinggi pada kluster Red Hat OpenShift untuk pengembangan dan pengujian. Diperkenalkan di SQL Server 2019 CU 5. |
kubeadm-dev-test |
Sebarkan Kluster Big Data SQL Server pada kluster Kubernetes yang dibuat dengan kubeadm menggunakan satu atau beberapa komputer fisik atau virtual. |
kubeadm-prod |
Sebarkan Kluster Big Data SQL Server pada kluster Kubernetes yang dibuat dengan kubeadm menggunakan satu atau beberapa komputer fisik atau virtual. Gunakan templat ini untuk mengaktifkan layanan kluster big data untuk diintegrasikan dengan Direktori Aktif. Layanan penting misi seperti instans master SQL Server dan node nama HDFS disebarkan dalam konfigurasi yang sangat tersedia. |
openshift-dev-test |
Sebarkan Kluster Big Data SQL Server pada kluster Red Hat OpenShift untuk pengembangan dan pengujian. Diperkenalkan di SQL Server 2019 CU 5. |
openshift-prod |
Sebarkan Kluster Big Data SQL Server dengan ketersediaan tinggi pada kluster Red Hat OpenShift. Diperkenalkan di SQL Server 2019 CU 5. |
Anda dapat menyebarkan kluster big data dengan menjalankan azdata bdc create
. Ini meminta Anda untuk memilih salah satu konfigurasi default lalu memandu Anda melalui penyebaran.
Saat pertama kali menjalankan Azure Data CLI (azdata
) Anda harus menyertakan --accept-eula=yes
untuk menerima perjanjian lisensi pengguna akhir (EULA).
azdata bdc create --accept-eula=yes
Dalam skenario ini, Anda diminta untuk pengaturan apa pun yang bukan bagian dari konfigurasi default, seperti kata sandi.
Penting
Nama default kluster big data adalah mssql-cluster
. Hal ini penting untuk diketahui untuk menjalankan salah kubectl
satu perintah yang menentukan namespace Layanan Kubernetes dengan -n
parameter .
Konfigurasi kustom
Dimungkinkan juga untuk menyesuaikan penyebaran Anda untuk mengakomodasi beban kerja yang anda rencanakan untuk dijalankan. Anda tidak dapat mengubah skala (jumlah replika) atau pengaturan penyimpanan untuk layanan kluster big data pasca penyebaran, jadi Anda harus merencanakan konfigurasi penyebaran dengan hati-hati untuk menghindari masalah kapasitas. Untuk menyesuaikan penyebaran Anda, ikuti langkah-langkah berikut:
Mulailah dengan salah satu profil penyebaran standar yang cocok dengan lingkungan Kubernetes Anda. Anda dapat menggunakan
azdata bdc config list
perintah untuk mencantumkannya:azdata bdc config list
Untuk menyesuaikan penyebaran Anda, buat salinan profil penyebaran dengan
azdata bdc config init
perintah . Misalnya, perintah berikut membuat salinanaks-dev-test
file konfigurasi penyebaran di direktori target bernamacustom
:azdata bdc config init --source aks-dev-test --target custom
Tip
--target
menentukan direktori yang berisi file konfigurasi,bdc.json
dancontrol.json
, berdasarkan--source
parameter .Untuk menyesuaikan pengaturan di profil konfigurasi penyebaran, Anda dapat mengedit file konfigurasi penyebaran di alat yang baik untuk mengedit file JSON, seperti Visual Studio Code. Untuk otomatisasi skrip, Anda juga dapat mengedit profil penyebaran kustom menggunakan
azdata bdc config
perintah . Misalnya, perintah berikut mengubah profil penyebaran kustom untuk mengubah nama kluster yang disebarkan dari default (mssql-cluster
) menjaditest-cluster
:azdata bdc config replace --config-file custom/bdc.json --json-values "metadata.name=test-cluster"
Tip
Anda juga dapat meneruskan nama kluster pada waktu penyebaran menggunakan parameter --name untuk
azdata create bdc
perintah. Parameter dalam perintah lebih diutamakan daripada nilai dalam file konfigurasi.Alat yang berguna untuk menemukan jalur JSON adalah JSONPath Online Evaluator.
Selain meneruskan pasangan kunci-nilai, Anda juga dapat memberikan nilai JSON sebaris atau meneruskan file patch JSON. Untuk informasi selengkapnya, lihat Mengonfigurasi pengaturan penyebaran untuk sumber daya dan layanan Kluster Big Data.
Teruskan file konfigurasi kustom ke
azdata bdc create
. Perhatikan bahwa Anda harus mengatur variabel lingkungan yang diperlukan, jika tidak, terminal akan meminta nilai:azdata bdc create --config-profile custom --accept-eula yes
Peringatan
Parameter imagePullPolicy
diperlukan untuk diatur sebagai "Always"
dalam profil penyebaran control.json file.
Untuk informasi selengkapnya tentang struktur file konfigurasi penyebaran, lihat Referensi file konfigurasi penyebaran. Untuk contoh konfigurasi lainnya, lihat Mengonfigurasi pengaturan penyebaran untuk Kluster Big Data.
Variabel lingkungan
Variabel lingkungan berikut digunakan untuk pengaturan keamanan yang tidak disimpan dalam file konfigurasi penyebaran. Perhatikan bahwa pengaturan Docker kecuali kredensial dapat diatur dalam file konfigurasi.
Variabel lingkungan | Persyaratan | Deskripsi |
---|---|---|
AZDATA_USERNAME |
Wajib diisi | Nama pengguna untuk administrator Kluster Big Data SQL Server. Login sysadmin dengan nama yang sama dibuat dalam instans master SQL Server. Sebagai praktik terbaik keamanan, sa akun dinonaktifkan. Dimulai dengan SQL Server 2019 (15.x) CU 5, saat Anda menyebarkan kluster baru dengan autentikasi dasar semua titik akhir termasuk penggunaan AZDATA_USERNAME gateway dan AZDATA_PASSWORD . Titik akhir pada kluster yang ditingkatkan ke CU 5 terus digunakan root sebagai nama pengguna untuk menyambungkan ke titik akhir gateway. Perubahan ini tidak berlaku untuk penyebaran menggunakan autentikasi Direktori Aktif. Lihat Kredensial untuk mengakses layanan melalui titik akhir gateway dalam catatan rilis. |
AZDATA_PASSWORD |
Wajib | Kata sandi untuk akun pengguna yang dibuat di atas. Pada kluster yang disebarkan sebelum SQL Server 2019 CU5, kata sandi yang sama digunakan untuk root pengguna, untuk mengamankan gateway Knox dan HDFS. |
ACCEPT_EULA |
Diperlukan untuk penggunaan pertama Azure Data CLI (azdata ) |
Atur ke "ya". Saat diatur sebagai variabel lingkungan, itu menerapkan EULA ke SQL Server dan Azure Data CLI (azdata ). Jika tidak diatur sebagai variabel lingkungan, Anda dapat menyertakan --accept-eula=yes dalam penggunaan pertama perintah Azure Data CLI (azdata ). |
DOCKER_USERNAME |
Opsional | Nama pengguna untuk mengakses gambar kontainer jika mereka disimpan di repositori privat. Lihat topik Penyebaran offline untuk detail selengkapnya tentang cara menggunakan repositori Docker privat untuk penyebaran kluster big data. |
DOCKER_PASSWORD |
Opsional | Kata sandi untuk mengakses repositori privat di atas. |
Variabel lingkungan ini harus diatur sebelum memanggil azdata bdc create
. Jika ada variabel yang tidak diatur, Anda akan diminta untuk itu.
Contoh berikut menunjukkan cara mengatur variabel lingkungan untuk Linux (bash) dan Windows (PowerShell):
export AZDATA_USERNAME=admin
export AZDATA_PASSWORD=<password>
export ACCEPT_EULA=yes
SET AZDATA_USERNAME=admin
SET AZDATA_PASSWORD=<password>
Catatan
Pada kluster yang disebarkan sebelum SQL Server 2019 CU 5, Anda harus menggunakan root
pengguna untuk gateway Knox dengan kata sandi di atas. root
adalah satu-satunya pengguna yang didukung untuk dalam autentikasi dasar ini (nama pengguna/kata sandi).
Dimulai dengan SQL Server 2019 (15.x) CU 5, saat Anda menyebarkan kluster baru dengan autentikasi dasar semua titik akhir termasuk penggunaan AZDATA_USERNAME
gateway dan AZDATA_PASSWORD
. Titik akhir pada kluster yang ditingkatkan ke CU 5 terus digunakan root
sebagai nama pengguna untuk menyambungkan ke titik akhir gateway. Perubahan ini tidak berlaku untuk penyebaran menggunakan autentikasi Direktori Aktif. Lihat Kredensial untuk mengakses layanan melalui titik akhir gateway dalam catatan rilis.
Untuk menyambungkan ke SQL Server dengan autentikasi dasar, gunakan nilai yang sama dengan variabel lingkungan AZDATA_USERNAME dan AZDATA_PASSWORD.
Setelah mengatur variabel lingkungan, Anda harus menjalankan azdata bdc create
untuk memicu penyebaran. Contoh ini menggunakan profil konfigurasi kluster yang dibuat di atas:
azdata bdc create --config-profile custom --accept-eula yes
Harap perhatikan panduan berikut:
- Pastikan Anda membungkus kata sandi dalam tanda kutip ganda jika berisi karakter khusus. Anda dapat mengatur
AZDATA_PASSWORD
ke apa pun yang Anda suka, tetapi pastikan kata sandi cukup kompleks dan tidak menggunakan!
karakter ,&
atau'
. Perhatikan bahwa pembatas tanda kutip ganda hanya berfungsi dalam perintah bash. - Login
AZDATA_USERNAME
adalah administrator sistem pada instans master SQL Server yang dibuat selama penyiapan. Setelah membuat kontainer SQL Server Anda,AZDATA_PASSWORD
variabel lingkungan yang Anda tentukan dapat ditemukan dengan menjalankanecho $AZDATA_PASSWORD
dalam kontainer. Untuk tujuan keamanan, ubah kata sandi sebagai praktik terbaik.
Memasang tanpa pengawas
Untuk penyebaran tanpa pengawas, Anda harus mengatur semua variabel lingkungan yang diperlukan, menggunakan file konfigurasi, dan memanggil azdata bdc create
perintah dengan --accept-eula yes
parameter . Contoh di bagian sebelumnya menunjukkan sintaks untuk penginstalan tanpa pengawas.
Memantau penyebaran
Selama bootstrap kluster, jendela perintah klien mengembalikan status penyebaran. Selama proses penyebaran, Anda akan melihat serangkaian pesan di mana ia menunggu pod pengontrol:
Waiting for cluster controller to start.
Dalam 15 hingga 30 menit, Anda harus diberi tahu bahwa pod pengontrol sedang berjalan:
Cluster controller endpoint is available at 11.111.111.11:30080.
Cluster control plane is ready.
Penting
Seluruh penyebaran dapat memakan waktu lama karena waktu yang diperlukan untuk mengunduh gambar kontainer untuk komponen kluster big data. Namun, seharusnya tidak memakan waktu beberapa jam. Jika Anda mengalami masalah dengan penyebaran Anda, lihat Memantau dan memecahkan masalah Kluster Big Data SQL Server.
Ketika penyebaran selesai, output memberi tahu Anda tentang keberhasilan:
Cluster deployed successfully.
Tip
Nama default untuk kluster big data yang disebarkan adalah mssql-cluster
kecuali dimodifikasi oleh konfigurasi kustom.
Mengambil titik akhir
Setelah skrip penyebaran berhasil diselesaikan, Anda dapat memperoleh alamat titik akhir eksternal untuk kluster big data menggunakan langkah-langkah berikut.
Setelah penyebaran, temukan alamat IP titik akhir pengontrol baik dari output standar penyebaran atau dengan melihat output EXTERNAL-IP dari perintah berikut
kubectl
:kubectl get svc controller-svc-external -n <your-big-data-cluster-name>
Tip
Jika Anda tidak mengubah nama default selama penyebaran, gunakan
-n mssql-cluster
di perintah sebelumnya.mssql-cluster
adalah nama default untuk kluster big data.Masuk ke kluster big data dengan login azdata. Atur
--endpoint
parameter ke alamat IP eksternal titik akhir pengontrol.azdata login --endpoint https://<ip-address-of-controller-svc-external>:30080 --username <user-name>
Tentukan nama pengguna dan kata sandi yang Anda konfigurasi untuk admin kluster big data (AZDATA_USERNAME dan AZDATA_PASSWORD) selama penyebaran.
Tip
Jika Anda adalah administrator kluster Kubernetes dan memiliki akses ke file konfigurasi kluster (file konfigurasi kube), Anda dapat mengonfigurasi konteks saat ini untuk menunjuk ke kluster Kubernetes yang ditargetkan. Dalam hal ini, Anda dapat masuk dengan
azdata login -n <namespaceName>
, di mananamespace
adalah nama kluster big data. Anda akan dimintai kredensial jika tidak ditentukan dalam perintah masuk.Jalankan daftar titik akhir azdata bdc untuk mendapatkan daftar dengan deskripsi setiap titik akhir dan alamat IP dan nilai port yang sesuai.
azdata bdc endpoint list -o table
Daftar berikut ini memperlihatkan contoh output dari perintah ini:
Description Endpoint Ip Name Port Protocol ------------------------------------------------------ --------------------------------------------------------- -------------- ----------------- ------ ---------- Gateway to access HDFS files, Spark https://11.111.111.111:30443 11.111.111.111 gateway 30443 https Spark Jobs Management and Monitoring Dashboard https://11.111.111.111:30443/gateway/default/sparkhistory 11.111.111.111 spark-history 30443 https Spark Diagnostics and Monitoring Dashboard https://11.111.111.111:30443/gateway/default/yarn 11.111.111.111 yarn-ui 30443 https Application Proxy https://11.111.111.111:30778 11.111.111.111 app-proxy 30778 https Management Proxy https://11.111.111.111:30777 11.111.111.111 mgmtproxy 30777 https Log Search Dashboard https://11.111.111.111:30777/kibana 11.111.111.111 logsui 30777 https Metrics Dashboard https://11.111.111.111:30777/grafana 11.111.111.111 metricsui 30777 https Cluster Management Service https://11.111.111.111:30080 11.111.111.111 controller 30080 https SQL Server Master Instance Front-End 11.111.111.111,31433 11.111.111.111 sql-server-master 31433 tcp HDFS File System Proxy https://11.111.111.111:30443/gateway/default/webhdfs/v1 11.111.111.111 webhdfs 30443 https Proxy for running Spark statements, jobs, applications https://11.111.111.111:30443/gateway/default/livy/v1 11.111.111.111 livy 30443 https
Anda juga bisa mendapatkan semua titik akhir layanan yang disebarkan untuk kluster dengan menjalankan perintah berikut kubectl
:
kubectl get svc -n <your-big-data-cluster-name>
Memverifikasi status kluster
Setelah penyebaran, Anda dapat memeriksa status kluster dengan perintah azdata bdc status show .
azdata bdc status show
Tip
Untuk menjalankan perintah status, Anda harus terlebih dahulu masuk dengan azdata login
perintah , yang diperlihatkan di bagian titik akhir sebelumnya.
Berikut ini memperlihatkan contoh output dari perintah ini:
Bdc: ready Health Status: healthy
===========================================================================================================================================================================================================================================
Services: ready Health Status: healthy
-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Servicename State Healthstatus Details
sql ready healthy -
hdfs ready healthy -
spark ready healthy -
control ready healthy -
gateway ready healthy -
app ready healthy -
Sql Services: ready Health Status: healthy
-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Resourcename State Healthstatus Details
master ready healthy StatefulSet master is healthy
compute-0 ready healthy StatefulSet compute-0 is healthy
data-0 ready healthy StatefulSet data-0 is healthy
storage-0 ready healthy StatefulSet storage-0 is healthy
Hdfs Services: ready Health Status: healthy
-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Resourcename State Healthstatus Details
nmnode-0 ready healthy StatefulSet nmnode-0 is healthy
storage-0 ready healthy StatefulSet storage-0 is healthy
sparkhead ready healthy StatefulSet sparkhead is healthy
Spark Services: ready Health Status: healthy
-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Resourcename State Healthstatus Details
sparkhead ready healthy StatefulSet sparkhead is healthy
storage-0 ready healthy StatefulSet storage-0 is healthy
Control Services: ready Health Status: healthy
-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Resourcename State Healthstatus Details
controldb ready healthy -
control ready healthy -
metricsdc ready healthy DaemonSet metricsdc is healthy
metricsui ready healthy ReplicaSet metricsui is healthy
metricsdb ready healthy StatefulSet metricsdb is healthy
logsui ready healthy ReplicaSet logsui is healthy
logsdb ready healthy StatefulSet logsdb is healthy
mgmtproxy ready healthy ReplicaSet mgmtproxy is healthy
Gateway Services: ready Health Status: healthy
-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Resourcename State Healthstatus Details
gateway ready healthy StatefulSet gateway is healthy
App Services: ready Health Status: healthy
-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Resourcename State Healthstatus Details
appproxy ready healthy ReplicaSet appproxy is healthy
Anda juga bisa mendapatkan status yang lebih rinci dengan perintah berikut:
- status kontrol bdc azdata menampilkan status kesehatan untuk semua komponen yang terkait dengan layanan manajemen kontrol
azdata bdc control status show
Contoh output:
Control: ready Health Status: healthy
===========================================================================================================================================================================================================================================
Resources: ready Health Status: healthy
-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Resourcename State Healthstatus Details
controldb ready healthy -
control ready healthy -
metricsdc ready healthy DaemonSet metricsdc is healthy
metricsui ready healthy ReplicaSet metricsui is healthy
metricsdb ready healthy StatefulSet metricsdb is healthy
logsui ready healthy ReplicaSet logsui is healthy
logsdb ready healthy StatefulSet logsdb is healthy
mgmtproxy ready healthy ReplicaSet mgmtproxy is healthy
azdata bdc sql status show
mengembalikan status kesehatan untuk semua sumber daya yang memiliki layanan SQL Server
azdata bdc sql status show
Contoh output:
Sql: ready Health Status: healthy
===========================================================================================================================================================================================================================================
Resources: ready Health Status: healthy
-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Resourcename State Healthstatus Details
master ready healthy StatefulSet master is healthy
compute-0 ready healthy StatefulSet compute-0 is healthy
data-0 ready healthy StatefulSet data-0 is healthy
storage-0 ready healthy StatefulSet storage-0 is healthy
Penting
Saat menggunakan --all
parameter output dari perintah ini berisi URL ke dasbor Kibana dan Grafana untuk analisis yang lebih rinci.
Selain menggunakan Azure Data CLI (azdata
), Anda juga dapat menggunakan Azure Data Studio untuk menemukan titik akhir dan informasi status. Untuk informasi selengkapnya tentang melihat status kluster dengan Azure Data CLI (azdata
) dan Azure Data Studio, lihat Cara melihat status kluster big data.
Menyambungkan ke kluster
Untuk informasi selengkapnya tentang cara menyambungkan ke kluster big data, lihat Menyambungkan ke kluster big data SQL Server dengan Azure Data Studio.
Langkah berikutnya
Untuk mempelajari selengkapnya tentang penyebaran Kluster Big Data SQL Server, lihat sumber daya berikut ini: