Bagikan melalui


Sebarkan sistem perluasan skala SAP Hana dengan simpul siaga di VM Azure menggunakan Azure NetApp Files di SUSE Linux Enterprise Server

Artikel ini menjelaskan cara menyebarkan sistem SAP Hana dengan ketersediaan tinggi dalam konfigurasi peluasan skala dengan siaga di komputer virtual (VM) Azure menggunakan Azure NetApp Files untuk volume penyimpanan bersama.

Dalam contoh konfigurasi, perintah penginstalan, dan sebagainya, instans HANA adalah 03 dan ID sistem HANA adalah HN1. Contohnya didasarkan pada HANA 2.0 SP4 dan SUSE Linux Enterprise Server untuk SAP 12 SP4.

Sebelum Anda mulai, lihat catatan dan makalah SAP berikut:

Gambaran Umum

Salah satu metode untuk mencapai ketersediaan tinggi HANA adalah dengan mengonfigurasi kegagalan otomatis host. Untuk mengonfigurasi kegagalan otomatis host, Anda menambahkan satu atau beberapa komputer virtual ke sistem HANA dan mengonfigurasinya sebagai simpul siaga. Ketika simpul aktif gagal, simpul siaga secara otomatis mengambil alih. Dalam konfigurasi yang disajikan dengan komputer virtual Azure, Anda mencapai kegagalan otomatis dengan menggunakan NFS di Azure NetApp Files.

Catatan

Simpul siaga membutuhkan akses ke semua volume database. Volume HANA harus dipasang sebagai volume NFSv4. Mekanisme penguncian berbasis sewa file yang ditingkatkan dalam protokol NFSv4 digunakan untuk I/O pagar.

Penting

Untuk membangun konfigurasi yang didukung, Anda harus menyebarkan data HANA dan volume log sebagai volume NFSv4.1 dan memasangnya dengan menggunakan protokol NFSv4.1. Konfigurasi kegagalan otomatis host HANA dengan simpul siaga tidak didukung dengan NFSv3.

Gambaran umum Ketersediaan Tinggi SAP NetWeaver

Dalam diagram sebelumnya, yang mengikuti rekomendasi jaringan SAP Hana, tiga subnet diwakili dalam satu jaringan virtual Azure:

  • Untuk komunikasi klien
  • Untuk komunikasi dengan sistem penyimpanan
  • Untuk komunikasi antar-simpul HANA internal

Volume Azure NetApp berada dalam subnet terpisah, ditujukan ke Azure NetApp Files.

Untuk contoh konfigurasi ini, subnet adalah:

  • client 10.23.0.0/24
  • storage 10.23.2.0/24
  • hana 10.23.3.0/24
  • anf 10.23.1.0/26

Menyiapkan infrastruktur Azure NetApp Files

Sebelum Anda melanjutkan penyiapan infrastruktur Azure NetApp Files, biasakan diri Anda dengan dokumentasi NetApp Files Azure.

Azure NetApp Files tersedia di beberapa wilayah Azure. Periksa untuk melihat apakah wilayah Azure yang Anda pilih menawarkan Azure NetApp Files.

Untuk informasi tentang ketersediaan Azure NetApp Files menurut Azure region, lihat Ketersediaan Azure NetApp Files berdasarkan Azure Region.

Pertimbangan penting

Saat Anda membuat Azure NetApp Files untuk SAP NetWeaver pada arsitektur Ketersediaan Tinggi SUSE, ketahui pertimbangan penting yang didokumentasikan dalam volume NFS v4.1 di Azure NetApp Files untuk SAP Hana.

Ukuran untuk database HANA di Azure NetApp Files

Throughput volume Azure NetApp Files adalah fungsi dari ukuran volume dan tingkat layanan, seperti yang didokumentasikan dalam Tingkat layanan untuk Azure NetApp Files.

Saat Anda merancang infrastruktur untuk SAP Hana di Azure dengan Azure NetApp Files, ketahui rekomendasi dalam volume NFS v4.1 di Azure NetApp Files untuk SAP Hana.

Konfigurasi dalam artikel ini disajikan dengan Volume Azure NetApp Files sederhana.

Penting

Untuk sistem produksi, di mana performa adalah kunci, sebaiknya evaluasi dan pertimbangkan untuk menggunakan grup volume aplikasi Azure NetApp Files untuk SAP Hana.

Sebarkan sumber daya Azure NetApp Files

Instruksi berikut mengasumsikan bahwa Anda telah menyebarkan jaringan virtual Azure Anda. Sumber daya dan VM Azure NetApp Files, di mana sumber daya Azure NetApp Files akan dipasang, harus disebarkan di jaringan virtual Azure yang sama atau di jaringan virtual Azure yang diserekan.

  1. Buat akun NetApp di wilayah Azure pilihan Anda dengan mengikuti instruksi di Buat akun NetApp.

  2. Siapkan kumpulan kapasitas Azure NetApp Files dengan mengikuti instruksi pada Menyiapkan kumpulan kapasitas Azure NetApp Files.

    Arsitektur HANA yang disajikan dalam artikel ini menggunakan kumpulan kapasitas Azure NetApp Files tunggal di tingkat Layanan Ultra. Untuk beban kerja HANA di Azure, sebaiknya gunakan Azure NetApp Files Ultra atau Premium untuk tingkat layanannya.

  3. Delegasikan subnet ke Azure NetApp Files, seperti yang dijelaskan dalam instruksi di Mendelegasikan subnet ke Azure NetApp Files.

  4. Sebarkan volume Azure NetApp Files dengan mengikuti instruksi pada Membuat volume NFS untuk Azure NetApp Files.

    Saat Anda menyebarkan volume, pastikan untuk memilih versi NFSv4.1. Saat ini, akses ke NFSv4.1 perlu ditambahkan ke daftar yang izinkan. Sebarkan volume di subnet Azure NetApp Files yang ditunjuk. Alamat IP volume Azure NetApp ditetapkan secara otomatis.

    Perlu diingat bahwa sumber daya Azure NetApp Files dan VM Azure harus berada di jaringan virtual Azure yang sama atau di jaringan virtual Azure yang diserekan. Misalnya, HN1-data-mnt00001, HN1-log-mnt00001, dan sebagainya, adalah nama volume dan nfs://10.23.1.5/HN1-data-mnt00001, nfs://10.23.1.4/HN1-log-mnt00001, dan sebagainya, adalah jalur file untuk volume Azure NetApp Files.

    • volume HN1-data-mnt00001 (nfs://10.23.1.5/HN1-data-mnt00001)
    • volume HN1-data-mnt00002 (nfs://10.23.1.6/HN1-data-mnt00002)
    • volume HN1-log-mnt00001 (nfs://10.23.1.4/HN1-log-mnt00001)
    • volume HN1-log-mnt00002 (nfs://10.23.1.6/HN1-log-mnt00002)
    • volume HN1-shared (nfs://10.23.1.4/HN1-shared)

    Dalam contoh ini, kami menggunakan volume Azure NetApp Files terpisah untuk setiap data HANA dan volume log. Untuk konfigurasi yang lebih hemat biaya pada sistem yang lebih kecil atau tidak produktif, Anda dapat menempatkan semua data dipasang pada volume tunggal dan semua log dipasang pada volume tunggal.

Sebarkan komputer virtual Linux melalui portal Microsoft Azure

Pertama, Anda perlu membuat volume Azure NetApp Files. Kemudian lakukan langkah-langkah berikut:

  1. Buat subnet jaringan virtual Azure di jaringan virtual Azure Anda.

  2. Menyebarkan komputer virtual.

  3. Buat antarmuka jaringan tambahan, dan lampirkan antarmuka jaringan ke VM yang sesuai.

    Setiap komputer virtual memiliki tiga antarmuka jaringan, yang sesuai dengan tiga subnet jaringan virtual Azure (client, storage dan hana).

    Untuk informasi lebih lanjut, lihat Membuat komputer virtual Linux di Azure dengan beberapa kartu antarmuka jaringan.

Penting

Untuk beban kerja SAP Hana, latensi rendah sangat penting. Untuk mencapai latensi rendah, bekerjalah dengan perwakilan Microsoft Anda untuk memastikan bahwa komputer virtual dan volume Azure NetApp Files disebarkan dalam jarak dekat. Saat Anda melakukan onboarding sistem SAP Hana baru yang menggunakan Azure NetApp Files SAP Hana, kirimkan informasi yang diperlukan.

Instruksi berikutnya mengasumsikan bahwa Anda telah membuat grup sumber daya, jaringan virtual Azure, dan tiga subnet jaringan virtual Azure: client, storage dan hana. Saat Anda menerapkan VM, pilih subnet klien, sehingga antarmuka jaringan klien adalah antarmuka utama pada VM. Anda juga perlu mengonfigurasi rute eksplisit ke subnet yang ditujukan Azure NetApp Files melalui gateway subnet penyimpanan.

Penting

Pastikan OS yang Anda pilih bersertifikat SAP untuk SAP Hana pada jenis VM tertentu yang Anda gunakan. Untuk daftar jenis VM bersertifikat SAP Hana dan rilis OS untuk jenis tersebut, buka situsplatform IaaS bersertifikat SAP Hana. Klik detail jenis VM yang tercantum untuk mendapatkan daftar lengkap rilis OS yang didukung SAP Hana untuk jenis tersebut.

  1. Buat ketersediaan yang ditetapkan untuk SAP Hana. Pastikan untuk mengatur domain pembaruan maksimum.

  2. Buat tiga komputer virtual (hanadb1, hanadb2, hanadb3) dengan melakukan langkah-langkah berikut:

    a. Gunakan gambar SLES4SAP di galeri Azure yang didukung untuk SAP Hana.

    b. Pilih kumpulan ketersediaan yang Anda buat sebelumnya untuk SAP Hana.

    c. Pilih subnet jaringan virtual Azure klien. Pilih Jaringan yang Dipercepat.

    Ketika Anda menyebarkan mesin virtual, nama antarmuka jaringan secara otomatis akan dihasilkan. Dalam petunjuk ini untuk kesederhanaan, kami akan merujuk ke antarmuka jaringan yang dibuat secara otomatis, yang dilampirkan ke subnet jaringan virtual Azure klien, sebagai hanadb1-client, hanadb2-client, dan hanadb3-client.

  3. Buat tiga antarmuka jaringan, satu untuk setiap komputer virtual, untuk subnet jaringan virtual storage (dalam contoh ini, hanadb1-storage, hanadb2-storage, dan hanadb3-storage).

  4. Buat tiga antarmuka jaringan, satu untuk setiap komputer virtual, untuk subnet jaringan virtual hana (dalam contoh ini, hanadb1-hana, hanadb2-hana, dan hanadb3-hana).

  5. Lampirkan antarmuka jaringan virtual yang baru dibuat ke mesin virtual yang sesuai dengan melakukan langkah-langkah berikut:

    1. Buka komputer virtual Anda di portal Azure.
    2. Pada panel kiri, pilih Komputer Virtual. Filter pada nama komputer virtual (misalnya, hanadb1), lalu pilih komputer virtual.
    3. Di panel Gambaran Umum, pilih Hentikan untuk membatalkan alokasi komputer virtual.
    4. Pilih Penjaringan, lalu lampirkan antarmuka jaringan. Dalam daftar drop-downLampirkan antarmuka jaringan, pilih antarmuka jaringan yang sudah dibuat untuk subnet storage dan hana.
    5. Pilih Simpan.
    6. Ulangi langkah b sampai e untuk komputer virtual yang tersisa (dalam contoh kami, hanadb2 dan hanadb3).
    7. Biarkan komputer virtual dalam keadaan berhenti untuk saat ini. Selanjutnya, kami akan mengaktifkan jaringan yang dipercepat untuk semua antarmuka jaringan yang baru dilampirkan.
  6. Aktifkan jaringan yang dipercepat untuk antarmuka jaringan tambahan untuk subnet storage dan hana dengan melakukan langkah-langkah berikut:

    1. Buka Azure Cloud Shell di portal Azure.

    2. Jalankan perintah berikut untuk mengaktifkan jaringan yang dipercepat untuk antarmuka jaringan tambahan, yang dilampirkan ke subnet storage dan hana.

      az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb1-storage --accelerated-networking true
       az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb2-storage --accelerated-networking true
       az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb3-storage --accelerated-networking true
      
       az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb1-hana --accelerated-networking true
       az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb2-hana --accelerated-networking true
       az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb3-hana --accelerated-networking true
      
  7. Mulai mesin komputer dengan melakukan langkah-langkah berikut:

    1. Pada panel kiri, pilih Komputer Virtual. Filter nama komputer virtual (misalnya, hanadb1), lalu pilih.
    2. Di panel Gambaran Umum, pilih Mulai.

Mengonfigurasi dan persiapan sistem operasi

Petunjuk di bagian berikutnya diawali dengan salah satu dari berikut ini:

  • [A]: Berlaku untuk semua simpul
  • [1]: Hanya berlaku untuk simpul 1
  • [2]: Hanya berlaku untuk node 2
  • [3]: Hanya berlaku untuk simpul 3

Konfigurasikan dan siapkan OS Anda dengan melakukan langkah-langkah berikut:

  1. [A] Pertahankan file host pada komputer virtual. Sertakan entri untuk semua subnet. Entri berikut ini ditambahkan ke/etc/hosts untuk contoh ini.

    # Storage
     10.23.2.4   hanadb1-storage
     10.23.2.5   hanadb2-storage
     10.23.2.6   hanadb3-storage
     # Client
     10.23.0.5   hanadb1
     10.23.0.6   hanadb2
     10.23.0.7   hanadb3
     # Hana
     10.23.3.4   hanadb1-hana
     10.23.3.5   hanadb2-hana
     10.23.3.6   hanadb3-hana
    
  2. [A] Ubah pengaturan DHCP dan konfigurasi cloud untuk antarmuka jaringan untuk penyimpanan guna menghindari perubahan nama host yang tidak diinginkan.

    Instruksi berikut mengasumsikan bahwa antarmuka jaringan penyimpanan adalah eth1.

    vi /etc/sysconfig/network/dhcp 
    # Change the following DHCP setting to "no"
    DHCLIENT_SET_HOSTNAME="no"
    
    vi /etc/sysconfig/network/ifcfg-eth1
    # Edit ifcfg-eth1 
    #Change CLOUD_NETCONFIG_MANAGE='yes' to "no"
    CLOUD_NETCONFIG_MANAGE='no'
    
  3. [A] Tambahkan rute jaringan, sehingga komunikasi ke Azure NetApp Files melalui antarmuka jaringan penyimpanan.

    Instruksi berikut mengasumsikan bahwa antarmuka jaringan penyimpanan adalah eth1.

    vi /etc/sysconfig/network/ifroute-eth1
    
    # Add the following routes 
    # RouterIPforStorageNetwork - - -
    # ANFNetwork/cidr RouterIPforStorageNetwork - -
    10.23.2.1 - - -
    10.23.1.0/26 10.23.2.1 - -
    

    Boot ulang VM untuk mengaktifkan perubahan.

  4. [A] Siapkan OS untuk menjalankan SAP Hana di Sistem NetApp dengan NFS, seperti yang dijelaskan dalam catatan SAP 3024346 - Linux Pengaturan Kernel untuk NetApp NFS. Buat file konfigurasi /etc/sysctl.d/91-NetApp-HANA.conf untuk pengaturan konfigurasi NetApp.

    vi /etc/sysctl.d/91-NetApp-HANA.conf
    
    # Add the following entries in the configuration file
    net.core.rmem_max = 16777216
    net.core.wmem_max = 16777216
    net.ipv4.tcp_rmem = 4096 131072 16777216
    net.ipv4.tcp_wmem = 4096 16384 16777216
    net.core.netdev_max_backlog = 300000
    net.ipv4.tcp_slow_start_after_idle=0
    net.ipv4.tcp_no_metrics_save = 1
    net.ipv4.tcp_moderate_rcvbuf = 1
    net.ipv4.tcp_window_scaling = 1
    net.ipv4.tcp_timestamps = 1
    net.ipv4.tcp_sack = 1
    
  5. [A] Buat file konfigurasi /etc/sysctl.d/ms-az.conf dengan pengaturan konfigurasi Microsoft untuk Azure.

    vi /etc/sysctl.d/ms-az.conf
    
    # Add the following entries in the configuration file
    net.ipv6.conf.all.disable_ipv6 = 1
    net.ipv4.tcp_max_syn_backlog = 16348
    net.ipv4.conf.all.rp_filter = 0
    sunrpc.tcp_slot_table_entries = 128
    vm.swappiness=10
    

    [! TIP] Hindari pengaturan net.ipv4.ip_local_port_range dan net.ipv4.ip_local_reserved_ports secara eksplisit dalam file konfigurasi sysctl untuk memungkinkan Agen Host SAP mengelola rentang port. Untuk detail lebih lanjut, lihat catatan SAP 2382421.

  6. [A] Sesuaikan pengaturan sunrpc untuk volume NFSv3, seperti yang direkomendasikan dalam catatan SAP 3024346 - Pengaturan Kernel Linux untuk NetApp NFS.

    vi /etc/modprobe.d/sunrpc.conf
    
    # Insert the following line
    options sunrpc tcp_max_slot_table_entries=128
    

Pasang volume Azure NetApp Files

  1. [A] Buat titik pemasangan untuk volume database HANA.

    mkdir -p /hana/data/HN1/mnt00001
    mkdir -p /hana/data/HN1/mnt00002
    mkdir -p /hana/log/HN1/mnt00001
    mkdir -p /hana/log/HN1/mnt00002
    mkdir -p /hana/shared
    mkdir -p /usr/sap/HN1
    
  2. [1] Buat direktori khusus simpul untuk /usr/sap di HN1-dibagikan.

    # Create a temporary directory to mount HN1-shared
    mkdir /mnt/tmp
    
    # if using NFSv3 for this volume, mount with the following command
    mount 10.23.1.4:/HN1-shared /mnt/tmp
    
    # if using NFSv4.1 for this volume, mount with the following command
    mount -t nfs -o sec=sys,nfsvers=4.1 10.23.1.4:/HN1-shared /mnt/tmp
    
    cd /mnt/tmp
    mkdir shared usr-sap-hanadb1 usr-sap-hanadb2 usr-sap-hanadb3
    
    # unmount /hana/shared
    cd
    umount /mnt/tmp
    
  3. [A] Verifikasi pengaturan domain NFS. Pastikan bahwa domain dikonfigurasi sebagai domain Azure NetApp Files default, yaitu defaultv4iddomain.com dan pemetaan diatur ke tidak ada.

    Penting

    Pastikan untuk menyetel domain NFS di /etc/idmapd.conf pada VM agar sesuai dengan konfigurasi domain default di Azure NetApp Files: defaultv4iddomain.com. Jika ada ketidakcocokan antara konfigurasi domain pada klien NFS (yaitu VM) dan server NFS, yaitu konfigurasi Azure NetApp, maka izin untuk file pada volume Azure NetApp yang dipasang pada VM akan ditampilkan sebagai nobody.

    sudo cat /etc/idmapd.conf
    
    # Example
    [General]
    Verbosity = 0
    Pipefs-Directory = /var/lib/nfs/rpc_pipefs
    Domain = defaultv4iddomain.com
    [Mapping]
    Nobody-User = nobody
    Nobody-Group = nobody
    
  4. [A] Verifikasi nfs4_disable_idmapping. Pengaturan harus diatur ke Y. Untuk membuat struktur direktori tempat nfs4_disable_idmapping berada, jalankan perintah pemasangan. Anda tidak akan dapat membuat direktori secara manual di bawah /sys/modules, karena akses dicadangkan untuk kernel/driver.

    # Check nfs4_disable_idmapping 
    cat /sys/module/nfs/parameters/nfs4_disable_idmapping
    
    # If you need to set nfs4_disable_idmapping to Y
    mkdir /mnt/tmp
    mount 10.23.1.4:/HN1-shared /mnt/tmp
    umount  /mnt/tmp
    echo "Y" > /sys/module/nfs/parameters/nfs4_disable_idmapping
    
    # Make the configuration permanent
    echo "options nfs nfs4_disable_idmapping=Y" >> /etc/modprobe.d/nfs.conf
    
  5. [A] Buat grup SAP Hana dan pengguna secara manual. ID untuk sapsy grup dan adm hn1pengguna harus diatur ke ID yang sama, yang disediakan selama orientasi. (Dalam contoh ini, ID diatur ke 1001.) Jika ID tidak diatur dengan benar, Anda tidak akan dapat mengakses volume. ID untuk sapsy grup dan akun pengguna hn1adm dan sapadm harus sama pada semua mesin virtual.

    # Create user group 
    sudo groupadd -g 1001 sapsys
    
    # Create  users 
    sudo useradd hn1adm -u 1001 -g 1001 -d /usr/sap/HN1/home -c "SAP HANA Database System" -s /bin/sh
    sudo useradd sapadm -u 1002 -g 1001 -d /home/sapadm -c "SAP Local Administrator" -s /bin/sh
    
    # Set the password  for both user ids
    sudo passwd hn1adm
    sudo passwd sapadm
    
  6. [A] Pasang volume Azure NetApp Files bersama.

    sudo vi /etc/fstab
    
    # Add the following entries
    10.23.1.5:/HN1-data-mnt00001 /hana/data/HN1/mnt00001  nfs   rw,nfsvers=4.1,hard,timeo=600,rsize=262144,wsize=262144,noatime,lock,_netdev,sec=sys  0  0
    10.23.1.6:/HN1-data-mnt00002 /hana/data/HN1/mnt00002  nfs   rw,nfsvers=4.1,hard,timeo=600,rsize=262144,wsize=262144,noatime,lock,_netdev,sec=sys  0  0
    10.23.1.4:/HN1-log-mnt00001 /hana/log/HN1/mnt00001  nfs   rw,nfsvers=4.1,hard,timeo=600,rsize=262144,wsize=262144,noatime,lock,_netdev,sec=sys  0  0
    10.23.1.6:/HN1-log-mnt00002 /hana/log/HN1/mnt00002  nfs   rw,nfsvers=4.1,hard,timeo=600,rsize=262144,wsize=262144,noatime,lock,_netdev,sec=sys  0  0
    10.23.1.4:/HN1-shared/shared /hana/shared  nfs   rw,nfsvers=4.1,hard,timeo=600,rsize=262144,wsize=262144,noatime,lock,_netdev,sec=sys  0  0
    
    # Mount all volumes
    sudo mount -a
    

    Untuk beban kerja, yang memerlukan throughput yang lebih tinggi, pertimbangkan untuk menggunakan nconnect opsi pemasangan, seperti yang dijelaskan dalam volume NFS v4.1 pada Azure NetApp Files untuk SAP Hana. nconnect Periksa apakah didukung oleh Azure NetApp Files pada rilis Linux Anda.

  7. [1] Pasang volume spesifik simpul pada hanadb1.

    sudo vi /etc/fstab
    
    # Add the following entries
    10.23.1.4:/HN1-shared/usr-sap-hanadb1 /usr/sap/HN1  nfs   rw,nfsvers=4.1,hard,timeo=600,rsize=262144,wsize=262144,noatime,lock,_netdev,sec=sys  0  0
    
    # Mount the volume
    sudo mount -a
    
  8. [2] Pasang volume spesifik simpul pada hanadb2.

    sudo vi /etc/fstab
    
    # Add the following entries
    10.23.1.4:/HN1-shared/usr-sap-hanadb2 /usr/sap/HN1  nfs   rw,nfsvers=4.1,hard,timeo=600,rsize=262144,wsize=262144,noatime,lock,_netdev,sec=sys  0  0
    
    # Mount the volume
    sudo mount -a
    
  9. [3] Pasang volume spesifik simpul pada hanadb3.

    sudo vi /etc/fstab
    
    # Add the following entries
    10.23.1.4:/HN1-shared/usr-sap-hanadb3 /usr/sap/HN1  nfs   rw,nfsvers=4.1,hard,timeo=600,rsize=262144,wsize=262144,noatime,lock,_netdev,sec=sys  0  0
    
    # Mount the volume
    sudo mount -a
    
  10. [A] Verifikasi bahwa semua volume HANA dipasang dengan protokol NFS versi NFSv4.1.

    sudo nfsstat -m
    
    # Verify that flag vers is set to 4.1 
    # Example from hanadb1
    /hana/data/HN1/mnt00001 from 10.23.1.5:/HN1-data-mnt00001
     Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.23.2.4,local_lock=none,addr=10.23.1.5
    /hana/log/HN1/mnt00002 from 10.23.1.6:/HN1-log-mnt00002
     Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.23.2.4,local_lock=none,addr=10.23.1.6
    /hana/data/HN1/mnt00002 from 10.23.1.6:/HN1-data-mnt00002
     Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.23.2.4,local_lock=none,addr=10.23.1.6
    /hana/log/HN1/mnt00001 from 10.23.1.4:/HN1-log-mnt00001
    Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.23.2.4,local_lock=none,addr=10.23.1.4
    /usr/sap/HN1 from 10.23.1.4:/HN1-shared/usr-sap-hanadb1
     Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.23.2.4,local_lock=none,addr=10.23.1.4
    /hana/shared from 10.23.1.4:/HN1-shared/shared
     Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.23.2.4,local_lock=none,addr=10.23.1.4
    

Penginstalan

Dalam contoh ini untuk menerapkan SAP Hana dalam konfigurasi peluasan skala dengan simpul siaga dengan Azure, kami telah menggunakan Hana 2.0 SP4.

Bersiap untuk penginstalan Hana

  1. [A] Sebelum penginstalan HANA, atur kata sandi akar. Anda dapat menonaktifkan kata sandi akar setelah penginstalan selesai. Jalankan sebagai root perintah passwd.

  2. [1] Verifikasi bahwa Anda dapat masuk melalui SSH ke hanadb2 dan hanadb3, tanpa dimintai kata sandi.

    ssh root@hanadb2
    ssh root@hanadb3
    
  3. [A] Pasang paket tambahan, yang diperlukan untuk HANA 2.0 SP4. Untuk informasi selengkapnya, lihat Catatan SAP 2593824.

    sudo zypper install libgcc_s1 libstdc++6 libatomic1
    
  4. [2], [3] Ubah kepemilikan SAP Hana data dan direktori log menjadi hn1adm.

    # Execute as root
    sudo chown hn1adm:sapsys /hana/data/HN1
    sudo chown hn1adm:sapsys /hana/log/HN1
    

Penginstalan Hana

  1. [1] Pasang SAP Hana dengan mengikuti instruksi pada panduan Penginstalan dan Pembaruan SAP Hana 2.0. Dalam contoh ini, kami memasang SAP Hana peluasan skala dengan master, satu pekerja, dan satu simpul siaga.

    1. Mulai program hdblcm dari direktori perangkat lunak penginstalan HANA. Gunakan parameter internal_network dan berikan ruang alamat untuk subnet, yang digunakan untuk komunikasi antar-simpul HANA internal.

      ./hdblcm --internal_network=10.23.3.0/24
      
    2. Saat diminta, masukkan nilai berikut:

      • Untuk Memilih tindakan: masukkan 1 (untuk penginstalan)
      • Untuk Komponen tambahan untuk penginstalan: masukkan 2, 3
      • Untuk jalur penginstalan: tekan Enter (default ke /hana/shared)
      • Untuk Nama Host Lokal: tekan Enter untuk menerima default
      • Pada Apakah Anda ingin menambahkan host ke sistem?: masukkan y
      • Untuk nama host yang dipisahkan koma untuk ditambahkan: masukkan hanadb2, hanadb3
      • Untuk Nama Pengguna Akar [akar]: tekan Enter untuk menerima default
      • Untuk Kata Sandi Pengguna Akar: masukkan kata sandi pengguna akar
      • Untuk peran host hanadb2: masukkan 1 (untuk pekerja)
      • Untuk Grup Kegagalan Host untuk host hanadb2 [default]: tekan Enter untuk menerima default
      • Untuk Nomor Partisi Penyimpanan untuk host hanadb2 [<<tetapkan secara otomatis>>]: tekan Enter untuk menerima default
      • Untuk Grup Pekerja untuk host hanadb2 [default]: tekan Enter untuk menerima default
      • Untuk Memilih peran untuk host hanadb3: masukkan 2 (untuk siaga)
      • Untuk Grup Kegagalan Host untuk host hanadb3 [default]: tekan Enter untuk menerima default
      • Untuk Grup Pekerja untuk host hanadb3 [default]: tekan Enter untuk menerima default
      • Untuk ID Sistem SAP Hana: masukkan HN1
      • Untuk Nomor Instans [00]: masukkan 03
      • Untuk Grup Pekerja Host Lokal [default]: tekan Enter untuk menerima default
      • Untuk Memilih Penggunaan Sistem / Masukkan indeks [4]: masukkan 4 (untuk kustom)
      • Untuk Lokasi Volume Data [/hana/data/HN1]: tekan Enter untuk menerima default
      • Untuk Lokasi Volume Log [/hana/log/HN1]: tekan Enter untuk menerima default
      • Untuk Membatasi alokasi memori maksimum? [n]: masukkan n
      • Untuk Sertifikat Nama Host Untuk Host hanadb1 [hanadb1]: tekan Enter untuk menerima default
      • Untuk Sertifikat Nama Host Untuk Host hanadb2 [hanadb2]: tekan Enter untuk menerima default
      • Untuk Sertifikat Nama Host Untuk Host hanadb3 [hanadb3]: tekan Enter untuk menerima default
      • Untuk Kata Sandi Administrator Sistem (hn1adm): masukkan kata sandi
      • Untuk Kata Sandi Pengguna Database Sistem (sistem): masukkan kata sandi sistem
      • Untuk Konfirmasi Kata Sandi Pengguna (sistem) Database Sistem: masukkan kata sandi sistem
      • Untuk Memulai ulang sistem setelah reboot komputer? [n]: masukkan n
      • Untuk Apakah Anda ingin melanjutkan (y/n): validasi ringkasan dan jika semuanya terlihat bagus, masukkan y
  2. [1] Verifikasi global.ini.

    Tampilkan global.ini, dan pastikan konfigurasi untuk komunikasi antar-simpul SAP HANA internal diberlakukan. Verifikasi bagian komunikasi. Bagian ini harus memiliki ruang alamat untuk hana subnet, dan listeninterface harus diatur ke .internal. Verifikasi bagian internal_hostname_resolution. Bagian ini harus memiliki alamat IP untuk mesin virtual HANA milik subnet hana.

    sudo cat /usr/sap/HN1/SYS/global/hdb/custom/config/global.ini
    
    # Example 
    #global.ini last modified 2019-09-10 00:12:45.192808 by hdbnameserve
    [communication]
    internal_network = 10.23.3/24
    listeninterface = .internal
    [internal_hostname_resolution]
    10.23.3.4 = hanadb1
    10.23.3.5 = hanadb2
    10.23.3.6 = hanadb3
    
  3. [1] Tambahkan pemetaan host untuk memastikan bahwa alamat IP klien digunakan untuk komunikasi klien. Tambahkan bagian public_host_resolution, dan tambahkan alamat IP yang sesuai dari subnet klien.

    sudo vi /usr/sap/HN1/SYS/global/hdb/custom/config/global.ini
    
    #Add the section
    [public_hostname_resolution]
    map_hanadb1 = 10.23.0.5
    map_hanadb2 = 10.23.0.6
    map_hanadb3 = 10.23.0.7
    
  4. [1] Mulai ulang SAP Hana untuk mengaktifkan perubahan.

    sudo -u hn1adm /usr/sap/hostctrl/exe/sapcontrol -nr 03 -function StopSystem HDB
    sudo -u hn1adm /usr/sap/hostctrl/exe/sapcontrol -nr 03 -function StartSystem HDB
    
  5. [1] Verifikasi bahwa antarmuka klien akan menggunakan alamat IP dari subnet client untuk komunikasi.

    sudo -u hn1adm /usr/sap/HN1/HDB03/exe/hdbsql -u SYSTEM -p "password" -i 03 -d SYSTEMDB 'select * from SYS.M_HOST_INFORMATION'|grep net_publicname
    
    # Expected result
    "hanadb3","net_publicname","10.23.0.7"
    "hanadb2","net_publicname","10.23.0.6"
    "hanadb1","net_publicname","10.23.0.5"
    

    Untuk informasi tentang cara memverifikasi konfigurasi, lihat Catatan SAP 2183363 - Konfigurasi jaringan internal SAP Hana.

  6. Untuk mengoptimalkan SAP Hana untuk penyimpanan Azure NetApp Files yang mendasarinya, atur parameter SAP Hana berikut:

    • max_parallel_io_requests 128
    • async_read_submit aktif
    • async_write_submit_active aktif
    • async_write_submit_blocks semua

    Untuk informasi selengkapnya, lihat Konfigurasi tumpukan I/O untuk SAP Hana.

    Dimulai dengan sistem SAP Hana 2.0, Anda dapat mengatur parameter di global.ini. Untuk informasi selengkapnya, lihat Catatan SAP 1999930.

    Untuk sistem SAP Hana 1.0 versi SPS12 dan yang lebih lama, parameter ini dapat diatur selama penginstalan, seperti yang dijelaskan dalam Catatan SAP 2267798.

  7. Penyimpanan yang digunakan oleh Azure NetApp Files memiliki batasan ukuran file 16 terabyte (TB). SAP Hana tidak secara implisit mengetahui batasan penyimpanan, dan tidak akan secara otomatis membuat file data baru ketika batas ukuran file 16 TB tercapai. Ketika SAP Hana mencoba untuk mengembangkan file di luar 16 TB, upaya itu akan mengakibatkan kesalahan dan, akhirnya, dalam crash server indeks.

    Penting

    Untuk mencegah SAP Hana mencoba mengembangkan file data di luar batas 16 TB subsistem penyimpanan, setel parameter berikut di global.ini.

    • datavolume_striping = true
    • datavolume_striping_size_gb = 15000 Untuk informasi lebih lanjut, lihat Catatan SAP 2400005. Perhatikan Catatan SAP 2631285.

Uji kegagalan SAP Hana

Catatan

Artikel ini berisi referensi ke istilah yang tidak lagi digunakan Microsoft. Saat istilah ini dihapus dari perangkat lunak, kami akan menghapusnya dari artikel ini.

  1. Simulasikan crash simpul pada simpul pekerja SAP Hana. Lakukan:

    1. Sebelum Anda menyimulasikan crash simpul, jalankan perintah berikut sebagai hn1adm untuk menangkap status lingkungan:

      # Check the landscape status
      python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
      | Host    | Host   | Host   | Failover | Remove | Storage   | Storage   | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host    | Host    | Worker  | Worker  |
      |         | Active | Status | Status   | Status | Config    | Actual    | Config   | Actual   | Config     | Actual     | Config      | Actual      | Config  | Actual  | Config  | Actual  |
      |         |        |        |          |        | Partition | Partition | Group    | Group    | Role       | Role       | Role        | Role        | Roles   | Roles   | Groups  | Groups  |
      | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- |
      | hanadb1 | yes    | ok     |          |        |         1 |         1 | default  | default  | master 1   | master     | worker      | master      | worker  | worker  | default | default |
      | hanadb2 | yes    | ok     |          |        |         2 |         2 | default  | default  | master 2   | slave      | worker      | slave       | worker  | worker  | default | default |
      | hanadb3 | yes    | ignore |          |        |         0 |         0 | default  | default  | master 3   | slave      | standby     | standby     | standby | standby | default | -       |
      
      # Check the instance status
      sapcontrol -nr 03  -function GetSystemInstanceList
      GetSystemInstanceList
      OK
      hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
      hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
      hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
      hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GREEN
      
    2. Untuk mensimulasikan crash simpul, jalankan perintah berikut sebagai akar pada simpul pekerja, yaitu hanadb2 dalam hal ini:

      echo b > /proc/sysrq-trigger
      
    3. Pantau sistem untuk penyelesaian kegagalan. Ketika kegagalan telah selesai, tangkap statusnya, yang akan terlihat seperti berikut:

      # Check the instance status
      sapcontrol -nr 03  -function GetSystemInstanceList
      GetSystemInstanceList
      OK
      hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
      hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
      hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GREEN
      hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GRAY
      
      # Check the landscape status
      /usr/sap/HN1/HDB03/exe/python_support> python landscapeHostConfiguration.py
      | Host    | Host   | Host   | Failover | Remove | Storage   | Storage   | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host    | Host    | Worker  | Worker  |
      |         | Active | Status | Status   | Status | Config    | Actual    | Config   | Actual   | Config     | Actual     | Config      | Actual      | Config  | Actual  | Config  | Actual  |
      |         |        |        |          |        | Partition | Partition | Group    | Group    | Role       | Role       | Role        | Role        | Roles   | Roles   | Groups  | Groups  |
      | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- |
      | hanadb1 | yes    | ok     |          |        |         1 |         1 | default  | default  | master 1   | master     | worker      | master      | worker  | worker  | default | default |
      | hanadb2 | no     | info   |          |        |         2 |         0 | default  | default  | master 2   | slave      | worker      | standby     | worker  | standby | default | -       |
      | hanadb3 | yes    | info   |          |        |         0 |         2 | default  | default  | master 3   | slave      | standby     | slave       | standby | worker  | default | default |
      

      Penting

      Ketika simpul mengalami kepanikan kernel, hindari penundaan dengan kegagalan SAP Hana dengan mengatur kernel.panic ke 20 detik pada semua komputer virtual HANA. Konfigurasi dilakukan dalam /etc/sysctl. Boot ulang komputer virtual untuk mengaktifkan perubahan. Jika perubahan ini tidak dilakukan, kegagalan dapat memakan waktu 10 menit atau lebih ketika simpul mengalami kepanikan kernel.

  2. Matikan server nama dengan melakukan hal berikut:

    1. Sebelum pengujian, periksa status lingkungan dengan menjalankan perintah berikut sebagai hn1adm:

      #Landscape status 
      python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
      | Host    | Host   | Host   | Failover | Remove | Storage   | Storage   | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host    | Host    | Worker | Worker  |
      |         | Active | Status | Status   | Status | Config    | Actual    | Config   | Actual   | Config     | Actual     | Config      | Actual      | Config  | Actual  | Config  | Actual  |
      |         |        |        |          |        | Partition | Partition | Group    | Group    | Role       | Role       | Role        | Role        | Roles   | Roles   | Groups  | Groups  |
      | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- |
      | hanadb1 | yes    | ok     |          |        |         1 |         1 | default  | default  | master 1   | master     | worker      | master      | worker  | worker  | default | default |
      | hanadb2 | yes    | ok     |          |        |         2 |         2 | default  | default  | master 2   | slave      | worker      | slave       | worker  | worker  | default | default |
      | hanadb3 | no     | ignore |          |        |         0 |         0 | default  | default  | master 3   | slave      | standby     | standby     | standby | standby | default | -       |
      
      # Check the instance status
      sapcontrol -nr 03  -function GetSystemInstanceList
      GetSystemInstanceList
      OK
      hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
      hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
      hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
      hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GRAY
      
    2. Jalankan perintah berikut sebagai hn1adm pada simpul master aktif, yaitu hanadb1 dalam hal ini:

      hn1adm@hanadb1:/usr/sap/HN1/HDB03> HDB kill
      

      Simpul siaga hanadb3 akan mengambil alih sebagai simpul master. Berikut adalah status sumber daya setelah pengujian kegagalan selesai:

      # Check the instance status
      sapcontrol -nr 03 -function GetSystemInstanceList
      GetSystemInstanceList
      OK
      hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
      hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
      hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GRAY
      hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GREEN
      
      # Check the landscape status
      python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
      | Host    | Host   | Host   | Failover | Remove | Storage   | Storage   | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host    | Host    | Worker  | Worker  |
      |         | Active | Status | Status   | Status | Config    | Actual    | Config   | Actual   | Config     | Actual     | Config      | Actual      | Config  | Actual  | Config  | Actual  |
      |         |        |        |          |        | Partition | Partition | Group    | Group    | Role       | Role       | Role        | Role        | Roles   | Roles   | Groups  | Groups  |
      | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- |
      | hanadb1 | no     | info   |          |        |         1 |         0 | default  | default  | master 1   | slave      | worker      | standby     | worker  | standby | default | -       |
      | hanadb2 | yes    | ok     |          |        |         2 |         2 | default  | default  | master 2   | slave      | worker      | slave       | worker  | worker  | default | default |
      | hanadb3 | yes    | info   |          |        |         0 |         1 | default  | default  | master 3   | master     | standby     | master      | standby | worker  | default | default |
      
    3. Mulai ulang instans HANA pada hanadb1 (artinya, pada komputer virtual yang sama, di mana server nama dimatikan). Simpul hanadb1 akan bergabung kembali dengan lingkungan dan akan mempertahankan peran siaganya.

      hn1adm@hanadb1:/usr/sap/HN1/HDB03> HDB start
      

      Setelah SAP Hana dimulai pada hanadb1, harapkan status berikut:

      # Check the instance status
      sapcontrol -nr 03 -function GetSystemInstanceList
      GetSystemInstanceList
      OK
      hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
      hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
      hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
      hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GREEN
      # Check the landscape status
      python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
      | Host    | Host   | Host   | Failover | Remove | Storage   | Storage   | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host    | Host    | Worker  | Worker  |
      |         | Active | Status | Status   | Status | Config    | Actual    | Config   | Actual   | Config     | Actual     | Config      | Actual      | Config  | Actual  | Config  | Actual  |
      |         |        |        |          |        | Partition | Partition | Group    | Group    | Role       | Role       | Role        | Role        | Roles   | Roles   | Groups  | Groups  |
      | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- |
      | hanadb1 | yes    | info   |          |        |         1 |         0 | default  | default  | master 1   | slave      | worker      | standby     | worker  | standby | default | -       |
      | hanadb2 | yes    | ok     |          |        |         2 |         2 | default  | default  | master 2   | slave      | worker      | slave       | worker  | worker  | default | default |
      | hanadb3 | yes    | info   |          |        |         0 |         1 | default  | default  | master 3   | master     | standby     | master      | standby | worker  | default | default |
      
    4. Sekali lagi, matikan server nama pada simpul master yang sedang aktif (yaitu, pada simpul hanadb3).

      hn1adm@hanadb3:/usr/sap/HN1/HDB03> HDB kill
      

      Simpul hanadb1 akan melanjutkan peran simpul master. Setelah pengujian kegagalan selesai, status akan terlihat seperti ini:

      # Check the instance status
      sapcontrol -nr 03  -function GetSystemInstanceList & python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
      GetSystemInstanceList
      OK
      hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
      GetSystemInstanceList
      OK
      hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
      hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
      hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
      hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GRAY
      
      # Check the landscape status
      python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
      | Host    | Host   | Host   | Failover | Remove | Storage   | Storage   | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host    | Host    | Worker  | Worker  |
      |         | Active | Status | Status   | Status | Config    | Actual    | Config   | Actual   | Config     | Actual     | Config      | Actual      | Config  | Actual  | Config  | Actual  |
      |         |        |        |          |        | Partition | Partition | Group    | Group    | Role       | Role       | Role        | Role        | Roles   | Roles   | Groups  | Groups  |
      | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- |
      | hanadb1 | yes    | ok     |          |        |         1 |         1 | default  | default  | master 1   | master     | worker      | master      | worker  | worker  | default | default |
      | hanadb2 | yes    | ok     |          |        |         2 |         2 | default  | default  | master 2   | slave      | worker      | slave       | worker  | worker  | default | default |
      | hanadb3 | no     | ignore |          |        |         0 |         0 | default  | default  | master 3   | slave      | standby     | standby     | standby | standby | default | -       |
      
    5. Mulai SAP Hana pada hanadb3, yang akan siap berfungsi sebagai simpul siaga.

      hn1adm@hanadb3:/usr/sap/HN1/HDB03> HDB start
      

      Setelah SAP Hana dimulai pada hanadb3, statusnya terlihat seperti berikut:

      # Check the instance status
      sapcontrol -nr 03  -function GetSystemInstanceList & python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
      GetSystemInstanceList
      OK
      hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
      GetSystemInstanceList
      OK
      hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
      hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
      hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
      hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GRAY
      # Check the landscape status
      python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
      | Host    | Host   | Host   | Failover | Remove | Storage   | Storage   | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host    | Host    | Worker  | Worker  |
      |         | Active | Status | Status   | Status | Config    | Actual    | Config   | Actual   | Config     | Actual     | Config      | Actual      | Config  | Actual  | Config  | Actual  |
      |         |        |        |          |        | Partition | Partition | Group    | Group    | Role       | Role       | Role        | Role        | Roles   | Roles   | Groups  | Groups  |
      | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- |
      | hanadb1 | yes    | ok     |          |        |         1 |         1 | default  | default  | master 1   | master     | worker      | master      | worker  | worker  | default | default |
      | hanadb2 | yes    | ok     |          |        |         2 |         2 | default  | default  | master 2   | slave      | worker      | slave       | worker  | worker  | default | default |
      | hanadb3 | no     | ignore |          |        |         0 |         0 | default  | default  | master 3   | slave      | standby     | standby     | standby | standby | default | -       |
      

Langkah berikutnya