Sdílet prostřednictvím


Nasazení systému SAP HANA se škálováním na více instancí a pohotovostním uzlem na virtuálních počítačích Azure s využitím služby Azure NetApp Files v systému SUSE Linux Enterprise Server

Tento článek popisuje, jak nasadit vysoce dostupný systém SAP HANA v konfiguraci se škálováním na více systémů s pohotovostním režimem na virtuálních počítačích Azure pomocí služby Azure NetApp Files pro sdílené svazky úložiště.

V ukázkových konfiguracích, příkazech instalace atd. je instance HANA 03 a ID systému HANA je HN1. Příklady jsou založené na HANA 2.0 SP4 a SUSE Linux Enterprise Serveru pro SAP 12 SP4.

Než začnete, projděte si následující poznámky a dokumenty SAP:

Přehled

Jednou z metod dosažení vysoké dostupnosti HANA je konfigurace automatického převzetí služeb při selhání hostitele. Pokud chcete nakonfigurovat automatické převzetí služeb při selhání hostitele, přidáte do systému HANA jeden nebo více virtuálních počítačů a nakonfigurujete je jako pohotovostní uzly. Pokud dojde k selhání aktivního uzlu, pohotovostní uzel automaticky převezme. V zobrazené konfiguraci virtuálních počítačů Azure dosáhnete automatického převzetí služeb při selhání pomocí systému souborů NFS ve službě Azure NetApp Files.

Poznámka:

Pohotovostní uzel potřebuje přístup ke všem databázovým svazkům. Svazky HANA musí být připojené jako svazky NFSv4. Vylepšený mechanismus uzamykání na základě zapůjčení souboru v protokolu NFSv4 se používá k I/O ořezání.

Důležité

Pokud chcete vytvořit podporovanou konfiguraci, musíte nasadit data HANA a svazky protokolů jako svazky NFSv4.1 a připojit je pomocí protokolu NFSv4.1. Konfigurace automatického převzetí služeb při selhání hostitele HANA s pohotovostním uzlem se u NFSv3 nepodporuje.

Přehled vysoké dostupnosti SAP NetWeaver

V předchozím diagramu, který se řídí doporučeními pro síť SAP HANA, jsou v jedné virtuální síti Azure reprezentovány tři podsítě:

  • Pro komunikaci klientů
  • Komunikace se systémem úložiště
  • Pro interní komunikaci mezi uzly HANA

Svazky Azure NetApp jsou v samostatné podsíti delegovány do služby Azure NetApp Files.

V tomto příkladu konfigurace jsou podsítě:

  • client 10.23.0.0/24
  • storage 10.23.2.0/24
  • hana 10.23.3.0/24
  • anf 10.23.1.0/26

Nastavení infrastruktury Služby Azure NetApp Files

Než budete pokračovat v nastavení infrastruktury Azure NetApp Files, seznamte se s dokumentací k Azure NetApp Files.

Služba Azure NetApp Files je dostupná v několika oblastech Azure. Zkontrolujte, jestli vybraná oblast Azure nabízí Azure NetApp Files.

Informace o dostupnosti služby Azure NetApp Files podle oblasti Azure najdete v tématu Dostupnost služby Azure NetApp Files podle oblasti Azure.

Důležitá poznámka

Při vytváření služby Azure NetApp Files pro SAP NetWeaver v architektuře vysoké dostupnosti SUSE mějte na paměti důležité aspekty popsané ve svazcích NFS v4.1 ve službě Azure NetApp Files pro SAP HANA.

Určení velikosti databáze HANA ve službě Azure NetApp Files

Propustnost svazku Azure NetApp Files je funkce velikosti svazku a úrovně služby, jak je uvedeno na úrovni služby pro Azure NetApp Files.

Při návrhu infrastruktury pro SAP HANA v Azure pomocí Azure NetApp Files mějte na paměti doporučení ve svazcích NFS verze 4.1 ve službě Azure NetApp Files pro SAP HANA.

Konfigurace v tomto článku se zobrazí s jednoduchými svazky Azure NetApp Files.

Důležité

V produkčních systémech, kde je výkon klíčem, doporučujeme vyhodnotit a zvážit použití skupiny svazků aplikací Azure NetApp Files pro SAP HANA.

Nasazení prostředků Azure NetApp Files

Následující pokyny předpokládají, že jste už nasadili virtuální síť Azure. Prostředky Azure NetApp Files a virtuální počítače, ve kterých se připojí prostředky Azure NetApp Files, musí být nasazené ve stejné virtuální síti Azure nebo ve virtuálních sítích Azure v partnerském vztahu.

  1. Podle pokynů v části Vytvoření účtu NetApp vytvořte ve vybrané oblasti Azure účet NetApp.

  2. Podle pokynů v tématu Nastavení fondu kapacity Služby Azure NetApp Files nastavte fond kapacity Služby Azure NetApp Files.

    Architektura HANA uvedená v tomto článku používá jeden fond kapacity Azure NetApp Files na úrovni služby Ultra. Pro úlohy HANA v Azure doporučujeme použít úroveň služby Azure NetApp Files Ultra nebo Premium.

  3. Delegujte podsíť do služby Azure NetApp Files, jak je popsáno v pokynech v části Delegování podsítě do služby Azure NetApp Files.

  4. Svazky Azure NetApp Files nasaďte podle pokynů v tématu Vytvoření svazku NFS pro Azure NetApp Files.

    Při nasazování svazků nezapomeňte vybrat verzi NFSv4.1 . Přístup k NFSv4.1 v současné době vyžaduje přidání do seznamu povolených. Nasaďte svazky v určené podsíti Azure NetApp Files. IP adresy svazků Azure NetApp se přiřazují automaticky.

    Mějte na paměti, že prostředky Azure NetApp Files a virtuální počítače Azure musí být ve stejné virtuální síti Azure nebo v partnerských virtuálních sítích Azure. Například HN1-data-mnt00001, HN1-log-mnt00001 atd., jsou názvy svazků a nfs://10.23.1.5/ HN1-data-mnt00001, nfs://10.23.1.4/ HN1-log-mnt00001 atd., jsou cesty k souborům svazků Azure NetApp Files.

    • volume HN1-data-mnt00001 (nfs://10.23.1.5/ HN1-data-mnt00001)
    • volume HN1-data-mnt00002 (nfs://10.23.1.6/ HN1-data-mnt00002)
    • volume HN1-log-mnt00001 (nfs://10.23.1.4/ HN1-log-mnt00001)
    • volume HN1-log-mnt00002 (nfs://10.23.1.6/ HN1-log-mnt00002)
    • sdílený svazek HN1 (sdílený nfs://10.23.1.4/ HN1)

    V tomto příkladu jsme použili samostatný svazek Azure NetApp Files pro každou data HANA a svazek protokolu. Pro cenově optimalizovanou konfiguraci v menších nebo neproduktivnějších systémech je možné umístit všechna připojení dat a všechny protokoly připojit na jeden svazek.

Nasazení virtuálních počítačů s Linuxem prostřednictvím webu Azure Portal

Nejprve je potřeba vytvořit svazky Azure NetApp Files. Pak proveďte následující kroky:

  1. Vytvořte podsítě virtuální sítě Azure ve vaší virtuální síti Azure.

  2. Nasaďte virtuální počítače.

  3. Vytvořte další síťová rozhraní a připojte síťová rozhraní k odpovídajícím virtuálním počítačům.

    Každý virtuální počítač má tři síťová rozhraní, která odpovídají třem podsítím virtuální sítě Azure (clientstorageahana).

    Další informace najdete v tématu Vytvoření virtuálního počítače s Linuxem v Azure s několika kartami síťového rozhraní.

Důležité

U úloh SAP HANA je klíčová nízká latence. Pokud chcete dosáhnout nízké latence, ve spolupráci se zástupcem Microsoftu se ujistěte, že jsou virtuální počítače a svazky Azure NetApp Files nasazené v těsné blízkosti. Pokud onboardujete nový systém SAP HANA, který využívá službu Azure NetApp Files pro SAP HANA, odešlete potřebné informace.

Další pokyny předpokládají, že jste už vytvořili skupinu prostředků, virtuální síť Azure a tři podsítě virtuální sítě Azure: clientstorage a hana. Když nasadíte virtuální počítače, vyberte podsíť klienta, aby klientské síťové rozhraní bylo primárním rozhraním na virtuálních počítačích. Budete také muset nakonfigurovat explicitní trasu do delegované podsítě Azure NetApp Files prostřednictvím brány podsítě podsítě úložiště.

Důležité

Ujistěte se, že vybraný operační systém má certifikaci SAP pro SAP HANA na konkrétních typech virtuálních počítačů, které používáte. Seznam typů certifikovaných virtuálních počítačů a verzí operačního systému SAP HANA pro tyto typy najdete na webu platforem IaaS pro SAP HANA. Kliknutím na podrobnosti o uvedeném typu virtuálního počítače získáte úplný seznam vydaných verzí operačního systému s podporou SAP HANA pro tento typ.

  1. Vytvořte pro SAP HANA sadu dostupnosti. Nezapomeňte nastavit doménu maximální aktualizace.

  2. Pomocí následujících kroků vytvořte tři virtuální počítače (hanadb1, hanadb2, hanadb3):

    a. Použijte SLES4SAP image v galerii Azure, která je podporovaná pro SAP HANA.

    b. Vyberte dříve vytvořenou sadu dostupnosti pro SAP HANA.

    c. Vyberte podsíť virtuální sítě Azure klienta. Vyberte akcelerovanou síť.

    Při nasazování virtuálních počítačů se automaticky vygeneruje název síťového rozhraní. V těchto pokynech pro zjednodušení se podíváme na automaticky generovaná síťová rozhraní, která jsou připojená k podsíti virtuální sítě Azure klienta, jako hanadb1-client, hanadb2-client a hanadb3-client.

  3. Vytvořte tři síťová rozhraní, jedno pro každý virtuální počítač, pro storage podsíť virtuální sítě (v tomto příkladu hanadb1-storage, hanadb2-storage a hanadb3-storage).

  4. Vytvořte tři síťová rozhraní, jedno pro každý virtuální počítač, pro hana podsíť virtuální sítě (v tomto příkladu hanadb1-hana, hanadb2-hana a hanadb3-hana).

  5. Pomocí následujících kroků připojte nově vytvořená virtuální síťová rozhraní k odpovídajícím virtuálním počítačům:

    1. Na webu Azure Portal přejděte na virtuální počítač.
    2. V levém podokně vyberte Virtuální počítače. Vyfiltrujte název virtuálního počítače (například hanadb1) a pak vyberte virtuální počítač.
    3. V podokně Přehled vyberte Zastavit a uvolněte virtuální počítač.
    4. Vyberte Sítě a pak připojte síťové rozhraní. V rozevíracím seznamu Připojit síťové rozhraní vyberte již vytvořená síťová rozhraní pro podsítě storage a hana podsítě.
    5. Zvolte Uložit.
    6. Opakujte kroky b až e pro zbývající virtuální počítače (v našem příkladu hanadb2 a hanadb3).
    7. Prozatím nechte virtuální počítače v zastaveném stavu. Dále povolíme akcelerované síťové služby pro všechna nově připojená síťová rozhraní.
  6. Pomocí následujících kroků povolte akcelerované síťové rozhraní pro další síťová rozhraní a storage hana podsítě:

    1. Otevřete Azure Cloud Shell na webu Azure Portal.

    2. Spuštěním následujících příkazů povolte akcelerované síťové služby pro další síťová rozhraní, která jsou připojená k podsítím storage a hana podsítím.

      az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb1-storage --accelerated-networking true
       az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb2-storage --accelerated-networking true
       az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb3-storage --accelerated-networking true
      
       az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb1-hana --accelerated-networking true
       az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb2-hana --accelerated-networking true
       az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb3-hana --accelerated-networking true
      
  7. Spusťte virtuální počítače následujícím postupem:

    1. V levém podokně vyberte Virtuální počítače. Vyfiltrujte název virtuálního počítače (například hanadb1) a pak ho vyberte.
    2. V podokně Přehled vyberte Start.

Konfigurace a příprava operačního systému

Pokyny v dalších částech jsou předponou jednoho z následujících:

  • [A]: Platí pro všechny uzly.
  • [1]: Platí pouze pro uzel 1.
  • [2]: Platí pouze pro uzel 2.
  • [3]: Platí pouze pro uzel 3.

Nakonfigurujte a připravte operační systém pomocí následujících kroků:

  1. [A] Udržujte soubory hostitele na virtuálních počítačích. Zahrňte položky pro všechny podsítě. Do tohoto příkladu byly přidány /etc/hosts následující položky.

    # Storage
     10.23.2.4   hanadb1-storage
     10.23.2.5   hanadb2-storage
     10.23.2.6   hanadb3-storage
     # Client
     10.23.0.5   hanadb1
     10.23.0.6   hanadb2
     10.23.0.7   hanadb3
     # Hana
     10.23.3.4   hanadb1-hana
     10.23.3.5   hanadb2-hana
     10.23.3.6   hanadb3-hana
    
  2. [A] Změňte nastavení konfigurace protokolu DHCP a cloudu pro síťové rozhraní úložiště, aby nedocházelo ke změnám nezamýšleného názvu hostitele.

    Následující pokyny předpokládají, že síťové rozhraní úložiště je eth1.

    vi /etc/sysconfig/network/dhcp 
    # Change the following DHCP setting to "no"
    DHCLIENT_SET_HOSTNAME="no"
    
    vi /etc/sysconfig/network/ifcfg-eth1
    # Edit ifcfg-eth1 
    #Change CLOUD_NETCONFIG_MANAGE='yes' to "no"
    CLOUD_NETCONFIG_MANAGE='no'
    
  3. [A] Přidejte síťovou trasu, aby komunikace se službou Azure NetApp Files přechádla přes síťové rozhraní úložiště.

    Následující pokyny předpokládají, že síťové rozhraní úložiště je eth1.

    vi /etc/sysconfig/network/ifroute-eth1
    
    # Add the following routes 
    # RouterIPforStorageNetwork - - -
    # ANFNetwork/cidr RouterIPforStorageNetwork - -
    10.23.2.1 - - -
    10.23.1.0/26 10.23.2.1 - -
    

    Pokud chcete změny aktivovat, restartujte virtuální počítač.

  4. [A] Připravte operační systém pro spuštění SAP HANA v netApp Systems se systémem souborů NFS, jak je popsáno v poznámce SAP 3024346 – Nastavení jádra Linuxu pro NetApp NFS. Vytvořte konfigurační soubor /etc/sysctl.d/91-NetApp-HANA.conf pro nastavení konfigurace NetApp.

    vi /etc/sysctl.d/91-NetApp-HANA.conf
    
    # Add the following entries in the configuration file
    net.core.rmem_max = 16777216
    net.core.wmem_max = 16777216
    net.ipv4.tcp_rmem = 4096 131072 16777216
    net.ipv4.tcp_wmem = 4096 16384 16777216
    net.core.netdev_max_backlog = 300000
    net.ipv4.tcp_slow_start_after_idle=0
    net.ipv4.tcp_no_metrics_save = 1
    net.ipv4.tcp_moderate_rcvbuf = 1
    net.ipv4.tcp_window_scaling = 1
    net.ipv4.tcp_timestamps = 1
    net.ipv4.tcp_sack = 1
    
  5. [A] Vytvořte konfigurační soubor /etc/sysctl.d/ms-az.conf s Microsoftem pro nastavení konfigurace Azure.

    vi /etc/sysctl.d/ms-az.conf
    
    # Add the following entries in the configuration file
    net.ipv6.conf.all.disable_ipv6 = 1
    net.ipv4.tcp_max_syn_backlog = 16348
    net.ipv4.conf.all.rp_filter = 0
    sunrpc.tcp_slot_table_entries = 128
    vm.swappiness=10
    

    [! TIP] Vyhněte se nastavení net.ipv4.ip_local_port_range a net.ipv4.ip_local_reserved_ports explicitně v konfiguračních souborech sysctl, aby agent hostitele SAP mohl spravovat rozsahy portů. Další podrobnosti najdete v poznámkách SAP 2382421.

  6. [A] Upravte nastavení sunrpc pro svazky NFSv3 podle doporučení v poznámce SAP 3024346 – Nastavení jádra Linuxu pro NetApp NFS.

    vi /etc/modprobe.d/sunrpc.conf
    
    # Insert the following line
    options sunrpc tcp_max_slot_table_entries=128
    

Připojení svazků Azure NetApp Files

  1. [A] Vytvořte přípojné body pro svazky databáze HANA.

    mkdir -p /hana/data/HN1/mnt00001
    mkdir -p /hana/data/HN1/mnt00002
    mkdir -p /hana/log/HN1/mnt00001
    mkdir -p /hana/log/HN1/mnt00002
    mkdir -p /hana/shared
    mkdir -p /usr/sap/HN1
    
  2. [1] Vytvořte adresáře specifické pro uzly pro /usr/sap ve sdíleném HN1.

    # Create a temporary directory to mount HN1-shared
    mkdir /mnt/tmp
    
    # if using NFSv3 for this volume, mount with the following command
    mount 10.23.1.4:/HN1-shared /mnt/tmp
    
    # if using NFSv4.1 for this volume, mount with the following command
    mount -t nfs -o sec=sys,nfsvers=4.1 10.23.1.4:/HN1-shared /mnt/tmp
    
    cd /mnt/tmp
    mkdir shared usr-sap-hanadb1 usr-sap-hanadb2 usr-sap-hanadb3
    
    # unmount /hana/shared
    cd
    umount /mnt/tmp
    
  3. [A] Ověřte nastavení domény NFS. Ujistěte se, že je doména nakonfigurovaná jako výchozí doména Azure NetApp Files, tj. defaultv4iddomain.com že mapování je nastavené na nikoho.

    Důležité

    Nezapomeňte na virtuálním počítači nastavit doménu /etc/idmapd.conf NFS tak, aby odpovídala výchozí konfiguraci domény ve službě Azure NetApp Files: defaultv4iddomain.com Pokud dojde k neshodě mezi konfigurací domény v klientovi NFS (tj. virtuálním počítači) a serverem NFS, tj. konfigurací Azure NetApp, zobrazí se oprávnění pro soubory na svazcích Azure NetApp připojených k virtuálním počítačům jako nobody.

    sudo cat /etc/idmapd.conf
    
    # Example
    [General]
    Verbosity = 0
    Pipefs-Directory = /var/lib/nfs/rpc_pipefs
    Domain = defaultv4iddomain.com
    [Mapping]
    Nobody-User = nobody
    Nobody-Group = nobody
    
  4. [A] Ověřte nfs4_disable_idmapping. Měla by být nastavená na Y. Pokud chcete vytvořit adresářovou strukturu, ve které nfs4_disable_idmapping se nachází, spusťte příkaz mount. Adresář v adresáři /sys/modules nebudete moct vytvořit ručně, protože přístup je vyhrazený pro jádro nebo ovladače.

    # Check nfs4_disable_idmapping 
    cat /sys/module/nfs/parameters/nfs4_disable_idmapping
    
    # If you need to set nfs4_disable_idmapping to Y
    mkdir /mnt/tmp
    mount 10.23.1.4:/HN1-shared /mnt/tmp
    umount  /mnt/tmp
    echo "Y" > /sys/module/nfs/parameters/nfs4_disable_idmapping
    
    # Make the configuration permanent
    echo "options nfs nfs4_disable_idmapping=Y" >> /etc/modprobe.d/nfs.conf
    
  5. [A] Vytvořte skupinu SAP HANA a uživatele ručně. ID skupinových sapsys a adm uživatele hn1musí být nastavená na stejná ID, která jsou k dispozici během onboardingu. (V tomto příkladu jsou ID nastavená na 1001.) Pokud se ID nenastaví správně, nebudete mít přístup ke svazkům. ID skupinových sapsys a uživatelských účtů hn1adm a sapadm musí být stejná na všech virtuálních počítačích.

    # Create user group 
    sudo groupadd -g 1001 sapsys
    
    # Create  users 
    sudo useradd hn1adm -u 1001 -g 1001 -d /usr/sap/HN1/home -c "SAP HANA Database System" -s /bin/sh
    sudo useradd sapadm -u 1002 -g 1001 -d /home/sapadm -c "SAP Local Administrator" -s /bin/sh
    
    # Set the password  for both user ids
    sudo passwd hn1adm
    sudo passwd sapadm
    
  6. [A] Připojte sdílené svazky Azure NetApp Files.

    sudo vi /etc/fstab
    
    # Add the following entries
    10.23.1.5:/HN1-data-mnt00001 /hana/data/HN1/mnt00001  nfs   rw,nfsvers=4.1,hard,timeo=600,rsize=262144,wsize=262144,noatime,lock,_netdev,sec=sys  0  0
    10.23.1.6:/HN1-data-mnt00002 /hana/data/HN1/mnt00002  nfs   rw,nfsvers=4.1,hard,timeo=600,rsize=262144,wsize=262144,noatime,lock,_netdev,sec=sys  0  0
    10.23.1.4:/HN1-log-mnt00001 /hana/log/HN1/mnt00001  nfs   rw,nfsvers=4.1,hard,timeo=600,rsize=262144,wsize=262144,noatime,lock,_netdev,sec=sys  0  0
    10.23.1.6:/HN1-log-mnt00002 /hana/log/HN1/mnt00002  nfs   rw,nfsvers=4.1,hard,timeo=600,rsize=262144,wsize=262144,noatime,lock,_netdev,sec=sys  0  0
    10.23.1.4:/HN1-shared/shared /hana/shared  nfs   rw,nfsvers=4.1,hard,timeo=600,rsize=262144,wsize=262144,noatime,lock,_netdev,sec=sys  0  0
    
    # Mount all volumes
    sudo mount -a
    

    U úloh, které vyžadují vyšší propustnost, zvažte použití nconnect možnosti připojení, jak je popsáno ve svazcích NFS verze 4.1 ve službě Azure NetApp Files pro SAP HANA. Zkontrolujte, jestli nconnect azure NetApp Files ve vaší verzi Linuxu podporuje.

  7. [1] Připojte svazky specifické pro uzly na hanadb1.

    sudo vi /etc/fstab
    
    # Add the following entries
    10.23.1.4:/HN1-shared/usr-sap-hanadb1 /usr/sap/HN1  nfs   rw,nfsvers=4.1,hard,timeo=600,rsize=262144,wsize=262144,noatime,lock,_netdev,sec=sys  0  0
    
    # Mount the volume
    sudo mount -a
    
  8. [2] Připojte svazky specifické pro uzly na hanadb2.

    sudo vi /etc/fstab
    
    # Add the following entries
    10.23.1.4:/HN1-shared/usr-sap-hanadb2 /usr/sap/HN1  nfs   rw,nfsvers=4.1,hard,timeo=600,rsize=262144,wsize=262144,noatime,lock,_netdev,sec=sys  0  0
    
    # Mount the volume
    sudo mount -a
    
  9. [3] Připojte svazky specifické pro uzly na hanadb3.

    sudo vi /etc/fstab
    
    # Add the following entries
    10.23.1.4:/HN1-shared/usr-sap-hanadb3 /usr/sap/HN1  nfs   rw,nfsvers=4.1,hard,timeo=600,rsize=262144,wsize=262144,noatime,lock,_netdev,sec=sys  0  0
    
    # Mount the volume
    sudo mount -a
    
  10. [A] Ověřte, že jsou všechny svazky HANA připojené k protokolu NFS verze NFSv4.1.

    sudo nfsstat -m
    
    # Verify that flag vers is set to 4.1 
    # Example from hanadb1
    /hana/data/HN1/mnt00001 from 10.23.1.5:/HN1-data-mnt00001
     Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.23.2.4,local_lock=none,addr=10.23.1.5
    /hana/log/HN1/mnt00002 from 10.23.1.6:/HN1-log-mnt00002
     Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.23.2.4,local_lock=none,addr=10.23.1.6
    /hana/data/HN1/mnt00002 from 10.23.1.6:/HN1-data-mnt00002
     Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.23.2.4,local_lock=none,addr=10.23.1.6
    /hana/log/HN1/mnt00001 from 10.23.1.4:/HN1-log-mnt00001
    Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.23.2.4,local_lock=none,addr=10.23.1.4
    /usr/sap/HN1 from 10.23.1.4:/HN1-shared/usr-sap-hanadb1
     Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.23.2.4,local_lock=none,addr=10.23.1.4
    /hana/shared from 10.23.1.4:/HN1-shared/shared
     Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.23.2.4,local_lock=none,addr=10.23.1.4
    

Instalace

V tomto příkladu pro nasazení SAP HANA v konfiguraci horizontálního navýšení kapacity s pohotovostním uzlem s Azure jsme použili HANA 2.0 SP4.

Příprava na instalaci HANA

  1. [A] Před instalací HANA nastavte kořenové heslo. Po dokončení instalace můžete kořenové heslo zakázat. Spustit jako root příkaz passwd.

  2. [1] Ověřte, že se můžete přihlásit přes SSH k hanadb2 a hanadb3 bez výzvy k zadání hesla.

    ssh root@hanadb2
    ssh root@hanadb3
    
  3. [A] Nainstalujte další balíčky, které jsou vyžadovány pro HANA 2.0 SP4. Další informace najdete v 2593824 SAP Note.

    sudo zypper install libgcc_s1 libstdc++6 libatomic1
    
  4. [2], [3] Změňte vlastnictví SAP HANA data a log adresářů na adm hn1.

    # Execute as root
    sudo chown hn1adm:sapsys /hana/data/HN1
    sudo chown hn1adm:sapsys /hana/log/HN1
    

Instalace HANA

  1. [1] Nainstalujte SAP HANA podle pokynů v průvodci instalací a aktualizací SAP HANA 2.0. V tomto příkladu nainstalujete SAP HANA se škálováním na více instancí s hlavním serverem, jedním pracovním procesem a jedním pohotovostním uzlem.

    1. Spusťte program hdblcm z instalačního softwarového adresáře HANA. internal_network Použijte parametr a předejte adresní prostor pro podsíť, který se používá pro interní komunikaci mezi uzly HANA.

      ./hdblcm --internal_network=10.23.3.0/24
      
    2. Na příkazovém řádku zadejte následující hodnoty:

      • Pro volbu akce: zadejte 1 (pro instalaci)
      • Pro další součásti pro instalaci: zadejte 2, 3
      • Instalační cesta: Stiskněte Enter (výchozí nastavení /hana/shared)
      • Pro místní název hostitele: Stisknutím klávesy Enter přijměte výchozí hodnotu.
      • V části Chcete přidat hostitele do systému?: Zadejte y
      • Pro přidání názvů hostitelů oddělených čárkami: zadejte hanadb2, hanadb3
      • Pro kořenové uživatelské jméno [root]: Stisknutím klávesy Enter přijměte výchozí nastavení.
      • Heslo uživatele root: zadejte heslo kořenového uživatele.
      • Pro role hostitele hanadb2: zadejte 1 (pro pracovní proces).
      • Pro skupinu převzetí služeb při selhání hostitele pro hostitele hanadb2 [výchozí]: Stisknutím klávesy Enter přijměte výchozí hodnotu.
      • Pro číslo oddílu úložiště pro hostitele hanadb2 [<<přiřadit automaticky>>]: Stisknutím klávesy Enter přijměte výchozí hodnotu.
      • Pro skupinu pracovních procesů pro hostitele hanadb2 [výchozí]: Stisknutím klávesy Enter přijměte výchozí hodnotu.
      • Pro výběr rolí pro hostitele hanadb3 zadejte 2 (v pohotovostním režimu).
      • Pro skupinu převzetí služeb při selhání hostitele pro hostitele hanadb3 [výchozí]: Stisknutím klávesy Enter přijměte výchozí hodnotu.
      • Pro skupinu pracovních procesů pro hostitele hanadb3 [výchozí]: Stisknutím klávesy Enter přijměte výchozí hodnotu.
      • Pro ID systému SAP HANA: zadejte HN1.
      • Jako číslo instance [00]: zadejte 03.
      • Pro místní skupinu pracovních procesů hostitele [výchozí]: Stisknutím klávesy Enter přijměte výchozí hodnotu.
      • Pro výběr využití systému / Zadejte index [4]: zadejte 4 (pro vlastní)
      • Pro umístění datových svazků [/hana/data/HN1]: Stisknutím klávesy Enter přijměte výchozí hodnotu.
      • Pro umístění svazků protokolů [/hana/log/HN1]: Stisknutím klávesy Enter přijměte výchozí nastavení.
      • Chcete-li omezit maximální přidělení paměti? [n]: zadejte n
      • Pro název hostitele certifikátu pro hostitele hanadb1 [hanadb1]: Stisknutím klávesy Enter přijměte výchozí hodnotu.
      • Pro název hostitele certifikátu pro hostitele hanadb2 [hanadb2]: Stisknutím klávesy Enter přijměte výchozí hodnotu.
      • Pro název hostitele certifikátu pro hostitele hanadb3 [hanadb3]: Stisknutím klávesy Enter přijměte výchozí hodnotu.
      • Heslo správce systému (hn1adm): Zadejte heslo.
      • Pro uživatele systémové databáze (systém) Heslo: zadejte heslo systému.
      • Pro potvrzení hesla uživatele systémové databáze (systém): zadejte heslo systému.
      • Chcete-li po restartování počítače restartovat systém? [n]: zadejte n
      • Do you want to continue (y/n): Validate the summary and if everything looks good, enter y
  2. [1] Ověřte global.ini.

    Zobrazte global.ini a ujistěte se, že je zavedená konfigurace interní komunikace mezi uzly SAP HANA. Ověřte část komunikace. Měl by mít adresní prostor pro hana podsíť a listeninterface měl by být nastavený na .internalhodnotu . Ověřte oddíl internal_hostname_resolution. Měl by mít IP adresy pro virtuální počítače HANA, které patří do hana podsítě.

    sudo cat /usr/sap/HN1/SYS/global/hdb/custom/config/global.ini
    
    # Example 
    #global.ini last modified 2019-09-10 00:12:45.192808 by hdbnameserve
    [communication]
    internal_network = 10.23.3/24
    listeninterface = .internal
    [internal_hostname_resolution]
    10.23.3.4 = hanadb1
    10.23.3.5 = hanadb2
    10.23.3.6 = hanadb3
    
  3. [1] Přidejte mapování hostitele, aby se zajistilo, že se IP adresy klienta používají pro komunikaci klientů. Přidejte oddíl public_host_resolutiona přidejte odpovídající IP adresy z podsítě klienta.

    sudo vi /usr/sap/HN1/SYS/global/hdb/custom/config/global.ini
    
    #Add the section
    [public_hostname_resolution]
    map_hanadb1 = 10.23.0.5
    map_hanadb2 = 10.23.0.6
    map_hanadb3 = 10.23.0.7
    
  4. [1] Restartujte SAP HANA a aktivujte změny.

    sudo -u hn1adm /usr/sap/hostctrl/exe/sapcontrol -nr 03 -function StopSystem HDB
    sudo -u hn1adm /usr/sap/hostctrl/exe/sapcontrol -nr 03 -function StartSystem HDB
    
  5. [1] Ověřte, že klientské rozhraní bude používat IP adresy z client podsítě pro komunikaci.

    sudo -u hn1adm /usr/sap/HN1/HDB03/exe/hdbsql -u SYSTEM -p "password" -i 03 -d SYSTEMDB 'select * from SYS.M_HOST_INFORMATION'|grep net_publicname
    
    # Expected result
    "hanadb3","net_publicname","10.23.0.7"
    "hanadb2","net_publicname","10.23.0.6"
    "hanadb1","net_publicname","10.23.0.5"
    

    Informace o tom, jak ověřit konfiguraci, najdete v tématu SAP Note 2183363 – Konfigurace interní sítě SAP HANA.

  6. Pokud chcete optimalizovat SAP HANA pro základní úložiště Azure NetApp Files, nastavte následující parametry SAP HANA:

    • max_parallel_io_requests128
    • async_read_submitna
    • async_write_submit_activena
    • async_write_submit_blocksvšichni

    Další informace najdete v tématu Konfigurace zásobníku vstupně-výstupních operací pro SAP HANA.

    Počínaje systémy SAP HANA 2.0 můžete nastavit parametry v global.inisouboru . Další informace najdete v 1999930 SAP Note.

    U systémů SAP HANA 1.0 s aktualizací SPS12 a starších je možné tyto parametry nastavit během instalace, jak je popsáno v 2267798 SAP Note.

  7. Úložiště používané službou Azure NetApp Files má omezení velikosti souboru 16 terabajtů (TB). SAP HANA implicitně neví o omezení úložiště a při dosažení limitu velikosti souboru o velikosti 16 TB se automaticky nevytvoří nový datový soubor. Když se SAP HANA pokusí zvětšit soubor nad 16 TB, výsledkem tohoto pokusu budou chyby a nakonec dojde k chybovému ukončení indexového serveru.

    Důležité

    Chcete-li zabránit, aby se SAP HANA pokusila zvětšit datové soubory nad rámec limitu 16 TB subsystému úložiště, nastavte následující parametry v global.inisouboru .

    • datavolume_striping = true
    • datavolume_striping_size_gb = 15000 Další informace najdete v tématu SAP Note 2400005. Mějte na paměti 2631285 SAP Note.

Testování převzetí služeb při selhání SAP HANA

Poznámka:

Tento článek obsahuje odkazy na termíny, které už Microsoft nepoužívá. Když se tyto podmínky odeberou ze softwaru, odebereme je z tohoto článku.

  1. Simulace chybového ukončení uzlu na pracovním uzlu SAP HANA Postupujte následovně:

    1. Před simulací chybového ukončení uzlu spusťte následující příkazy jako adm hn1a zaznamenejte stav prostředí:

      # Check the landscape status
      python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
      | Host    | Host   | Host   | Failover | Remove | Storage   | Storage   | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host    | Host    | Worker  | Worker  |
      |         | Active | Status | Status   | Status | Config    | Actual    | Config   | Actual   | Config     | Actual     | Config      | Actual      | Config  | Actual  | Config  | Actual  |
      |         |        |        |          |        | Partition | Partition | Group    | Group    | Role       | Role       | Role        | Role        | Roles   | Roles   | Groups  | Groups  |
      | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- |
      | hanadb1 | yes    | ok     |          |        |         1 |         1 | default  | default  | master 1   | master     | worker      | master      | worker  | worker  | default | default |
      | hanadb2 | yes    | ok     |          |        |         2 |         2 | default  | default  | master 2   | slave      | worker      | slave       | worker  | worker  | default | default |
      | hanadb3 | yes    | ignore |          |        |         0 |         0 | default  | default  | master 3   | slave      | standby     | standby     | standby | standby | default | -       |
      
      # Check the instance status
      sapcontrol -nr 03  -function GetSystemInstanceList
      GetSystemInstanceList
      OK
      hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
      hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
      hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
      hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GREEN
      
    2. Pokud chcete simulovat chybové ukončení uzlu, spusťte na pracovním uzlu následující příkaz, který je v tomto případě hanadb2 :

      echo b > /proc/sysrq-trigger
      
    3. Monitorujte systém pro dokončení převzetí služeb při selhání. Po dokončení převzetí služeb při selhání zachyťte stav, který by měl vypadat takto:

      # Check the instance status
      sapcontrol -nr 03  -function GetSystemInstanceList
      GetSystemInstanceList
      OK
      hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
      hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
      hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GREEN
      hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GRAY
      
      # Check the landscape status
      /usr/sap/HN1/HDB03/exe/python_support> python landscapeHostConfiguration.py
      | Host    | Host   | Host   | Failover | Remove | Storage   | Storage   | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host    | Host    | Worker  | Worker  |
      |         | Active | Status | Status   | Status | Config    | Actual    | Config   | Actual   | Config     | Actual     | Config      | Actual      | Config  | Actual  | Config  | Actual  |
      |         |        |        |          |        | Partition | Partition | Group    | Group    | Role       | Role       | Role        | Role        | Roles   | Roles   | Groups  | Groups  |
      | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- |
      | hanadb1 | yes    | ok     |          |        |         1 |         1 | default  | default  | master 1   | master     | worker      | master      | worker  | worker  | default | default |
      | hanadb2 | no     | info   |          |        |         2 |         0 | default  | default  | master 2   | slave      | worker      | standby     | worker  | standby | default | -       |
      | hanadb3 | yes    | info   |          |        |         0 |         2 | default  | default  | master 3   | slave      | standby     | slave       | standby | worker  | default | default |
      

      Důležité

      Když uzel zaznamená panice jádra, vyhněte se zpožděním převzetí služeb při selhání SAP HANA nastavením kernel.panic na 20 sekund na všech virtuálních počítačích HANA. Konfigurace se provádí v /etc/sysctlsouboru . Pokud chcete změnu aktivovat, restartujte virtuální počítače. Pokud se tato změna neprovádí, převzetí služeb při selhání může trvat 10 nebo více minut, když u uzlu dochází k panice jádra.

  2. Ukončete názvový server následujícím způsobem:

    1. Před testem zkontrolujte stav prostředí spuštěním následujících příkazů jako adm hn1:

      #Landscape status 
      python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
      | Host    | Host   | Host   | Failover | Remove | Storage   | Storage   | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host    | Host    | Worker | Worker  |
      |         | Active | Status | Status   | Status | Config    | Actual    | Config   | Actual   | Config     | Actual     | Config      | Actual      | Config  | Actual  | Config  | Actual  |
      |         |        |        |          |        | Partition | Partition | Group    | Group    | Role       | Role       | Role        | Role        | Roles   | Roles   | Groups  | Groups  |
      | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- |
      | hanadb1 | yes    | ok     |          |        |         1 |         1 | default  | default  | master 1   | master     | worker      | master      | worker  | worker  | default | default |
      | hanadb2 | yes    | ok     |          |        |         2 |         2 | default  | default  | master 2   | slave      | worker      | slave       | worker  | worker  | default | default |
      | hanadb3 | no     | ignore |          |        |         0 |         0 | default  | default  | master 3   | slave      | standby     | standby     | standby | standby | default | -       |
      
      # Check the instance status
      sapcontrol -nr 03  -function GetSystemInstanceList
      GetSystemInstanceList
      OK
      hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
      hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
      hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
      hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GRAY
      
    2. Na aktivním hlavním uzlu, který je v tomto případě hanadb1, spusťte následující příkazy jako adm hn1:

      hn1adm@hanadb1:/usr/sap/HN1/HDB03> HDB kill
      

      Pohotovostní uzel hanadb3 převezme hlavní uzel. Tady je stav prostředku po dokončení testu převzetí služeb při selhání:

      # Check the instance status
      sapcontrol -nr 03 -function GetSystemInstanceList
      GetSystemInstanceList
      OK
      hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
      hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
      hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GRAY
      hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GREEN
      
      # Check the landscape status
      python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
      | Host    | Host   | Host   | Failover | Remove | Storage   | Storage   | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host    | Host    | Worker  | Worker  |
      |         | Active | Status | Status   | Status | Config    | Actual    | Config   | Actual   | Config     | Actual     | Config      | Actual      | Config  | Actual  | Config  | Actual  |
      |         |        |        |          |        | Partition | Partition | Group    | Group    | Role       | Role       | Role        | Role        | Roles   | Roles   | Groups  | Groups  |
      | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- |
      | hanadb1 | no     | info   |          |        |         1 |         0 | default  | default  | master 1   | slave      | worker      | standby     | worker  | standby | default | -       |
      | hanadb2 | yes    | ok     |          |        |         2 |         2 | default  | default  | master 2   | slave      | worker      | slave       | worker  | worker  | default | default |
      | hanadb3 | yes    | info   |          |        |         0 |         1 | default  | default  | master 3   | master     | standby     | master      | standby | worker  | default | default |
      
    3. Restartujte instanci HANA na hanadb1 (to znamená na stejném virtuálním počítači, kde byl názvový server zabit). Uzel hanadb1 se znovu připojí k prostředí a zachová svoji pohotovostní roli.

      hn1adm@hanadb1:/usr/sap/HN1/HDB03> HDB start
      

      Po spuštění SAP HANA na hanadb1 můžete očekávat následující stav:

      # Check the instance status
      sapcontrol -nr 03 -function GetSystemInstanceList
      GetSystemInstanceList
      OK
      hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
      hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
      hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
      hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GREEN
      # Check the landscape status
      python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
      | Host    | Host   | Host   | Failover | Remove | Storage   | Storage   | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host    | Host    | Worker  | Worker  |
      |         | Active | Status | Status   | Status | Config    | Actual    | Config   | Actual   | Config     | Actual     | Config      | Actual      | Config  | Actual  | Config  | Actual  |
      |         |        |        |          |        | Partition | Partition | Group    | Group    | Role       | Role       | Role        | Role        | Roles   | Roles   | Groups  | Groups  |
      | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- |
      | hanadb1 | yes    | info   |          |        |         1 |         0 | default  | default  | master 1   | slave      | worker      | standby     | worker  | standby | default | -       |
      | hanadb2 | yes    | ok     |          |        |         2 |         2 | default  | default  | master 2   | slave      | worker      | slave       | worker  | worker  | default | default |
      | hanadb3 | yes    | info   |          |        |         0 |         1 | default  | default  | master 3   | master     | standby     | master      | standby | worker  | default | default |
      
    4. Znovu ukončete názvový server na aktuálně aktivním hlavním uzlu (to znamená na uzlu hanadb3).

      hn1adm@hanadb3:/usr/sap/HN1/HDB03> HDB kill
      

      Node hanadb1 obnoví roli hlavního uzlu. Po dokončení testu převzetí služeb při selhání bude stav vypadat takto:

      # Check the instance status
      sapcontrol -nr 03  -function GetSystemInstanceList & python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
      GetSystemInstanceList
      OK
      hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
      GetSystemInstanceList
      OK
      hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
      hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
      hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
      hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GRAY
      
      # Check the landscape status
      python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
      | Host    | Host   | Host   | Failover | Remove | Storage   | Storage   | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host    | Host    | Worker  | Worker  |
      |         | Active | Status | Status   | Status | Config    | Actual    | Config   | Actual   | Config     | Actual     | Config      | Actual      | Config  | Actual  | Config  | Actual  |
      |         |        |        |          |        | Partition | Partition | Group    | Group    | Role       | Role       | Role        | Role        | Roles   | Roles   | Groups  | Groups  |
      | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- |
      | hanadb1 | yes    | ok     |          |        |         1 |         1 | default  | default  | master 1   | master     | worker      | master      | worker  | worker  | default | default |
      | hanadb2 | yes    | ok     |          |        |         2 |         2 | default  | default  | master 2   | slave      | worker      | slave       | worker  | worker  | default | default |
      | hanadb3 | no     | ignore |          |        |         0 |         0 | default  | default  | master 3   | slave      | standby     | standby     | standby | standby | default | -       |
      
    5. Spusťte SAP HANA na hanadb3, který bude připravený sloužit jako pohotovostní uzel.

      hn1adm@hanadb3:/usr/sap/HN1/HDB03> HDB start
      

      Po spuštění SAP HANA na hanadb3 vypadá stav takto:

      # Check the instance status
      sapcontrol -nr 03  -function GetSystemInstanceList & python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
      GetSystemInstanceList
      OK
      hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
      GetSystemInstanceList
      OK
      hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
      hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
      hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
      hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GRAY
      # Check the landscape status
      python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
      | Host    | Host   | Host   | Failover | Remove | Storage   | Storage   | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host    | Host    | Worker  | Worker  |
      |         | Active | Status | Status   | Status | Config    | Actual    | Config   | Actual   | Config     | Actual     | Config      | Actual      | Config  | Actual  | Config  | Actual  |
      |         |        |        |          |        | Partition | Partition | Group    | Group    | Role       | Role       | Role        | Role        | Roles   | Roles   | Groups  | Groups  |
      | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- |
      | hanadb1 | yes    | ok     |          |        |         1 |         1 | default  | default  | master 1   | master     | worker      | master      | worker  | worker  | default | default |
      | hanadb2 | yes    | ok     |          |        |         2 |         2 | default  | default  | master 2   | slave      | worker      | slave       | worker  | worker  | default | default |
      | hanadb3 | no     | ignore |          |        |         0 |         0 | default  | default  | master 3   | slave      | standby     | standby     | standby | standby | default | -       |
      

Další kroky