Een SAP HANA-uitschaalsysteem implementeren met stand-byknooppunt op Virtuele Azure-machines met behulp van Azure NetApp Files op Red Hat Enterprise Linux

In dit artikel wordt beschreven hoe u een maximaal beschikbaar SAP HANA-systeem implementeert in een uitschaalconfiguratie met stand-by op virtuele Azure Red Hat Enterprise Linux-machines (VM's) met behulp van Azure NetApp Files voor de gedeelde opslagvolumes.

In de voorbeeldconfiguraties, installatieopdrachten, enzovoort, is het HANA-exemplaar 03 en is de HANA-systeem-id HN1. De voorbeelden zijn gebaseerd op HANA 2.0 SP4 en Red Hat Enterprise Linux voor SAP 7.6.

Notitie

Dit artikel bevat verwijzingen naar de termen master en slave, termen die Microsoft niet meer gebruikt. Wanneer deze voorwaarden uit de software worden verwijderd, verwijderen we deze uit dit artikel.

Raadpleeg de volgende SAP-notities en -documenten voordat u begint:

Overzicht

Een methode voor het bereiken van hoge beschikbaarheid van HANA is door automatische failover van de host te configureren. Als u automatische failover van hosts wilt configureren, voegt u een of meer virtuele machines toe aan het HANA-systeem en configureert u deze als stand-byknooppunten. Wanneer het actieve knooppunt uitvalt, neemt een stand-byknooppunt automatisch over. In de gepresenteerde configuratie met virtuele Azure-machines bereikt u automatische failover met behulp van NFS op Azure NetApp Files.

Notitie

Het stand-byknooppunt moet toegang hebben tot alle databasevolumes. De HANA-volumes moeten worden gekoppeld als NFSv4-volumes. Het verbeterde vergrendelingsmechanisme op basis van bestandslease in het NFSv4-protocol wordt gebruikt voor I/O schermen.

Belangrijk

Als u de ondersteunde configuratie wilt bouwen, moet u de HANA-gegevens en logboekvolumes implementeren als NFSv4.1-volumes en deze koppelen met behulp van het NFSv4.1-protocol. De configuratie voor automatische failover van de HANA-host met stand-byknooppunt wordt niet ondersteund met NFSv3.

Overzicht van hoge beschikbaarheid van SAP NetWeaver

In het voorgaande diagram, dat volgt op aanbevelingen voor SAP HANA-netwerken, worden drie subnetten weergegeven in één virtueel Azure-netwerk:

  • Voor clientcommunicatie
  • Voor communicatie met het opslagsysteem
  • Voor interne communicatie tussen HANA-knooppunten

De Azure NetApp-volumes bevinden zich in een afzonderlijk subnet, gedelegeerd aan Azure NetApp Files.

Voor deze voorbeeldconfiguratie zijn de subnetten:

  • client 10.9.1.0/26
  • storage 10.9.3.0/26
  • hana 10.9.2.0/26
  • anf10.9.0.0/26 (gedelegeerd subnet aan Azure NetApp Files)

De Azure NetApp Files-infrastructuur instellen

Voordat u verdergaat met de installatie voor Azure NetApp Files infrastructuur, moet u vertrouwd raken met de Azure NetApp Files documentatie.

Azure NetApp Files is beschikbaar in verschillende Azure-regio's. Controleer of uw geselecteerde Azure-regio Azure NetApp Files biedt.

Zie Azure NetApp Files Beschikbaarheid per Azure-regio voor informatie over de beschikbaarheid van Azure NetApp Files per Azure-regio.

Azure NetApp Files-resources implementeren

In de volgende instructies wordt ervan uitgegaan dat u uw virtuele Azure-netwerk al hebt geïmplementeerd. De Azure NetApp Files resources en VM's, waar de Azure NetApp Files resources worden gekoppeld, moeten worden geïmplementeerd in hetzelfde virtuele Azure-netwerk of in gekoppelde virtuele Azure-netwerken.

  1. Maak een NetApp-account in uw geselecteerde Azure-regio door de instructies in Een NetApp-account maken te volgen.

  2. Stel een Azure NetApp Files capaciteitspool in door de instructies te volgen in Een Azure NetApp Files capaciteitspool instellen.

    De HANA-architectuur die in dit artikel wordt gepresenteerd, maakt gebruik van één Azure NetApp Files capaciteitspool op ultraserviceniveau. Voor HANA-workloads in Azure raden we u aan een Azure NetApp Files Ultra- of Premium-serviceniveau te gebruiken.

  3. Een subnet delegeren aan Azure NetApp Files, zoals beschreven in de instructies in Een subnet delegeren aan Azure NetApp Files.

  4. Implementeer Azure NetApp Files volumes door de instructies te volgen in Een NFS-volume maken voor Azure NetApp Files.

    Wanneer u de volumes implementeert, moet u de versie NFSv4.1 selecteren. Implementeer de volumes in het aangewezen Azure NetApp Files subnet. De IP-adressen van de Azure NetApp-volumes worden automatisch toegewezen.

    Houd er rekening mee dat de Azure NetApp Files resources en de Virtuele Azure-machines zich in hetzelfde virtuele Azure-netwerk of in gekoppelde virtuele Azure-netwerken moeten bevinden. Bijvoorbeeld: HN1-data-mnt00001, HN1-log-mnt00001, enzovoort, zijn de volumenamen en nfs://10.9.0.4/ HN1-data-mnt00001, nfs://10.9.0.4/ HN1-log-mnt00001, enzovoort, de bestandspaden voor de Azure NetApp Files volumes.

    • volume HN1-data-mnt00001 (nfs://10.9.0.4/ HN1-data-mnt00001)
    • volume HN1-data-mnt00002 (nfs://10.9.0.4/ HN1-data-mnt00002)
    • volume HN1-log-mnt00001 (nfs://10.9.0.4/ HN1-log-mnt00001)
    • volume HN1-log-mnt00002 (nfs://10.9.0.4/ HN1-log-mnt00002)
    • volume HN1 gedeeld (nfs://10.9.0.4/ HN1-shared)

    In dit voorbeeld hebben we een afzonderlijk Azure NetApp Files volume gebruikt voor elk HANA-gegevens- en logboekvolume. Voor een meer kostengeoptimaliseerde configuratie op kleinere of niet-productieve systemen is het mogelijk om alle gegevenskoppelingen op één volume te plaatsen en alle logboeken op een ander volume te koppelen.

Belangrijke overwegingen

Houd rekening met de volgende belangrijke overwegingen bij het maken van uw Azure NetApp Files voor SAP HANA scale-out met stand-by-knooppuntscenario's:

  • De minimale capaciteitspool is 4 tebibytes (TiB).
  • De minimale volumegrootte is 100 gibibytes (GiB).
  • Azure NetApp Files en alle virtuele machines waarop de Azure NetApp Files volumes worden gekoppeld, moeten zich in hetzelfde virtuele Azure-netwerk of in gekoppelde virtuele netwerken in dezelfde regio bevinden.
  • Het geselecteerde virtuele netwerk moet een subnet hebben dat is gedelegeerd aan Azure NetApp Files.
  • De doorvoer van een Azure NetApp Files volume is een functie van het volumequotum en het serviceniveau, zoals beschreven in serviceniveau voor Azure NetApp Files. Wanneer u de grootte van de HANA Azure NetApp-volumes wijzigt, moet u ervoor zorgen dat de resulterende doorvoer voldoet aan de HANA-systeemvereisten.
  • Met het Azure NetApp Files exportbeleid kunt u de toegestane clients, het toegangstype (alleen-lezen, alleen-lezen enzovoort) beheren.
  • De functie Azure NetApp Files is nog niet zonebewust. Momenteel wordt de functie niet geïmplementeerd in alle beschikbaarheidszones in een Azure-regio. Houd rekening met de mogelijke latentie-gevolgen in sommige Azure-regio's.

Belangrijk

Voor SAP HANA/workloads is lage latentie essentieel. Werk samen met uw Microsoft-vertegenwoordiger om ervoor te zorgen dat de virtuele machines en de Azure NetApp Files volumes dicht bij elkaar worden geïmplementeerd.

Grootte aanpassen voor HANA-database op Azure NetApp Files

De doorvoer van een Azure NetApp Files volume is een functie van de volumegrootte en het serviceniveau, zoals beschreven in serviceniveau voor Azure NetApp Files.

Wanneer u de infrastructuur voor SAP in Azure ontwerpt, moet u rekening houden met enkele minimale opslagvereisten van SAP, die worden omgezet in minimale doorvoerkenmerken:

  • Lezen/schrijven op /hana/log van 250 megabytes per seconde (MB/s) met I/O-grootten van 1 MB.
  • Leesactiviteit van ten minste 400 MB/s voor /hana/data voor I/O-grootten van 16 MB en 64 MB.
  • Schrijfactiviteit van ten minste 250 MB/s voor /hana/data met I/O-grootten van 16 MB en 64 MB.

De Azure NetApp Files doorvoerlimieten per 1 TiB van het volumequotum zijn:

  • Premium Storage laag - 64 MiB/s
  • Ultra Storage-laag - 128 MiB/s

Om te voldoen aan de minimale SAP-doorvoervereisten voor gegevens en logboeken en de richtlijnen voor /hana/shared, zijn de aanbevolen grootten:

Volume Grootte van
Premium Storage laag
Grootte van
Ultra Storage-laag
Ondersteund NFS-protocol
/hana/log/ 4 TiB 2 TiB v4.1
/hana/data 6.3 TiB 3.2 TiB v4.1
/hana/gedeeld 1xRAM per 4 werkknooppunten 1xRAM per 4 werkknooppunten v3 of v4.1

De SAP HANA-configuratie voor de indeling die in dit artikel wordt gepresenteerd, met behulp van Azure NetApp Files Ultra Storage-laag, zou het volgende zijn:

Volume Grootte van
Ultra Storage-laag
Ondersteund NFS-protocol
/hana/log/mnt00001 2 TiB v4.1
/hana/log/mnt00002 2 TiB v4.1
/hana/data/mnt00001 3.2 TiB v4.1
/hana/data/mnt00002 3.2 TiB v4.1
/hana/gedeeld 2 TiB v3 of v4.1

Notitie

De Azure NetApp Files aanbevelingen voor de grootte die hier worden vermeld, zijn bedoeld om te voldoen aan de minimale vereisten die SAP aanbeveelt voor hun infrastructuurproviders. In echte klantimplementaties en workloadscenario's zijn deze grootten mogelijk niet voldoende. Gebruik deze aanbevelingen als uitgangspunt en pas deze aan op basis van de vereisten van uw specifieke workload.

Tip

U kunt het formaat van Azure NetApp Files volumes dynamisch wijzigen zonder de volumes te ontkoppelen, de virtuele machines te stoppen of SAP HANA te stoppen. Met deze aanpak kunt u flexibel voldoen aan zowel de verwachte als onvoorziene doorvoervereisten van uw toepassing.

Virtuele Linux-machines implementeren via de Azure Portal

Eerst moet u de Azure NetApp Files volumes maken. Voer vervolgens de volgende stappen uit:

  1. Maak de subnetten van het virtuele Azure-netwerk in uw virtuele Azure-netwerk.

  2. Implementeer de VM's.

  3. Maak de extra netwerkinterfaces en koppel de netwerkinterfaces aan de bijbehorende VM's.

    Elke virtuele machine heeft drie netwerkinterfaces, die overeenkomen met de drie subnetten van het virtuele Azure-netwerk (clientstorageenhana).

    Zie Een virtuele Linux-machine maken in Azure met meerdere netwerkinterfacekaarten voor meer informatie.

Belangrijk

Voor SAP HANA/workloads is lage latentie essentieel. Werk samen met uw Microsoft-vertegenwoordiger om ervoor te zorgen dat de virtuele machines en Azure NetApp Files-volumes dicht bij elkaar worden geïmplementeerd om een lage latentie te bereiken. Wanneer u een nieuw SAP HANA-systeem onboardt dat gebruikmaakt van SAP HANA Azure NetApp Files, dient u de benodigde gegevens in.

In de volgende instructies wordt ervan uitgegaan dat u de resourcegroep, het virtuele Azure-netwerk en de drie subnetten van het virtuele Azure-netwerk hebt gemaakt: clientstorage en hana. Wanneer u de VM's implementeert, selecteert u het clientsubnet, zodat de clientnetwerkinterface de primaire interface op de VM's is. U moet ook een expliciete route naar het Azure NetApp Files gedelegeerd subnet configureren via de gateway van het opslagsubnet.

Belangrijk

Zorg ervoor dat het besturingssysteem dat u selecteert SAP-gecertificeerd is voor SAP HANA op de specifieke VM-typen die u gebruikt. Ga voor een lijst met door SAP HANA gecertificeerde VM-typen en besturingssysteemreleases voor deze typen naar de site van de door SAP HANA gecertificeerde IaaS-platformen . Klik op de details van het vermelde VM-type om de volledige lijst met door SAP HANA ondersteunde besturingssysteemreleases voor dat type op te halen.

  1. Maak een beschikbaarheidsset voor SAP HANA. Zorg ervoor dat u het maximale updatedomein instelt.

  2. Maak drie virtuele machines (hanadb1, hanadb2, hanadb3) door de volgende stappen uit te voeren:

    a. Gebruik een Red Hat Enterprise Linux-installatiekopieën in de Azure-galerie die wordt ondersteund voor SAP HANA. In dit voorbeeld hebben we een RHEL-SAP-HA 7.6-afbeelding gebruikt.

    b. Selecteer de beschikbaarheidsset die u eerder hebt gemaakt voor SAP HANA.

    c. Selecteer het subnet van het virtuele Azure-clientnetwerk. Selecteer Versneld netwerk.

    Wanneer u de virtuele machines implementeert, wordt de naam van de netwerkinterface automatisch gegenereerd. In deze instructies voor eenvoud verwijzen we naar de automatisch gegenereerde netwerkinterfaces, die zijn gekoppeld aan het subnet van het virtuele Azure-clientnetwerk, als hanadb1-client, hanadb2-client en hanadb3-client.

  3. Maak drie netwerkinterfaces, één voor elke virtuele machine, voor het subnet van het storage virtuele netwerk (in dit voorbeeld hanadb1-storage, hanadb2-storage en hanadb3-storage).

  4. Maak drie netwerkinterfaces, één voor elke virtuele machine, voor het subnet van het hana virtuele netwerk (in dit voorbeeld hanadb1-hana, hanadb2-hana en hanadb3-hana).

  5. Koppel de zojuist gemaakte virtuele netwerkinterfaces aan de bijbehorende virtuele machines door de volgende stappen uit te voeren:

    a. Ga naar de virtuele machine in de Azure Portal.

    b. Selecteer Virtual Machines in het linkerdeelvenster. Filter op de naam van de virtuele machine (bijvoorbeeld hanadb1) en selecteer vervolgens de virtuele machine.

    c. Selecteer In het deelvenster Overzichtde optie Stoppen om de toewijzing van de virtuele machine ongedaan te maken.

    d. Selecteer Netwerken en koppel vervolgens de netwerkinterface. Selecteer in de vervolgkeuzelijst Netwerkinterface koppelen de reeds gemaakte netwerkinterfaces voor de storage en hana subnetten.

    e. Selecteer Opslaan.

    f. Herhaal stap b tot en met e voor de resterende virtuele machines (in ons voorbeeld hanadb2 en hanadb3).

    g. Laat de virtuele machines voorlopig gestopt. Vervolgens schakelen we versneld netwerken in voor alle nieuw gekoppelde netwerkinterfaces.

  6. Schakel versneld netwerken in voor de extra netwerkinterfaces voor de storage en hana subnetten door de volgende stappen uit te voeren:

    a. Open Azure Cloud Shell in de Azure Portal.

    b. Voer de volgende opdrachten uit om versneld netwerken in te schakelen voor de extra netwerkinterfaces die zijn gekoppeld aan de storage en hana subnetten.

    
     az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb1-storage --accelerated-networking true
     az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb2-storage --accelerated-networking true
     az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb3-storage --accelerated-networking true
    
     az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb1-hana --accelerated-networking true
     az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb2-hana --accelerated-networking true
     az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb3-hana --accelerated-networking true
    
     
  7. Start de virtuele machines door de volgende stappen uit te voeren:

    a. Selecteer Virtual Machines in het linkerdeelvenster. Filter op de naam van de virtuele machine (bijvoorbeeld hanadb1) en selecteer deze.

    b. Selecteer Start in het deelvenster Overzicht.

Configuratie en voorbereiding van het besturingssysteem

De instructies in de volgende secties worden voorafgegaan door een van de volgende:

  • [A]: Van toepassing op alle knooppunten
  • [1]: Alleen van toepassing op knooppunt 1
  • [2]: alleen van toepassing op knooppunt 2
  • [3]: Alleen van toepassing op knooppunt 3

Configureer en bereid uw besturingssysteem voor door de volgende stappen uit te voeren:

  1. [A] Onderhoud de hostbestanden op de virtuele machines. Vermeldingen voor alle subnetten opnemen. De volgende vermeldingen zijn toegevoegd aan /etc/hosts dit voorbeeld.

    
     # Storage
     10.9.3.4   hanadb1-storage
     10.9.3.5   hanadb2-storage
     10.9.3.6   hanadb3-storage
     # Client
     10.9.1.5   hanadb1
     10.9.1.6   hanadb2
     10.9.1.7   hanadb3
     # Hana
     10.9.2.4   hanadb1-hana
     10.9.2.5   hanadb2-hana
     10.9.2.6   hanadb3-hana
     
  2. [A] Voeg een netwerkroute toe, zodat de communicatie met de Azure NetApp Files via de netwerkinterface van de opslag gaat.

    In dit voorbeeld wordt gebruikt Networkmanager om de extra netwerkroute te configureren. In de volgende instructies wordt ervan uitgegaan dat de opslagnetwerkinterface is eth1.
    Bepaal eerst de verbindingsnaam voor het apparaat eth1. In dit voorbeeld is Wired connection 1de verbindingsnaam voor het apparaateth1.

    
     # Execute as root
     nmcli connection
     # Result
     #NAME                UUID                                  TYPE      DEVICE
     #System eth0         5fb06bd0-0bb0-7ffb-45f1-d6edd65f3e03  ethernet  eth0
     #Wired connection 1  4b0789d1-6146-32eb-83a1-94d61f8d60a7  ethernet  eth1
     

    Configureer vervolgens extra route naar het Azure NetApp Files gedelegeerd netwerk viaeth1.

    
     # Add the following route 
     # ANFDelegatedSubnet/cidr via StorageSubnetGW dev StorageNetworkInterfaceDevice
     nmcli connection modify "Wired connection 1" +ipv4.routes "10.9.0.0/26 10.9.3.1"
     

    Start de VM opnieuw op om de wijzigingen te activeren.

  3. [A] Installeer het NFS-clientpakket.

    
     yum install nfs-utils
     
  4. [A] Bereid het besturingssysteem voor voor het uitvoeren van SAP HANA in Azure NetApp met NFS, zoals beschreven in SAP-opmerking 3024346 - Linux-kernelinstellingen voor NetApp NFS. Maak configuratiebestand /etc/sysctl.d/91-NetApp-HANA.conf voor de NetApp-configuratie-instellingen.

    
     vi /etc/sysctl.d/91-NetApp-HANA.conf
     # Add the following entries in the configuration file
     net.core.rmem_max = 16777216
     net.core.wmem_max = 16777216
     net.ipv4.tcp_rmem = 4096 131072 16777216
     net.ipv4.tcp_wmem = 4096 16384 16777216
     net.core.netdev_max_backlog = 300000 
     net.ipv4.tcp_slow_start_after_idle=0 
     net.ipv4.tcp_no_metrics_save = 1
     net.ipv4.tcp_moderate_rcvbuf = 1
     net.ipv4.tcp_window_scaling = 1
     net.ipv4.tcp_timestamps = 1
     net.ipv4.tcp_sack = 1
     
  5. [A] Maak configuratiebestand /etc/sysctl.d/ms-az.conf met aanvullende optimalisatie-instellingen.

    
     vi /etc/sysctl.d/ms-az.conf
     # Add the following entries in the configuration file
     net.ipv6.conf.all.disable_ipv6 = 1
     net.ipv4.tcp_max_syn_backlog = 16348
     net.ipv4.conf.all.rp_filter = 0
     sunrpc.tcp_slot_table_entries = 128
     vm.swappiness=10
     

Tip

Vermijd het instellen van net.ipv4.ip_local_port_range en net.ipv4.ip_local_reserved_ports expliciet in de sysctl-configuratiebestanden om SAP Host Agent toe te staan de poortbereiken te beheren. Zie SAP-notitie-2382421 voor meer informatie.

  1. [A] Pas de sunrpc-instellingen aan, zoals wordt aanbevolen in SAP-opmerking 3024346 - Linux-kernelinstellingen voor NetApp NFS.

    
     vi /etc/modprobe.d/sunrpc.conf
     # Insert the following line
     options sunrpc tcp_max_slot_table_entries=128
     
  2. [A] Red Hat voor HANA-configuratie.

    Configureer RHEL zoals beschreven in SAP Note 2292690, 2455582, 2593824 en Red Hat-notitie 2447641.

    Notitie

    Als u HANA 2.0 SP04 installeert, moet u het pakket compat-sap-c++-7 installeren zoals beschreven in SAP Note 2593824, voordat u SAP HANA kunt installeren.

De Azure NetApp Files volumes koppelen

  1. [A] Koppelpunten maken voor de HANA-databasevolumes.

    
     mkdir -p /hana/data/HN1/mnt00001
     mkdir -p /hana/data/HN1/mnt00002
     mkdir -p /hana/log/HN1/mnt00001
     mkdir -p /hana/log/HN1/mnt00002
     mkdir -p /hana/shared
     mkdir -p /usr/sap/HN1
     
  2. [1] Maak knooppuntspecifieke mappen voor /usr/sap op HN1-shared.

    
     # Create a temporary directory to mount HN1-shared
     mkdir /mnt/tmp
     # if using NFSv3 for this volume, mount with the following command
     mount 10.9.0.4:/HN1-shared /mnt/tmp
     # if using NFSv4.1 for this volume, mount with the following command
     mount -t nfs -o sec=sys,vers=4.1 10.9.0.4:/HN1-shared /mnt/tmp
     cd /mnt/tmp
     mkdir shared usr-sap-hanadb1 usr-sap-hanadb2 usr-sap-hanadb3
     # unmount /hana/shared
     cd
     umount /mnt/tmp
     
  3. [A] Controleer de NFS-domeininstelling. Zorg ervoor dat het domein is geconfigureerd als het standaarddomein Azure NetApp Files domein, dat wil weten defaultv4iddomain.com en dat de toewijzing is ingesteld op niemand.

    Belangrijk

    Zorg ervoor dat het NFS-domein op /etc/idmapd.conf de VIRTUELE machine overeenkomt met de standaarddomeinconfiguratie op Azure NetApp Files: defaultv4iddomain.com. Als er een onjuiste overeenkomst is tussen de domeinconfiguratie op de NFS-client (d.w.z. de VM) en de NFS-server, d.w.z. de Azure NetApp-configuratie, worden de machtigingen voor bestanden op Azure NetApp-volumes die zijn gekoppeld op de VM's weergegeven als nobody.

    
     sudo cat /etc/idmapd.conf
     # Example
     [General]
     Domain = defaultv4iddomain.com
     [Mapping]
     Nobody-User = nobody
     Nobody-Group = nobody
     
  4. [A] Controleer nfs4_disable_idmapping. Deze moet worden ingesteld op Y. Als u de mapstructuur wilt maken waar nfs4_disable_idmapping zich de locatie bevindt, voert u de koppelingsopdracht uit. U kunt de map niet handmatig maken onder /sys/modules, omdat de toegang is gereserveerd voor de kernel/stuurprogramma's.

    
     # Check nfs4_disable_idmapping 
     cat /sys/module/nfs/parameters/nfs4_disable_idmapping
     # If you need to set nfs4_disable_idmapping to Y
     mkdir /mnt/tmp
     mount 10.9.0.4:/HN1-shared /mnt/tmp
     umount  /mnt/tmp
     echo "Y" > /sys/module/nfs/parameters/nfs4_disable_idmapping
     # Make the configuration permanent
     echo "options nfs nfs4_disable_idmapping=Y" >> /etc/modprobe.d/nfs.conf
     

    Zie voor meer informatie over het wijzigen van nfs4_disable_idmapping de parameter https://access.redhat.com/solutions/1749883.

  5. [A] Koppel de gedeelde Azure NetApp Files volumes.

    
     sudo vi /etc/fstab
     # Add the following entries
     10.9.0.4:/HN1-data-mnt00001 /hana/data/HN1/mnt00001  nfs   rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys  0  0
     10.9.0.4:/HN1-data-mnt00002 /hana/data/HN1/mnt00002  nfs   rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys  0  0
     10.9.0.4:/HN1-log-mnt00001 /hana/log/HN1/mnt00001  nfs   rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys  0  0
     10.9.0.4:/HN1-log-mnt00002 /hana/log/HN1/mnt00002  nfs   rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys  0  0
     10.9.0.4:/HN1-shared/shared /hana/shared  nfs   rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys  0  0
     # Mount all volumes
     sudo mount -a 
     
  6. [1] Koppel de knooppuntspecifieke volumes op hanadb1.

    
     sudo vi /etc/fstab
     # Add the following entries
     10.9.0.4:/HN1-shared/usr-sap-hanadb1 /usr/sap/HN1  nfs   rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys  0  0
     # Mount the volume
     sudo mount -a 
     
  7. [2] Koppel de knooppuntspecifieke volumes op hanadb2.

    
     sudo vi /etc/fstab
     # Add the following entries
     10.9.0.4:/HN1-shared/usr-sap-hanadb2 /usr/sap/HN1  nfs   rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys  0  0
     # Mount the volume
     sudo mount -a 
     
  8. [3] Koppel de knooppuntspecifieke volumes op hanadb3.

    
     sudo vi /etc/fstab
     # Add the following entries
     10.9.0.4:/HN1-shared/usr-sap-hanadb3 /usr/sap/HN1  nfs   rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys  0  0
     # Mount the volume
     sudo mount -a 
     
  9. [A] Controleer of alle HANA-volumes zijn gekoppeld aan versie NFSv4 van het NFS-protocol.

    
    sudo nfsstat -m
    # Verify that flag vers is set to 4.1 
    # Example from hanadb1
    /hana/data/HN1/mnt00001 from 10.9.0.4:/HN1-data-mnt00001
     Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.9.3.4,local_lock=none,addr=10.9.0.4
    /hana/log/HN1/mnt00002 from 10.9.0.4:/HN1-log-mnt00002
     Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.9.3.4,local_lock=none,addr=10.9.0.4
    /hana/data/HN1/mnt00002 from 10.9.0.4:/HN1-data-mnt00002
     Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.9.3.4,local_lock=none,addr=10.9.0.4
    /hana/log/HN1/mnt00001 from 10.9.0.4:/HN1-log-mnt00001
    Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.9.3.4,local_lock=none,addr=10.9.0.4
    /usr/sap/HN1 from 10.9.0.4:/HN1-shared/usr-sap-hanadb1
     Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.9.3.4,local_lock=none,addr=10.9.0.4
    /hana/shared from 10.9.0.4:/HN1-shared/shared
     Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.9.3.4,local_lock=none,addr=10.9.0.4
    

Installatie

In dit voorbeeld voor het implementeren van SAP HANA in scale-outconfiguratie met stand-byknooppunt met Azure, hebben we HANA 2.0 SP4 gebruikt.

HANA-installatie voorbereiden

  1. [A] Voor de installatie van HANA stelt u het hoofdwachtwoord in. U kunt het hoofdwachtwoord uitschakelen nadat de installatie is voltooid. Uitvoeren als root opdracht passwd.

  2. [1] Controleer of u zich kunt aanmelden via SSH naar hanadb2 en hanadb3, zonder dat u om een wachtwoord wordt gevraagd.

    
     ssh root@hanadb2
     ssh root@hanadb3
     
  3. [A] Installeer extra pakketten die vereist zijn voor HANA 2.0 SP4. Zie SAP Note 2593824 voor meer informatie.

    
     yum install libgcc_s1 libstdc++6 compat-sap-c++-7 libatomic1 
     
  4. [2], [3] Eigendom van SAP HANA data en log directory's wijzigen in hn1adm.

    
     # Execute as root
     sudo chown hn1adm:sapsys /hana/data/HN1
     sudo chown hn1adm:sapsys /hana/log/HN1
     
  5. [A] Schakel de firewall tijdelijk uit, zodat deze de HANA-installatie niet verstoort. U kunt deze opnieuw inschakelen nadat de HANA-installatie is voltooid.

    
     # Execute as root
     systemctl stop firewalld
     systemctl disable firewalld
    

HANA-installatie

  1. [1] Installeer SAP HANA door de instructies te volgen in de installatie- en updatehandleiding van SAP HANA 2.0. In dit voorbeeld installeren we SAP HANA scale-out met master, één werkrol en één stand-byknooppunt.

    a. Start het hdblcm-programma vanuit de HANA-installatiesoftwaremap. Gebruik de internal_network parameter en geef de adresruimte door voor het subnet, dat wordt gebruikt voor de interne communicatie tussen HANA-knooppunten.

    
     ./hdblcm --internal_network=10.9.2.0/26
     

    b. Voer bij de prompt de volgende waarden in:

    • Voor Een actie kiezen: voer 1 in (voor installatie)
    • Voor aanvullende onderdelen voor installatie: voer 2, 3 in
    • Voor het installatiepad: druk op Enter (standaard ingesteld op /hana/shared)
    • Voor de lokale hostnaam: druk op Enter om de standaardwaarde te accepteren
    • Onder Wilt u hosts toevoegen aan het systeem?: voer y in
    • Voor door komma's gescheiden hostnamen die moeten worden toegevoegd: voer hanadb2, hanadb3 in
    • Voor de hoofdgebruikersnaam [root]: druk op Enter om de standaardwaarde te accepteren
    • Voor rollen voor host hanadb2: voer 1 in (voor werkrol)
    • Voor hostfailovergroep voor host hanadb2 [standaard]: druk op Enter om de standaardwaarde te accepteren
    • Voor opslagpartitienummer voor host hanadb2 [<<automatisch>> toewijzen]: druk op Enter om de standaardwaarde te accepteren
    • Voor Worker Group voor host hanadb2 [standaard]: druk op Enter om de standaardwaarde te accepteren
    • Voor select-rollen voor host hanadb3: voer 2 in (voor stand-by)
    • Voor hostfailovergroep voor host hanadb3 [standaard]: druk op Enter om de standaardwaarde te accepteren
    • Voor Worker-groep voor host hanadb3 [standaard]: druk op Enter om de standaardwaarde te accepteren
    • Voor SAP HANA-systeem-id: voer HN1 in
    • Bijvoorbeeld nummer [00]: voer 03 in
    • Voor Local Host Worker Group [standaard]: druk op Enter om de standaardwaarde te accepteren
    • Voor Systeemgebruik selecteren /Index invoeren [4]: voer 4 in (voor aangepast)
    • Voor locatie van gegevensvolumes [/hana/data/HN1]: druk op Enter om de standaardwaarde te accepteren
    • Voor locatie van logboekvolumes [/hana/log/HN1]: druk op Enter om de standaardwaarde te accepteren
    • Voor Maximale geheugentoewijzing beperken? [n]: voer n in
    • Voor certificaathostnaam voor Host hanadb1 [hanadb1]: druk op Enter om de standaardwaarde te accepteren
    • Voor certificaathostnaam voor Host hanadb2 [hanadb2 ]: druk op Enter om de standaardwaarde te accepteren
    • Voor certificaathostnaam voor Host hanadb3 [hanadb3]: druk op Enter om de standaardwaarde te accepteren
    • Voor systeembeheerderswachtwoord (hn1adm): voer het wachtwoord in
    • Voer het wachtwoord van de systeemdatabasegebruiker (systeem) in: voer het wachtwoord van het systeem in
    • Voer het wachtwoord van de systeemdatabasegebruiker (systeem) in om het wachtwoord van de systeemdatabase te bevestigen
    • Voor systeem opnieuw opstarten nadat de computer opnieuw is opgestart? [n]: voer n in
    • Voor Wilt u doorgaan (y/n): valideer de samenvatting en als alles er goed uitziet, voert u y in
  2. [1] Controleer global.ini

    Geef global.ini weer en zorg ervoor dat de configuratie voor de interne communicatie tussen knooppunten van SAP HANA aanwezig is. Controleer de communicatiesectie . Deze moet de adresruimte voor het hana subnet hebben en listeninterface moet worden ingesteld op .internal. Controleer de sectie internal_hostname_resolution . Het moet de IP-adressen hebben voor de virtuele HANA-machines die deel uitmaken van het hana subnet.

    
     sudo cat /usr/sap/HN1/SYS/global/hdb/custom/config/global.ini
     # Example 
     #global.ini last modified 2019-09-10 00:12:45.192808 by hdbnameserve
     [communication]
     internal_network = 10.9.2.0/26
     listeninterface = .internal
     [internal_hostname_resolution]
     10.9.2.4 = hanadb1
     10.9.2.5 = hanadb2
     10.9.2.6 = hanadb3
    
  3. [1] Voeg hosttoewijzing toe om ervoor te zorgen dat de IP-adressen van de client worden gebruikt voor clientcommunicatie. Voeg sectie public_host_resolutiontoe en voeg de bijbehorende IP-adressen toe vanuit het clientsubnet.

    
     sudo vi /usr/sap/HN1/SYS/global/hdb/custom/config/global.ini
     #Add the section
     [public_hostname_resolution]
     map_hanadb1 = 10.9.1.5
     map_hanadb2 = 10.9.1.6
     map_hanadb3 = 10.9.1.7
    
  4. [1] Start SAP HANA opnieuw om de wijzigingen te activeren.

    
     sudo -u hn1adm /usr/sap/hostctrl/exe/sapcontrol -nr 03 -function StopSystem HDB
     sudo -u hn1adm /usr/sap/hostctrl/exe/sapcontrol -nr 03 -function StartSystem HDB
    
  5. [1] Controleer of de clientinterface de IP-adressen uit het client subnet gebruikt voor communicatie.

    
     # Execute as hn1adm
     /usr/sap/HN1/HDB03/exe/hdbsql -u SYSTEM -p "password" -i 03 -d SYSTEMDB 'select * from SYS.M_HOST_INFORMATION'|grep net_publicname
     # Expected result
     "hanadb3","net_publicname","10.9.1.7"
     "hanadb2","net_publicname","10.9.1.6"
     "hanadb1","net_publicname","10.9.1.5"
    

    Zie SAP Note 2183363 - Configuratie van een intern SAP HANA-netwerk voor informatie over het controleren van de configuratie.

  6. [A] Schakel de firewall opnieuw in.

    • HANA stoppen

      
         sudo -u hn1adm /usr/sap/hostctrl/exe/sapcontrol -nr 03 -function StopSystem HDB
        
    • De firewall opnieuw inschakelen

      
         # Execute as root
         systemctl start firewalld
         systemctl enable firewalld
        
    • Open de benodigde firewallpoorten

      Belangrijk

      Maak firewallregels om communicatie tussen HANA-knooppunten en clientverkeer toe te staan. De vereiste poorten worden vermeld op TCP/IP-poorten van alle SAP-producten. De volgende opdrachten zijn slechts een voorbeeld. In dit scenario met het gebruikte systeemnummer 03.

      
         # Execute as root
         sudo firewall-cmd --zone=public --add-port=30301/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=30301/tcp
         sudo firewall-cmd --zone=public --add-port=30303/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=30303/tcp
         sudo firewall-cmd --zone=public --add-port=30306/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=30306/tcp
         sudo firewall-cmd --zone=public --add-port=30307/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=30307/tcp
         sudo firewall-cmd --zone=public --add-port=30313/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=30313/tcp
         sudo firewall-cmd --zone=public --add-port=30315/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=30315/tcp
         sudo firewall-cmd --zone=public --add-port=30317/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=30317/tcp
         sudo firewall-cmd --zone=public --add-port=30340/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=30340/tcp
         sudo firewall-cmd --zone=public --add-port=30341/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=30341/tcp
         sudo firewall-cmd --zone=public --add-port=30342/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=30342/tcp
         sudo firewall-cmd --zone=public --add-port=1128/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=1128/tcp
         sudo firewall-cmd --zone=public --add-port=1129/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=1129/tcp
         sudo firewall-cmd --zone=public --add-port=40302/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=40302/tcp
         sudo firewall-cmd --zone=public --add-port=40301/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=40301/tcp
         sudo firewall-cmd --zone=public --add-port=40307/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=40307/tcp
         sudo firewall-cmd --zone=public --add-port=40303/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=40303/tcp
         sudo firewall-cmd --zone=public --add-port=40340/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=40340/tcp
         sudo firewall-cmd --zone=public --add-port=50313/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=50313/tcp
         sudo firewall-cmd --zone=public --add-port=50314/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=50314/tcp
         sudo firewall-cmd --zone=public --add-port=30310/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=30310/tcp
         sudo firewall-cmd --zone=public --add-port=30302/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=30302/tcp
        
    • HANA starten

      
         sudo -u hn1adm /usr/sap/hostctrl/exe/sapcontrol -nr 03 -function StartSystem HDB
        
  7. Als u SAP HANA wilt optimaliseren voor de onderliggende Azure NetApp Files-opslag, stelt u de volgende SAP HANA-parameters in:

    • max_parallel_io_requests128
    • async_read_submitOp
    • async_write_submit_activeOp
    • async_write_submit_blocksAlle

    Zie I /O-stackconfiguratie voor SAP HANA voor meer informatie.

    Vanaf SAP HANA 2.0-systemen kunt u de parameters instellen in global.ini. Zie SAP Note 1999930 voor meer informatie.

    Voor SAP HANA 1.0-systemen versies SPS12 en eerder kunnen deze parameters tijdens de installatie worden ingesteld, zoals beschreven in SAP Note 2267798.

  8. De opslag die wordt gebruikt door Azure NetApp Files heeft een bestandsgroottebeperking van 16 terabytes (TB). SAP HANA is niet impliciet op de hoogte van de opslagbeperking en maakt niet automatisch een nieuw gegevensbestand wanneer de bestandsgroottelimiet van 16 TB is bereikt. Omdat SAP HANA probeert het bestand te laten groeien tot meer dan 16 TB, leidt deze poging tot fouten en uiteindelijk tot een crash van een indexserver.

    Belangrijk

    Stel de volgende parameters in global.iniom te voorkomen dat SAP HANA gegevensbestanden groter probeert te maken dan de limiet van 16 TB van het opslagsubsysteem.

    • datavolume_striping = true
    • datavolume_striping_size_gb = 15000 Zie SAP Note 2400005 voor meer informatie. Houd rekening met SAP Note 2631285.

SAP HANA-failover testen

  1. Simuleer een knooppuntcrash op een SAP HANA-werkknooppunt. Ga als volgt te werk:

    a. Voordat u het knooppunt vastloopt, voert u de volgende opdrachten uit als hn1adm om de status van de omgeving vast te leggen:

    
     # Check the landscape status
     python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
     | Host    | Host   | Host   | Failover | Remove | Storage   | Storage   | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host    | Host    | Worker  | Worker  |
     |         | Active | Status | Status   | Status | Config    | Actual    | Config   | Actual   | Config     | Actual     | Config      | Actual      | Config  | Actual  | Config  | Actual  |
     |         |        |        |          |        | Partition | Partition | Group    | Group    | Role       | Role       | Role        | Role        | Roles   | Roles   | Groups  | Groups  |
     | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- |
     | hanadb1 | yes    | ok     |          |        |         1 |         1 | default  | default  | master 1   | master     | worker      | master      | worker  | worker  | default | default |
     | hanadb2 | yes    | ok     |          |        |         2 |         2 | default  | default  | master 2   | slave      | worker      | slave       | worker  | worker  | default | default |
     | hanadb3 | yes    | ignore |          |        |         0 |         0 | default  | default  | master 3   | slave      | standby     | standby     | standby | standby | default | -       |
    
     # Check the instance status
     sapcontrol -nr 03  -function GetSystemInstanceList
     GetSystemInstanceList
     OK
     hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
     hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GREEN
    

    b. Als u een knooppuntcrash wilt simuleren, voert u de volgende opdracht uit als hoofdmap op het werkknooppunt. Dit is hanadb2 in dit geval:

    
     echo b > /proc/sysrq-trigger
    

    c. Bewaak het systeem voor failover-voltooiing. Wanneer de failover is voltooid, legt u de status vast, die er als volgt uit moet zien:

    
     # Check the instance status
     sapcontrol -nr 03  -function GetSystemInstanceList
     GetSystemInstanceList
     OK
     hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
     hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GRAY
     hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GREEN
     # Check the landscape status
     python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
     | Host    | Host   | Host   | Failover | Remove | Storage   | Storage   | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host    | Host    | Worker  | Worker  |
     |         | Active | Status | Status   | Status | Config    | Actual    | Config   | Actual   | Config     | Actual     | Config      | Actual      | Config  | Actual  | Config  | Actual  |
     |         |        |        |          |        | Partition | Partition | Group    | Group    | Role       | Role       | Role        | Role        | Roles   | Roles   | Groups  | Groups  |
     | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- |
     | hanadb1 | yes    | ok     |          |        |         1 |         1 | default  | default  | master 1   | master     | worker      | master      | worker  | worker  | default | default |
     | hanadb2 | no     | info   |          |        |         2 |         0 | default  | default  | master 2   | slave      | worker      | standby     | worker  | standby | default | -       |
     | hanadb3 | yes    | info   |          |        |         0 |         2 | default  | default  | master 3   | slave      | standby     | slave       | standby | worker  | default | default |
    

    Belangrijk

    Wanneer een knooppunt kernel paniek ondervindt, vermijdt u vertragingen met SAP HANA-failover door in te stellen kernel.panic op 20 seconden op alle virtuele machines van HANA. De configuratie wordt uitgevoerd in /etc/sysctl. Start de virtuele machines opnieuw op om de wijziging te activeren. Als deze wijziging niet wordt uitgevoerd, kan failover 10 of meer minuten duren wanneer een knooppunt kernel paniek ondervindt.

  2. Sluit de naamserver door het volgende te doen:

    a. Controleer vóór de test de status van de omgeving door de volgende opdrachten uit te voeren als hn1adm:

    
     #Landscape status 
     python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
     | Host    | Host   | Host   | Failover | Remove | Storage   | Storage   | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host    | Host    | Worker  | Worker  |
     |         | Active | Status | Status   | Status | Config    | Actual    | Config   | Actual   | Config     | Actual     | Config      | Actual      | Config  | Actual  | Config  | Actual  |
     |         |        |        |          |        | Partition | Partition | Group    | Group    | Role       | Role       | Role        | Role        | Roles   | Roles   | Groups  | Groups  |
     | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- |
     | hanadb1 | yes    | ok     |          |        |         1 |         1 | default  | default  | master 1   | master     | worker      | master      | worker  | worker  | default | default |
     | hanadb2 | yes    | ok     |          |        |         2 |         2 | default  | default  | master 2   | slave      | worker      | slave       | worker  | worker  | default | default |
     | hanadb3 | yes    | ignore |          |        |         0 |         0 | default  | default  | master 3   | slave      | standby     | standby     | standby | standby | default | -       |
     # Check the instance status
     sapcontrol -nr 03  -function GetSystemInstanceList
     GetSystemInstanceList
     OK
     hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
     hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GREEN
     hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
    

    b. Voer de volgende opdrachten uit als hn1adm op het actieve hoofdknooppunt, in dit geval hanadb1 :

    
         hn1adm@hanadb1:/usr/sap/HN1/HDB03> HDB kill
     

    Het stand-byknooppunt hanadb3 neemt over als hoofdknooppunt. Dit is de resourcestatus nadat de failovertest is voltooid:

    
      # Check the instance status
      sapcontrol -nr 03  -function GetSystemInstanceList
      GetSystemInstanceList
      OK
      hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
      hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
      hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GREEN
      hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GRAY
      # Check the landscape status
      python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
      | Host    | Host   | Host   | Failover | Remove | Storage   | Storage   | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host    | Host    | Worker  | Worker  |
      |         | Active | Status | Status   | Status | Config    | Actual    | Config   | Actual   | Config     | Actual     | Config      | Actual      | Config  | Actual  | Config  | Actual  |
      |         |        |        |          |        | Partition | Partition | Group    | Group    | Role       | Role       | Role        | Role        | Roles   | Roles   | Groups  | Groups  |
      | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- |
      | hanadb1 | no     | info   |          |        |         1 |         0 | default  | default  | master 1   | slave      | worker      | standby     | worker  | standby | default | -       |
      | hanadb2 | yes    | ok     |          |        |         2 |         2 | default  | default  | master 2   | slave      | worker      | slave       | worker  | worker  | default | default |
      | hanadb3 | yes    | info   |          |        |         0 |         1 | default  | default  | master 3   | master     | standby     | master      | standby | worker  | default | default |
     

    c. Start het HANA-exemplaar opnieuw op hanadb1 (dat wil gezegd, op dezelfde virtuele machine, waar de naamserver is gedood). Het hanadb1-knooppunt wordt opnieuw aan de omgeving deelnemen en behoudt de stand-byrol.

    
     hn1adm@hanadb1:/usr/sap/HN1/HDB03> HDB start
    

    Nadat SAP HANA is gestart op hanadb1, verwacht u de volgende status:

    
     # Check the instance status
     sapcontrol -nr 03  -function GetSystemInstanceList
     GetSystemInstanceList
     OK
     hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
     hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GREEN
     hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     # Check the landscape status
     python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
     | Host    | Host   | Host   | Failover | Remove | Storage   | Storage   | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host    | Host    | Worker  | Worker  |
     |         | Active | Status | Status   | Status | Config    | Actual    | Config   | Actual   | Config     | Actual     | Config      | Actual      | Config  | Actual  | Config  | Actual  |
     |         |        |        |          |        | Partition | Partition | Group    | Group    | Role       | Role       | Role        | Role        | Roles   | Roles   | Groups  | Groups  |
     | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- |
     | hanadb1 | no     | info   |          |        |         1 |         0 | default  | default  | master 1   | slave      | worker      | standby     | worker  | standby | default | -       |
     | hanadb2 | yes    | ok     |          |        |         2 |         2 | default  | default  | master 2   | slave      | worker      | slave       | worker  | worker  | default | default |
     | hanadb3 | yes    | info   |          |        |         0 |         1 | default  | default  | master 3   | master     | standby     | master      | standby | worker  | default | default |
    

    d. Sluit nogmaals de naamserver op het momenteel actieve hoofdknooppunt (dat wil gezegd, op knooppunt hanadb3).

    
     hn1adm@hanadb3:/usr/sap/HN1/HDB03> HDB kill
    

    Node hanadb1 hervat de rol van hoofdknooppunt. Nadat de failovertest is voltooid, ziet de status er als volgt uit:

    
     # Check the instance status
     sapcontrol -nr 03  -function GetSystemInstanceList
     GetSystemInstanceList
     OK
     hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
     hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GRAY
     hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     # Check the landscape status
     python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
     | Host    | Host   | Host   | Failover | Remove | Storage   | Storage   | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host    | Host    | Worker  | Worker  |
     |         | Active | Status | Status   | Status | Config    | Actual    | Config   | Actual   | Config     | Actual     | Config      | Actual      | Config  | Actual  | Config  | Actual  |
     |         |        |        |          |        | Partition | Partition | Group    | Group    | Role       | Role       | Role        | Role        | Roles   | Roles   | Groups  | Groups  |
     | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- |
     | hanadb1 | yes    | ok     |          |        |         1 |         1 | default  | default  | master 1   | master     | worker      | master      | worker  | worker  | default | default |
     | hanadb2 | yes    | ok     |          |        |         2 |         2 | default  | default  | master 2   | slave      | worker      | slave       | worker  | worker  | default | default |
     | hanadb3 | no     | ignore |          |        |         0 |         0 | default  | default  | master 3   | slave      | standby     | standby     | standby | standby | default | -       |
    

    e. Start SAP HANA op hanadb3, dat gereed is om te fungeren als een stand-byknooppunt.

    
     hn1adm@hanadb3:/usr/sap/HN1/HDB03> HDB start
    

    Nadat SAP HANA is gestart op hanadb3, ziet de status er als volgt uit:

    
     # Check the instance status
     sapcontrol -nr 03  -function GetSystemInstanceList & python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
     GetSystemInstanceList
     OK
     hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
     GetSystemInstanceList
     OK
     hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
     hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GREEN
     hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     # Check the landscape status
     python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
     | Host    | Host   | Host   | Failover | Remove | Storage   | Storage   | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host    | Host    | Worker  | Worker  |
     |         | Active | Status | Status   | Status | Config    | Actual    | Config   | Actual   | Config     | Actual     | Config      | Actual      | Config  | Actual  | Config  | Actual  |
     |         |        |        |          |        | Partition | Partition | Group    | Group    | Role       | Role       | Role        | Role        | Roles   | Roles   | Groups  | Groups  |
     | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- |
     | hanadb1 | yes    | ok     |          |        |         1 |         1 | default  | default  | master 1   | master     | worker      | master      | worker  | worker  | default | default |
     | hanadb2 | yes    | ok     |          |        |         2 |         2 | default  | default  | master 2   | slave      | worker      | slave       | worker  | worker  | default | default |
     | hanadb3 | no     | ignore |          |        |         0 |         0 | default  | default  | master 3   | slave      | standby     | standby     | standby | standby | default | -       |
    

Volgende stappen