Pacemaker instellen op Red Hat Enterprise Linux in Azure
In dit artikel wordt beschreven hoe u een eenvoudig Pacemaker-cluster configureert op Red Hat Enterprise Server (RHEL). De instructies hebben betrekking op RHEL 7, RHEL 8 en RHEL 9.
Vereisten
Lees eerst de volgende SAP-notities en -documenten:
- SAP-notitie 1928533, met:
- Een lijst met vm-grootten (Virtuele Azure-machines) die worden ondersteund voor de implementatie van SAP-software.
- Belangrijke capaciteitsinformatie voor Azure VM-grootten.
- De ondersteunde combinaties van SAP-software en -besturingssystemen en -databases.
- De vereiste SAP-kernelversie voor Windows en Linux in Microsoft Azure.
- SAP Note 2015553 bevat vereisten voor SAP-ondersteunde SAP-software-implementaties in Azure.
- SAP Note 2002167 raadt besturingssysteeminstellingen voor Red Hat Enterprise Linux aan.
- SAP Note 3108316 raadt besturingssysteeminstellingen aan voor Red Hat Enterprise Linux 9.x.
- SAP Note 2009879 heeft SAP HANA-richtlijnen voor Red Hat Enterprise Linux.
- SAP Note 3108302 heeft SAP HANA-richtlijnen voor Red Hat Enterprise Linux 9.x.
- SAP Note 2178632 bevat gedetailleerde informatie over alle metrische bewakingsgegevens die zijn gerapporteerd voor SAP in Azure.
- SAP-opmerking 2191498 beschikt over de vereiste VERSIE van de SAP Host Agent voor Linux in Azure.
- SAP Note 2243692 informatie heeft over SAP-licenties in Linux in Azure.
- SAP-opmerking 1999351 meer informatie over het oplossen van problemen heeft voor de Uitgebreide Bewakingsextensie van Azure voor SAP.
- SAP Community WIKI bevat alle vereiste SAP-notities voor Linux.
- Azure Virtual Machines plannen en implementeren voor SAP in Linux
- Azure Virtual Machines-implementatie voor SAP in Linux (dit artikel)
- DBMS-implementatie van Azure Virtual Machines voor SAP in Linux
- SAP HANA-systeemreplicatie in Pacemaker-cluster
- Algemene RHEL-documentatie:
- Azure-specifieke RHEL-documentatie:
- Ondersteuningsbeleid voor RHEL-clusters met hoge beschikbaarheid - Microsoft Azure Virtual Machines als clusterleden
- Een Red Hat Enterprise Linux 7.4 -cluster (en hoger) met hoge beschikbaarheid installeren en configureren in Microsoft Azure
- Overwegingen bij het aannemen van RHEL 8 - Hoge beschikbaarheid en clusters
- SAP S/4HANA ASCS/ERS configureren met standalone Enqueue Server 2 (ENSA2) in Pacemaker op RHEL 7.6
- RHEL voor SAP-aanbiedingen in Azure
Clusterinstallatie
Notitie
Red Hat biedt geen ondersteuning voor een software-emulated watchdog. Red Hat biedt geen ondersteuning voor SBD op cloudplatforms. Zie Ondersteuningsbeleid voor RHEL-clusters met hoge beschikbaarheid - sbd en fence_sbd voor meer informatie.
Het enige ondersteunde fencingmechanisme voor Pacemaker RHEL-clusters in Azure is een Azure Fence-agent.
De volgende items worden voorafgegaan door:
- [A]: Van toepassing op alle knooppunten
- [1]: Alleen van toepassing op knooppunt 1
- [2]: Alleen van toepassing op knooppunt 2
Verschillen in de opdrachten of de configuratie tussen RHEL 7 en RHEL 8/RHEL 9 worden gemarkeerd in het document.
[A] Registreren. Deze stap is optioneel. Als u RHEL SAP HA-installatiekopieën gebruikt, is deze stap niet vereist.
Als u bijvoorbeeld implementeert op RHEL 7, registreert u uw VIRTUELE machine en koppelt u deze aan een pool die opslagplaatsen voor RHEL 7 bevat.
sudo subscription-manager register # List the available pools sudo subscription-manager list --available --matches '*SAP*' sudo subscription-manager attach --pool=<pool id>
Wanneer u een pool koppelt aan een RHEL-installatiekopieën voor betalen per gebruik van Azure Marketplace, wordt u effectief dubbel gefactureerd voor uw RHEL-gebruik. U wordt eenmaal gefactureerd voor de betalen per gebruik-installatiekopieën en één keer voor het RHEL-recht in de pool die u bijvoegt. Om deze situatie te verhelpen, biedt Azure nu RHEL-installatiekopieën van uw eigen abonnement. Zie Red Hat Enterprise Linux bring-your-own-subscription Azure-installatiekopieën voor meer informatie.
[A] RHEL inschakelen voor SAP-opslagplaatsen. Deze stap is optioneel. Als u RHEL SAP HA-installatiekopieën gebruikt, is deze stap niet vereist.
Als u de vereiste pakketten wilt installeren op RHEL 7, schakelt u de volgende opslagplaatsen in:
sudo subscription-manager repos --disable "*" sudo subscription-manager repos --enable=rhel-7-server-rpms sudo subscription-manager repos --enable=rhel-ha-for-rhel-7-server-rpms sudo subscription-manager repos --enable=rhel-sap-for-rhel-7-server-rpms sudo subscription-manager repos --enable=rhel-ha-for-rhel-7-server-eus-rpms
[A] Installeer de RHEL HA-invoegtoepassing.
sudo yum install -y pcs pacemaker fence-agents-azure-arm nmap-ncat
Belangrijk
We raden de volgende versies van de Azure Fence-agent (of hoger) aan om te profiteren van een snellere failovertijd als een resourcestop mislukt of als de clusterknooppunten niet meer met elkaar kunnen communiceren:
RHEL 7.7 of hoger gebruiken de nieuwste beschikbare versie van fence-agents package.
RHEL 7.6: hek-agents-4.2.1-11.el7_6.8
RHEL 7.5: hek-agents-4.0.11-86.el7_5.8
RHEL 7.4: hek-agents-4.0.11-66.el7_4.12
Zie Voor meer informatie azure-VM die wordt uitgevoerd als lid van een RHEL-cluster met hoge beschikbaarheid, een zeer lange tijd duurt om te worden omheining, of het afschermen mislukt/time-out voordat de VIRTUELE machine wordt afgesloten.
Belangrijk
We raden de volgende versies van de Azure Fence-agent (of hoger) aan voor klanten die beheerde identiteiten willen gebruiken voor Azure-resources in plaats van service-principalnamen voor de omheiningsagent:
RHEL 8.4: fence-agents-4.2.1-54.el8.
RHEL 8.2: fence-agents-4.2.1-41.el8_2.4
RHEL 8.1: fence-agents-4.2.1-30.el8_1.4
RHEL 7.9: hek-agents-4.2.1-41.el7_9.4.
Belangrijk
Op RHEL 9 raden we de volgende pakketversies (of hoger) aan om problemen met de Azure Fence-agent te voorkomen:
fence-agents-4.10.0-20.el9_0.7
fence-agents-common-4.10.0-20.el9_0.6
ha-cloud-support-4.10.0-20.el9_0.6.x86_64.rpm
Controleer de versie van de Azure Fence-agent. Werk deze indien nodig bij naar de minimaal vereiste versie of hoger.
# Check the version of the Azure Fence Agent sudo yum info fence-agents-azure-arm
Belangrijk
Als u de Azure Fence-agent moet bijwerken en als u een aangepaste rol gebruikt, moet u de aangepaste rol bijwerken om de actie powerOff op te nemen. Zie Een aangepaste rol maken voor de omheiningsagent voor meer informatie.
Als u implementeert op RHEL 9, installeert u ook de resourceagents voor cloudimplementatie.
sudo yum install -y resource-agents-cloud
[A] Hostnaamomzetting instellen.
U kunt een DNS-server gebruiken of het
/etc/hosts
bestand op alle knooppunten wijzigen. In dit voorbeeld ziet u hoe u het/etc/hosts
bestand gebruikt. Vervang het IP-adres en de hostnaam in de volgende opdrachten.Belangrijk
Als u hostnamen in de clusterconfiguratie gebruikt, is het essentieel dat u betrouwbare hostnaamomzetting hebt. De clustercommunicatie mislukt als de namen niet beschikbaar zijn, wat kan leiden tot vertragingen in de clusterfailover.
Het voordeel van het gebruik
/etc/hosts
is dat uw cluster onafhankelijk wordt van DNS, wat ook een single point of failure kan zijn.sudo vi /etc/hosts
Voeg de volgende regels in op
/etc/hosts
. Wijzig het IP-adres en de hostnaam zodat deze overeenkomen met uw omgeving.# IP address of the first cluster node 10.0.0.6 prod-cl1-0 # IP address of the second cluster node 10.0.0.7 prod-cl1-1
[A] Wijzig het
hacluster
wachtwoord in hetzelfde wachtwoord.sudo passwd hacluster
[A] Voeg firewallregels toe voor Pacemaker.
Voeg de volgende firewallregels toe aan alle clustercommunicatie tussen de clusterknooppunten.
sudo firewall-cmd --add-service=high-availability --permanent sudo firewall-cmd --add-service=high-availability
[A] Schakel basisclusterservices in.
Voer de volgende opdrachten uit om de Pacemaker-service in te schakelen en te starten.
sudo systemctl start pcsd.service sudo systemctl enable pcsd.service
[1] Maak een Pacemaker-cluster.
Voer de volgende opdrachten uit om de knooppunten te verifiëren en het cluster te maken. Stel het token in op 30000 om onderhoud met geheugenbehoud mogelijk te maken. Zie dit artikel voor Linux voor meer informatie.
Als u een cluster bouwt op RHEL 7.x, gebruikt u de volgende opdrachten:
sudo pcs cluster auth prod-cl1-0 prod-cl1-1 -u hacluster sudo pcs cluster setup --name nw1-azr prod-cl1-0 prod-cl1-1 --token 30000 sudo pcs cluster start --all
Als u een cluster bouwt op RHEL 8.x/RHEL 9.x, gebruikt u de volgende opdrachten:
sudo pcs host auth prod-cl1-0 prod-cl1-1 -u hacluster sudo pcs cluster setup nw1-azr prod-cl1-0 prod-cl1-1 totem token=30000 sudo pcs cluster start --all
Controleer de clusterstatus door de volgende opdracht uit te voeren:
# Run the following command until the status of both nodes is online sudo pcs status # Cluster name: nw1-azr # WARNING: no stonith devices and stonith-enabled is not false # Stack: corosync # Current DC: prod-cl1-1 (version 1.1.18-11.el7_5.3-2b07d5c5a9) - partition with quorum # Last updated: Fri Aug 17 09:18:24 2018 # Last change: Fri Aug 17 09:17:46 2018 by hacluster via crmd on prod-cl1-1 # # 2 nodes configured # 0 resources configured # # Online: [ prod-cl1-0 prod-cl1-1 ] # # No resources # # Daemon Status: # corosync: active/disabled # pacemaker: active/disabled # pcsd: active/enabled
[A] Stel verwachte stemmen in.
# Check the quorum votes pcs quorum status # If the quorum votes are not set to 2, execute the next command sudo pcs quorum expected-votes 2
Tip
Als u een cluster met meerdere knooppunten bouwt, dus een cluster met meer dan twee knooppunten, stelt u de stemmen niet in op 2.
[1] Gelijktijdige omheiningsacties toestaan.
sudo pcs property set concurrent-fencing=true
Een fencing-apparaat maken
Het fencing-apparaat maakt gebruik van een beheerde identiteit voor Azure-resources of een service-principal om toestemming te geven voor Azure.
Als u een beheerde identiteit (MSI) wilt maken, maakt u een door het systeem toegewezen beheerde identiteit voor elke VIRTUELE machine in het cluster. Als er al een door het systeem toegewezen beheerde identiteit bestaat, wordt deze gebruikt. Gebruik momenteel geen door de gebruiker toegewezen beheerde identiteiten met Pacemaker. Een omheiningsapparaat, op basis van beheerde identiteit, wordt ondersteund op RHEL 7.9 en RHEL 8.x/RHEL 9.x.
[1] Een aangepaste rol maken voor de omheiningsagent
Zowel de beheerde identiteit als de service-principal hebben standaard geen machtigingen voor toegang tot uw Azure-resources. U moet de beheerde identiteit of service-principal machtigingen geven om alle VM's van het cluster te starten en stoppen (uit te schakelen). Als u de aangepaste rol nog niet hebt gemaakt, kunt u deze maken met behulp van PowerShell of de Azure CLI.
Gebruik de volgende inhoud voor het invoerbestand. U moet de inhoud aanpassen aan uw abonnementen, dat wil gezegd, vervangen xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx
en yyyyyyyy-yyyy-yyyy-yyyy-yyyyyyyyyyyy
door de id's van uw abonnement. Als u slechts één abonnement hebt, verwijdert u de tweede vermelding in AssignableScopes
.
{
"Name": "Linux Fence Agent Role",
"description": "Allows to power-off and start virtual machines",
"assignableScopes": [
"/subscriptions/xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx",
"/subscriptions/yyyyyyyy-yyyy-yyyy-yyyy-yyyyyyyyyyyy"
],
"actions": [
"Microsoft.Compute/*/read",
"Microsoft.Compute/virtualMachines/powerOff/action",
"Microsoft.Compute/virtualMachines/start/action"
],
"notActions": [],
"dataActions": [],
"notDataActions": []
}
[A] De aangepaste rol toewijzen
Gebruik beheerde identiteit of service-principal.
Wijs de aangepaste rol Linux Fence Agent Role
toe die in de laatste sectie is gemaakt aan elke beheerde identiteit van de cluster-VM's. Aan elke door het VM-systeem toegewezen beheerde identiteit moet de rol zijn toegewezen voor de resource van elke cluster-VM. Zie Een beheerde identiteit toegang tot een resource toewijzen met behulp van Azure Portal voor meer informatie. Controleer of de roltoewijzing van de beheerde identiteit van elke VIRTUELE machine alle cluster-VM's bevat.
Belangrijk
Houd er rekening mee dat het toewijzen en verwijderen van autorisatie met beheerde identiteiten kan worden uitgesteld totdat deze effectief is.
[1] Maak de fencing-apparaten
Nadat u de machtigingen voor de VM's hebt bewerkt, kunt u de fencing-apparaten in het cluster configureren.
sudo pcs property set stonith-timeout=900
Notitie
De optie pcmk_host_map
is alleen vereist in de opdracht als de RHEL-hostnamen en de azure-VM-namen niet identiek zijn. Geef de toewijzing op in de indeling hostnaam:vm-name.
Raadpleeg de vetgedrukte sectie in de opdracht. Zie voor meer informatie welke indeling moet ik gebruiken om knooppunttoewijzingen op te geven voor fencing-apparaten in pcmk_host_map?.
Gebruik voor RHEL 7.x de volgende opdracht om het hekapparaat te configureren:
sudo pcs stonith create rsc_st_azure fence_azure_arm msi=true resourceGroup="resource group" \
subscriptionId="subscription id" pcmk_host_map="prod-cl1-0:prod-cl1-0-vm-name;prod-cl1-1:prod-cl1-1-vm-name" \
power_timeout=240 pcmk_reboot_timeout=900 pcmk_monitor_timeout=120 pcmk_monitor_retries=4 pcmk_action_limit=3 pcmk_delay_max=15 \
op monitor interval=3600
Voor RHEL 8.x/9.x gebruikt u de volgende opdracht om het hekapparaat te configureren:
# Run following command if you are setting up fence agent on (two-node cluster and pacemaker version greater than 2.0.4-6.el8) OR (HANA scale out)
sudo pcs stonith create rsc_st_azure fence_azure_arm msi=true resourceGroup="resource group" \
subscriptionId="subscription id" pcmk_host_map="prod-cl1-0:prod-cl1-0-vm-name;prod-cl1-1:prod-cl1-1-vm-name" \
power_timeout=240 pcmk_reboot_timeout=900 pcmk_monitor_timeout=120 pcmk_monitor_retries=4 pcmk_action_limit=3 \
op monitor interval=3600
# Run following command if you are setting up fence agent on (two-node cluster and pacemaker version less than 2.0.4-6.el8)
sudo pcs stonith create rsc_st_azure fence_azure_arm msi=true resourceGroup="resource group" \
subscriptionId="subscription id" pcmk_host_map="prod-cl1-0:prod-cl1-0-vm-name;prod-cl1-1:prod-cl1-1-vm-name" \
power_timeout=240 pcmk_reboot_timeout=900 pcmk_monitor_timeout=120 pcmk_monitor_retries=4 pcmk_action_limit=3 pcmk_delay_max=15 \
op monitor interval=3600
Als u een fencing-apparaat gebruikt op basis van de configuratie van de service-principal, leest u Change from SPN to MSI for Pacemaker clusters by using Azure fencing and learn how to convert to managed identity configuration.
Tip
- Als u omheiningsraces binnen een pacemakercluster met twee knooppunten wilt voorkomen, kunt u de
priority-fencing-delay
clustereigenschap configureren. Deze eigenschap introduceert extra vertraging bij het afschermen van een knooppunt met een hogere totale resourceprioriteit wanneer er een split-brain-scenario optreedt. Zie Kan Pacemaker het clusterknooppunt omheinen met de minste actieve resources? voor meer informatie. - De eigenschap
priority-fencing-delay
is van toepassing op Pacemaker versie 2.0.4-6.el8 of hoger en op een cluster met twee knooppunten. Als u depriority-fencing-delay
clustereigenschap configureert, hoeft u depcmk_delay_max
eigenschap niet in te stellen. Maar als de Pacemaker-versie kleiner is dan 2.0.4-6.el8, moet u depcmk_delay_max
eigenschap instellen. - Zie de respectieve SAP ASCS/ERS- en SAP HANA-documenten voor het instellen van de clustereigenschap voor instructies over het instellen van de
priority-fencing-delay
clustereigenschap.
De bewakings- en afschermingsbewerkingen worden gedeserialiseerd. Als er dus een langer actieve bewakingsbewerking en gelijktijdige fencing-gebeurtenis is, is er geen vertraging voor de clusterfailover omdat de bewakingsbewerking al wordt uitgevoerd.
[1] Het gebruik van een fencingapparaat inschakelen
sudo pcs property set stonith-enabled=true
Tip
De Azure Fence-agent vereist uitgaande connectiviteit met openbare eindpunten. Zie Openbare eindpuntconnectiviteit voor VM's met behulp van standaard-ILB voor meer informatie en mogelijke oplossingen.
Pacemaker configureren voor geplande Azure-gebeurtenissen
Azure biedt geplande gebeurtenissen. Geplande gebeurtenissen worden verzonden via de metagegevensservice en zorgen ervoor dat de toepassing zich kan voorbereiden op dergelijke gebeurtenissen.
De Pacemaker-resourceagent azure-events-az
bewaakt op geplande Azure-gebeurtenissen. Als gebeurtenissen worden gedetecteerd en de resourceagent bepaalt dat er een ander clusterknooppunt beschikbaar is, wordt een clusterstatuskenmerk ingesteld.
Wanneer het clusterstatuskenmerk is ingesteld voor een knooppunt, worden de locatiebeperkingen geactiveerd en worden alle resources met namen die niet beginnen health-
met het knooppunt gemigreerd met de geplande gebeurtenis. Nadat het getroffen clusterknooppunt vrij is van het uitvoeren van clusterbronnen, wordt de geplande gebeurtenis bevestigd en kan de actie worden uitgevoerd, zoals opnieuw opstarten.
[A] Zorg ervoor dat het pakket voor de
azure-events-az
agent al is geïnstalleerd en up-to-date is.RHEL 8.x: sudo dnf info resource-agents RHEL 9.x: sudo dnf info resource-agents-cloud
Minimale versievereisten:
- RHEL 8.4:
resource-agents-4.1.1-90.13
- RHEL 8.6:
resource-agents-4.9.0-16.9
- RHEL 8.8:
resource-agents-4.9.0-40.1
- RHEL 9.0:
resource-agents-cloud-4.10.0-9.6
- RHEL 9.2 en hoger:
resource-agents-cloud-4.10.0-34.1
- RHEL 8.4:
[1] Configureer de resources in Pacemaker.
#Place the cluster in maintenance mode sudo pcs property set maintenance-mode=true
[1] Stel de strategie en beperking van het Pacemaker-clusterstatusknooppunt in.
sudo pcs property set node-health-strategy=custom sudo pcs constraint location 'regexp%!health-.*' \ rule score-attribute='#health-azure' \ defined '#uname'
Belangrijk
Definieer geen andere resources in het cluster die beginnen met
health-
de resources die in de volgende stappen worden beschreven.[1] Stel de initiële waarde van de clusterkenmerken in. Uitvoeren voor elk clusterknooppunt en voor uitschaalomgevingen, waaronder vm's van de meerderheidsmaker.
sudo crm_attribute --node prod-cl1-0 --name '#health-azure' --update 0 sudo crm_attribute --node prod-cl1-1 --name '#health-azure' --update 0
[1] Configureer de resources in Pacemaker. Zorg ervoor dat de resources beginnen met
health-azure
.sudo pcs resource create health-azure-events \ ocf:heartbeat:azure-events-az \ op monitor interval=10s timeout=240s \ op start timeout=10s start-delay=90s sudo pcs resource clone health-azure-events allow-unhealthy-nodes=true failure-timeout=120s
Haal het Pacemaker-cluster uit de onderhoudsmodus.
sudo pcs property set maintenance-mode=false
Wis eventuele fouten tijdens het inschakelen en controleer of de
health-azure-events
resources zijn gestart op alle clusterknooppunten.sudo pcs resource cleanup
Het uitvoeren van de eerste query voor geplande gebeurtenissen kan maximaal twee minuten duren. Pacemaker-tests met geplande gebeurtenissen kunnen opnieuw opstarten of opnieuw implementeren voor de cluster-VM's. Zie Geplande gebeurtenissen voor meer informatie.
Optionele fencingconfiguratie
Tip
Deze sectie is alleen van toepassing als u het speciale afschermingsapparaat fence_kdump
wilt configureren.
Als u diagnostische gegevens binnen de VIRTUELE machine moet verzamelen, kan het handig zijn om een ander fencing-apparaat te configureren op basis van de omheiningsagent fence_kdump
. De fence_kdump
agent kan detecteren dat een knooppunt kdump crash recovery heeft ingevoerd en kan de crash recovery-service voltooien voordat andere fencing-methoden worden aangeroepen. Houd er rekening mee dat fence_kdump
dit geen vervanging is voor traditionele omheiningsmechanismen, zoals de Azure Fence-agent, wanneer u Azure-VM's gebruikt.
Belangrijk
Houd er rekening mee dat wanneer fence_kdump
deze is geconfigureerd als een afschermingsapparaat op het eerste niveau, vertragingen in de afschermingsbewerkingen introduceert en, respectievelijk, vertragingen in de failover van toepassingsresources.
Als er een crashdump is gedetecteerd, wordt de fencing vertraagd totdat de crashherstelservice is voltooid. Als het mislukte knooppunt onbereikbaar is of als het niet reageert, wordt de fencing vertraagd op basis van de tijd die is bepaald, het geconfigureerde aantal iteraties en de fence_kdump
time-out. Zie Hoe kan ik fence_kdump configureren in een Red Hat Pacemaker-cluster? voor meer informatie.
De voorgestelde fence_kdump
time-out moet mogelijk worden aangepast aan de specifieke omgeving.
Het is raadzaam om fencing alleen te configureren fence_kdump
wanneer dat nodig is om diagnostische gegevens binnen de VIRTUELE machine te verzamelen en altijd in combinatie met traditionele hekmethoden, zoals de Azure Fence-agent.
De volgende Red Hat KB-artikelen bevatten belangrijke informatie over het configureren van fence_kdump
schermen:
- Zie Hoe kan ik fence_kdump configureren in een Red Hat Pacemaker-cluster?.
- Zie Hoe u fencingniveaus in een RHEL-cluster configureert/beheert met Pacemaker.
- Zie fence_kdump mislukt met 'time-out na X seconden' in een RHEL 6- of 7 HA-cluster met kexec-tools ouder dan 2.0.14.
- Zie Hoe kan ik kdump configureren voor gebruik met de invoegtoepassing RHEL 6, 7, 8 HA voor meer informatie over het wijzigen van de standaardtime-out.
- Zie Kan ik de verwachte vertraging van failover verminderen bij het toevoegen van fence_kdump configuratie voor meer informatie over het verminderen van failoververtraging wanneer u deze gebruikt.
fence_kdump
Voer de volgende optionele stappen uit om toe te voegen fence_kdump
als een fencing-configuratie op het eerste niveau, naast de configuratie van de Azure Fence-agent.
[A] Controleer of dit
kdump
actief en geconfigureerd is.systemctl is-active kdump # Expected result # active
[A] Installeer de
fence_kdump
omheiningsagent.yum install fence-agents-kdump
[1] Maak een
fence_kdump
fencing-apparaat in het cluster.pcs stonith create rsc_st_kdump fence_kdump pcmk_reboot_action="off" pcmk_host_list="prod-cl1-0 prod-cl1-1" timeout=30
[1] Configureer afschermingsniveaus zodat het
fence_kdump
afschermingsmechanisme eerst wordt ingeschakeld.pcs stonith create rsc_st_kdump fence_kdump pcmk_reboot_action="off" pcmk_host_list="prod-cl1-0 prod-cl1-1" pcs stonith level add 1 prod-cl1-0 rsc_st_kdump pcs stonith level add 1 prod-cl1-1 rsc_st_kdump pcs stonith level add 2 prod-cl1-0 rsc_st_azure pcs stonith level add 2 prod-cl1-1 rsc_st_azure # Check the fencing level configuration pcs stonith level # Example output # Target: prod-cl1-0 # Level 1 - rsc_st_kdump # Level 2 - rsc_st_azure # Target: prod-cl1-1 # Level 1 - rsc_st_kdump # Level 2 - rsc_st_azure
[A] Sta de vereiste poorten toe via
fence_kdump
de firewall.firewall-cmd --add-port=7410/udp firewall-cmd --add-port=7410/udp --permanent
[A] Zorg ervoor dat het
initramfs
afbeeldingsbestand defence_kdump
enhosts
bestanden bevat. Zie Hoe kan ik fence_kdump configureren in een Red Hat Pacemaker-cluster? voor meer informatie.lsinitrd /boot/initramfs-$(uname -r)kdump.img | egrep "fence|hosts" # Example output # -rw-r--r-- 1 root root 208 Jun 7 21:42 etc/hosts # -rwxr-xr-x 1 root root 15560 Jun 17 14:59 usr/libexec/fence_kdump_send
[A] Voer de
fence_kdump_nodes
configuratie uit/etc/kdump.conf
om te voorkomen datfence_kdump
er een time-out optreedt voor sommigekexec-tools
versies. Zie fence_kdump time-out wanneer fence_kdump_nodes niet is opgegeven met kexec-tools versie 2.0.15 of hoger en fence_kdump mislukt met time-out na X seconden in een RHEL 6- of 7 high availability-cluster met kexec-tools versies ouder dan 2.0.14. De voorbeeldconfiguratie voor een cluster met twee knooppunten wordt hier weergegeven. Nadat u een wijziging/etc/kdump.conf
hebt aangebracht, moet de kdump-installatiekopieën opnieuw worden gegenereerd. Start de service opnieuw om opnieuwkdump
te genereren.vi /etc/kdump.conf # On node prod-cl1-0 make sure the following line is added fence_kdump_nodes prod-cl1-1 # On node prod-cl1-1 make sure the following line is added fence_kdump_nodes prod-cl1-0 # Restart the service on each node systemctl restart kdump
Test de configuratie door een knooppunt te crashen. Zie Hoe kan ik fence_kdump configureren in een Red Hat Pacemaker-cluster? voor meer informatie.
Belangrijk
Als het cluster al productief is, plant u de test dienovereenkomstig omdat het vastlopen van een knooppunt gevolgen heeft voor de toepassing.
echo c > /proc/sysrq-trigger
Volgende stappen
- Zie Planning en implementatie van Azure Virtual Machines voor SAP.
- Zie de implementatie van Azure Virtual Machines voor SAP.
- Zie de DBMS-implementatie van Azure Virtual Machines voor SAP.
- Zie Hoge beschikbaarheid van SAP HANA op virtuele Azure-machines voor meer informatie over het instellen van hoge beschikbaarheid van SAP HANA en het plannen van herstel na noodgevallen van SAP HANA op virtuele Azure-machines.
Feedback
https://aka.ms/ContentUserFeedback.
Binnenkort: Gedurende 2024 worden GitHub Issues uitgefaseerd als het feedbackmechanisme voor inhoud. Dit wordt vervangen door een nieuw feedbacksysteem. Ga voor meer informatie naar:Feedback verzenden en bekijken voor