Pacemaker instellen op Red Hat Enterprise Linux in Azure

In dit artikel wordt beschreven hoe u een eenvoudig Pacemaker-cluster configureert op Red Hat Enterprise Server (RHEL). De instructies hebben betrekking op RHEL 7, RHEL 8 en RHEL 9.

Vereisten

Lees eerst de volgende SAP-notities en -documenten:

Clusterinstallatie

Diagram that shows an overview of Pacemaker on RHEL.

Notitie

Red Hat biedt geen ondersteuning voor een software-emulated watchdog. Red Hat biedt geen ondersteuning voor SBD op cloudplatforms. Zie Ondersteuningsbeleid voor RHEL-clusters met hoge beschikbaarheid - sbd en fence_sbd voor meer informatie.

Het enige ondersteunde fencingmechanisme voor Pacemaker RHEL-clusters in Azure is een Azure Fence-agent.

De volgende items worden voorafgegaan door:

  • [A]: Van toepassing op alle knooppunten
  • [1]: Alleen van toepassing op knooppunt 1
  • [2]: Alleen van toepassing op knooppunt 2

Verschillen in de opdrachten of de configuratie tussen RHEL 7 en RHEL 8/RHEL 9 worden gemarkeerd in het document.

  1. [A] Registreren. Deze stap is optioneel. Als u RHEL SAP HA-installatiekopieën gebruikt, is deze stap niet vereist.

    Als u bijvoorbeeld implementeert op RHEL 7, registreert u uw VIRTUELE machine en koppelt u deze aan een pool die opslagplaatsen voor RHEL 7 bevat.

    sudo subscription-manager register
    # List the available pools
    sudo subscription-manager list --available --matches '*SAP*'
    sudo subscription-manager attach --pool=<pool id>
    

    Wanneer u een pool koppelt aan een RHEL-installatiekopieën voor betalen per gebruik van Azure Marketplace, wordt u effectief dubbel gefactureerd voor uw RHEL-gebruik. U wordt eenmaal gefactureerd voor de betalen per gebruik-installatiekopieën en één keer voor het RHEL-recht in de pool die u bijvoegt. Om deze situatie te verhelpen, biedt Azure nu RHEL-installatiekopieën van uw eigen abonnement. Zie Red Hat Enterprise Linux bring-your-own-subscription Azure-installatiekopieën voor meer informatie.

  2. [A] RHEL inschakelen voor SAP-opslagplaatsen. Deze stap is optioneel. Als u RHEL SAP HA-installatiekopieën gebruikt, is deze stap niet vereist.

    Als u de vereiste pakketten wilt installeren op RHEL 7, schakelt u de volgende opslagplaatsen in:

    sudo subscription-manager repos --disable "*"
    sudo subscription-manager repos --enable=rhel-7-server-rpms
    sudo subscription-manager repos --enable=rhel-ha-for-rhel-7-server-rpms
    sudo subscription-manager repos --enable=rhel-sap-for-rhel-7-server-rpms
    sudo subscription-manager repos --enable=rhel-ha-for-rhel-7-server-eus-rpms
    
  3. [A] Installeer de RHEL HA-invoegtoepassing.

     sudo yum install -y pcs pacemaker fence-agents-azure-arm nmap-ncat
    

    Belangrijk

    We raden de volgende versies van de Azure Fence-agent (of hoger) aan om te profiteren van een snellere failovertijd als een resourcestop mislukt of als de clusterknooppunten niet meer met elkaar kunnen communiceren:

    RHEL 7.7 of hoger gebruiken de nieuwste beschikbare versie van fence-agents package.

    RHEL 7.6: hek-agents-4.2.1-11.el7_6.8

    RHEL 7.5: hek-agents-4.0.11-86.el7_5.8

    RHEL 7.4: hek-agents-4.0.11-66.el7_4.12

    Zie Voor meer informatie azure-VM die wordt uitgevoerd als lid van een RHEL-cluster met hoge beschikbaarheid, een zeer lange tijd duurt om te worden omheining, of het afschermen mislukt/time-out voordat de VIRTUELE machine wordt afgesloten.

    Belangrijk

    We raden de volgende versies van de Azure Fence-agent (of hoger) aan voor klanten die beheerde identiteiten willen gebruiken voor Azure-resources in plaats van service-principalnamen voor de omheiningsagent:

    RHEL 8.4: fence-agents-4.2.1-54.el8.

    RHEL 8.2: fence-agents-4.2.1-41.el8_2.4

    RHEL 8.1: fence-agents-4.2.1-30.el8_1.4

    RHEL 7.9: hek-agents-4.2.1-41.el7_9.4.

    Belangrijk

    Op RHEL 9 raden we de volgende pakketversies (of hoger) aan om problemen met de Azure Fence-agent te voorkomen:

    fence-agents-4.10.0-20.el9_0.7

    fence-agents-common-4.10.0-20.el9_0.6

    ha-cloud-support-4.10.0-20.el9_0.6.x86_64.rpm

    Controleer de versie van de Azure Fence-agent. Werk deze indien nodig bij naar de minimaal vereiste versie of hoger.

    # Check the version of the Azure Fence Agent
     sudo yum info fence-agents-azure-arm
    

    Belangrijk

    Als u de Azure Fence-agent moet bijwerken en als u een aangepaste rol gebruikt, moet u de aangepaste rol bijwerken om de actie powerOff op te nemen. Zie Een aangepaste rol maken voor de omheiningsagent voor meer informatie.

  4. Als u implementeert op RHEL 9, installeert u ook de resourceagents voor cloudimplementatie.

    sudo yum install -y resource-agents-cloud
    
  5. [A] Hostnaamomzetting instellen.

    U kunt een DNS-server gebruiken of het /etc/hosts bestand op alle knooppunten wijzigen. In dit voorbeeld ziet u hoe u het /etc/hosts bestand gebruikt. Vervang het IP-adres en de hostnaam in de volgende opdrachten.

    Belangrijk

    Als u hostnamen in de clusterconfiguratie gebruikt, is het essentieel dat u betrouwbare hostnaamomzetting hebt. De clustercommunicatie mislukt als de namen niet beschikbaar zijn, wat kan leiden tot vertragingen in de clusterfailover.

    Het voordeel van het gebruik /etc/hosts is dat uw cluster onafhankelijk wordt van DNS, wat ook een single point of failure kan zijn.

    sudo vi /etc/hosts
    

    Voeg de volgende regels in op /etc/hosts. Wijzig het IP-adres en de hostnaam zodat deze overeenkomen met uw omgeving.

    # IP address of the first cluster node
    10.0.0.6 prod-cl1-0
    # IP address of the second cluster node
    10.0.0.7 prod-cl1-1
    
  6. [A] Wijzig het hacluster wachtwoord in hetzelfde wachtwoord.

    sudo passwd hacluster
    
  7. [A] Voeg firewallregels toe voor Pacemaker.

    Voeg de volgende firewallregels toe aan alle clustercommunicatie tussen de clusterknooppunten.

    sudo firewall-cmd --add-service=high-availability --permanent
    sudo firewall-cmd --add-service=high-availability
    
  8. [A] Schakel basisclusterservices in.

    Voer de volgende opdrachten uit om de Pacemaker-service in te schakelen en te starten.

    sudo systemctl start pcsd.service
    sudo systemctl enable pcsd.service
    
  9. [1] Maak een Pacemaker-cluster.

    Voer de volgende opdrachten uit om de knooppunten te verifiëren en het cluster te maken. Stel het token in op 30000 om onderhoud met geheugenbehoud mogelijk te maken. Zie dit artikel voor Linux voor meer informatie.

    Als u een cluster bouwt op RHEL 7.x, gebruikt u de volgende opdrachten:

    sudo pcs cluster auth prod-cl1-0 prod-cl1-1 -u hacluster
    sudo pcs cluster setup --name nw1-azr prod-cl1-0 prod-cl1-1 --token 30000
    sudo pcs cluster start --all
    

    Als u een cluster bouwt op RHEL 8.x/RHEL 9.x, gebruikt u de volgende opdrachten:

    sudo pcs host auth prod-cl1-0 prod-cl1-1 -u hacluster
    sudo pcs cluster setup nw1-azr prod-cl1-0 prod-cl1-1 totem token=30000
    sudo pcs cluster start --all
    

    Controleer de clusterstatus door de volgende opdracht uit te voeren:

    # Run the following command until the status of both nodes is online
    sudo pcs status
    
    # Cluster name: nw1-azr
    # WARNING: no stonith devices and stonith-enabled is not false
    # Stack: corosync
    # Current DC: prod-cl1-1 (version 1.1.18-11.el7_5.3-2b07d5c5a9) - partition with quorum
    # Last updated: Fri Aug 17 09:18:24 2018
    # Last change: Fri Aug 17 09:17:46 2018 by hacluster via crmd on prod-cl1-1
    #
    # 2 nodes configured
    # 0 resources configured
    #
    # Online: [ prod-cl1-0 prod-cl1-1 ]
    #
    # No resources
    #
    # Daemon Status:
    #   corosync: active/disabled
    #   pacemaker: active/disabled
    #   pcsd: active/enabled
    
  10. [A] Stel verwachte stemmen in.

    # Check the quorum votes 
    pcs quorum status
    
    # If the quorum votes are not set to 2, execute the next command
    sudo pcs quorum expected-votes 2
    

    Tip

    Als u een cluster met meerdere knooppunten bouwt, dus een cluster met meer dan twee knooppunten, stelt u de stemmen niet in op 2.

  11. [1] Gelijktijdige omheiningsacties toestaan.

    sudo pcs property set concurrent-fencing=true
    

Een fencing-apparaat maken

Het fencing-apparaat maakt gebruik van een beheerde identiteit voor Azure-resources of een service-principal om toestemming te geven voor Azure.

Als u een beheerde identiteit (MSI) wilt maken, maakt u een door het systeem toegewezen beheerde identiteit voor elke VIRTUELE machine in het cluster. Als er al een door het systeem toegewezen beheerde identiteit bestaat, wordt deze gebruikt. Gebruik momenteel geen door de gebruiker toegewezen beheerde identiteiten met Pacemaker. Een omheiningsapparaat, op basis van beheerde identiteit, wordt ondersteund op RHEL 7.9 en RHEL 8.x/RHEL 9.x.

[1] Een aangepaste rol maken voor de omheiningsagent

Zowel de beheerde identiteit als de service-principal hebben standaard geen machtigingen voor toegang tot uw Azure-resources. U moet de beheerde identiteit of service-principal machtigingen geven om alle VM's van het cluster te starten en stoppen (uit te schakelen). Als u de aangepaste rol nog niet hebt gemaakt, kunt u deze maken met behulp van PowerShell of de Azure CLI.

Gebruik de volgende inhoud voor het invoerbestand. U moet de inhoud aanpassen aan uw abonnementen, dat wil gezegd, vervangen xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx en yyyyyyyy-yyyy-yyyy-yyyy-yyyyyyyyyyyy door de id's van uw abonnement. Als u slechts één abonnement hebt, verwijdert u de tweede vermelding in AssignableScopes.

{
      "Name": "Linux Fence Agent Role",
      "description": "Allows to power-off and start virtual machines",
      "assignableScopes": [
              "/subscriptions/xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx",
              "/subscriptions/yyyyyyyy-yyyy-yyyy-yyyy-yyyyyyyyyyyy"
      ],
      "actions": [
              "Microsoft.Compute/*/read",
              "Microsoft.Compute/virtualMachines/powerOff/action",
              "Microsoft.Compute/virtualMachines/start/action"
      ],
      "notActions": [],
      "dataActions": [],
      "notDataActions": []
}

[A] De aangepaste rol toewijzen

Gebruik beheerde identiteit of service-principal.

Wijs de aangepaste rol Linux Fence Agent Role toe die in de laatste sectie is gemaakt aan elke beheerde identiteit van de cluster-VM's. Aan elke door het VM-systeem toegewezen beheerde identiteit moet de rol zijn toegewezen voor de resource van elke cluster-VM. Zie Een beheerde identiteit toegang tot een resource toewijzen met behulp van Azure Portal voor meer informatie. Controleer of de roltoewijzing van de beheerde identiteit van elke VIRTUELE machine alle cluster-VM's bevat.

Belangrijk

Houd er rekening mee dat het toewijzen en verwijderen van autorisatie met beheerde identiteiten kan worden uitgesteld totdat deze effectief is.

[1] Maak de fencing-apparaten

Nadat u de machtigingen voor de VM's hebt bewerkt, kunt u de fencing-apparaten in het cluster configureren.

sudo pcs property set stonith-timeout=900

Notitie

De optie pcmk_host_map is alleen vereist in de opdracht als de RHEL-hostnamen en de azure-VM-namen niet identiek zijn. Geef de toewijzing op in de indeling hostnaam:vm-name. Raadpleeg de vetgedrukte sectie in de opdracht. Zie voor meer informatie welke indeling moet ik gebruiken om knooppunttoewijzingen op te geven voor fencing-apparaten in pcmk_host_map?.

Gebruik voor RHEL 7.x de volgende opdracht om het hekapparaat te configureren:

sudo pcs stonith create rsc_st_azure fence_azure_arm msi=true resourceGroup="resource group" \ 
subscriptionId="subscription id" pcmk_host_map="prod-cl1-0:prod-cl1-0-vm-name;prod-cl1-1:prod-cl1-1-vm-name" \
power_timeout=240 pcmk_reboot_timeout=900 pcmk_monitor_timeout=120 pcmk_monitor_retries=4 pcmk_action_limit=3 pcmk_delay_max=15 \
op monitor interval=3600

Voor RHEL 8.x/9.x gebruikt u de volgende opdracht om het hekapparaat te configureren:

# Run following command if you are setting up fence agent on (two-node cluster and pacemaker version greater than 2.0.4-6.el8) OR (HANA scale out)
sudo pcs stonith create rsc_st_azure fence_azure_arm msi=true resourceGroup="resource group" \
subscriptionId="subscription id" pcmk_host_map="prod-cl1-0:prod-cl1-0-vm-name;prod-cl1-1:prod-cl1-1-vm-name" \
power_timeout=240 pcmk_reboot_timeout=900 pcmk_monitor_timeout=120 pcmk_monitor_retries=4 pcmk_action_limit=3 \
op monitor interval=3600

# Run following command if you are setting up fence agent on (two-node cluster and pacemaker version less than 2.0.4-6.el8)
sudo pcs stonith create rsc_st_azure fence_azure_arm msi=true resourceGroup="resource group" \
subscriptionId="subscription id" pcmk_host_map="prod-cl1-0:prod-cl1-0-vm-name;prod-cl1-1:prod-cl1-1-vm-name" \
power_timeout=240 pcmk_reboot_timeout=900 pcmk_monitor_timeout=120 pcmk_monitor_retries=4 pcmk_action_limit=3 pcmk_delay_max=15 \
op monitor interval=3600

Als u een fencing-apparaat gebruikt op basis van de configuratie van de service-principal, leest u Change from SPN to MSI for Pacemaker clusters by using Azure fencing and learn how to convert to managed identity configuration.

Tip

  • Als u omheiningsraces binnen een pacemakercluster met twee knooppunten wilt voorkomen, kunt u de priority-fencing-delay clustereigenschap configureren. Deze eigenschap introduceert extra vertraging bij het afschermen van een knooppunt met een hogere totale resourceprioriteit wanneer er een split-brain-scenario optreedt. Zie Kan Pacemaker het clusterknooppunt omheinen met de minste actieve resources? voor meer informatie.
  • De eigenschap priority-fencing-delay is van toepassing op Pacemaker versie 2.0.4-6.el8 of hoger en op een cluster met twee knooppunten. Als u de priority-fencing-delay clustereigenschap configureert, hoeft u de pcmk_delay_max eigenschap niet in te stellen. Maar als de Pacemaker-versie kleiner is dan 2.0.4-6.el8, moet u de pcmk_delay_max eigenschap instellen.
  • Zie de respectieve SAP ASCS/ERS- en SAP HANA-documenten voor het instellen van de clustereigenschap voor instructies over het instellen van de priority-fencing-delay clustereigenschap.

De bewakings- en afschermingsbewerkingen worden gedeserialiseerd. Als er dus een langer actieve bewakingsbewerking en gelijktijdige fencing-gebeurtenis is, is er geen vertraging voor de clusterfailover omdat de bewakingsbewerking al wordt uitgevoerd.

[1] Het gebruik van een fencingapparaat inschakelen

sudo pcs property set stonith-enabled=true

Tip

De Azure Fence-agent vereist uitgaande connectiviteit met openbare eindpunten. Zie Openbare eindpuntconnectiviteit voor VM's met behulp van standaard-ILB voor meer informatie en mogelijke oplossingen.

Pacemaker configureren voor geplande Azure-gebeurtenissen

Azure biedt geplande gebeurtenissen. Geplande gebeurtenissen worden verzonden via de metagegevensservice en zorgen ervoor dat de toepassing zich kan voorbereiden op dergelijke gebeurtenissen.

De Pacemaker-resourceagent azure-events-az bewaakt op geplande Azure-gebeurtenissen. Als gebeurtenissen worden gedetecteerd en de resourceagent bepaalt dat er een ander clusterknooppunt beschikbaar is, wordt een clusterstatuskenmerk ingesteld.

Wanneer het clusterstatuskenmerk is ingesteld voor een knooppunt, worden de locatiebeperkingen geactiveerd en worden alle resources met namen die niet beginnen health- met het knooppunt gemigreerd met de geplande gebeurtenis. Nadat het getroffen clusterknooppunt vrij is van het uitvoeren van clusterbronnen, wordt de geplande gebeurtenis bevestigd en kan de actie worden uitgevoerd, zoals opnieuw opstarten.

  1. [A] Zorg ervoor dat het pakket voor de azure-events-az agent al is geïnstalleerd en up-to-date is.

    RHEL 8.x: sudo dnf info resource-agents
    RHEL 9.x: sudo dnf info resource-agents-cloud
    

    Minimale versievereisten:

    • RHEL 8.4: resource-agents-4.1.1-90.13
    • RHEL 8.6: resource-agents-4.9.0-16.9
    • RHEL 8.8: resource-agents-4.9.0-40.1
    • RHEL 9.0: resource-agents-cloud-4.10.0-9.6
    • RHEL 9.2 en hoger: resource-agents-cloud-4.10.0-34.1
  2. [1] Configureer de resources in Pacemaker.

    #Place the cluster in maintenance mode
    sudo pcs property set maintenance-mode=true
    
    
  3. [1] Stel de strategie en beperking van het Pacemaker-clusterstatusknooppunt in.

    sudo pcs property set node-health-strategy=custom
    sudo pcs constraint location 'regexp%!health-.*' \
    rule score-attribute='#health-azure' \
    defined '#uname'
    

    Belangrijk

    Definieer geen andere resources in het cluster die beginnen met health- de resources die in de volgende stappen worden beschreven.

  4. [1] Stel de initiële waarde van de clusterkenmerken in. Uitvoeren voor elk clusterknooppunt en voor uitschaalomgevingen, waaronder vm's van de meerderheidsmaker.

    sudo crm_attribute --node prod-cl1-0 --name '#health-azure' --update 0
    sudo crm_attribute --node prod-cl1-1 --name '#health-azure' --update 0
    
  5. [1] Configureer de resources in Pacemaker. Zorg ervoor dat de resources beginnen met health-azure.

    sudo pcs resource create health-azure-events \
    ocf:heartbeat:azure-events-az op monitor interval=10s
    sudo pcs resource clone health-azure-events allow-unhealthy-nodes=true
    
  6. Haal het Pacemaker-cluster uit de onderhoudsmodus.

    sudo pcs property set maintenance-mode=false
    
  7. Wis eventuele fouten tijdens het inschakelen en controleer of de health-azure-events resources zijn gestart op alle clusterknooppunten.

    sudo pcs resource cleanup
    

    Het uitvoeren van de eerste query voor geplande gebeurtenissen kan maximaal twee minuten duren. Pacemaker-tests met geplande gebeurtenissen kunnen opnieuw opstarten of opnieuw implementeren voor de cluster-VM's. Zie Geplande gebeurtenissen voor meer informatie.

Optionele fencingconfiguratie

Tip

Deze sectie is alleen van toepassing als u het speciale afschermingsapparaat fence_kdumpwilt configureren.

Als u diagnostische gegevens binnen de VIRTUELE machine moet verzamelen, kan het handig zijn om een ander fencing-apparaat te configureren op basis van de omheiningsagent fence_kdump. De fence_kdump agent kan detecteren dat een knooppunt kdump crash recovery heeft ingevoerd en kan de crash recovery-service voltooien voordat andere fencing-methoden worden aangeroepen. Houd er rekening mee dat fence_kdump dit geen vervanging is voor traditionele omheiningsmechanismen, zoals de Azure Fence-agent, wanneer u Azure-VM's gebruikt.

Belangrijk

Houd er rekening mee dat wanneer fence_kdump deze is geconfigureerd als een afschermingsapparaat op het eerste niveau, vertragingen in de afschermingsbewerkingen introduceert en, respectievelijk, vertragingen in de failover van toepassingsresources.

Als er een crashdump is gedetecteerd, wordt de fencing vertraagd totdat de crashherstelservice is voltooid. Als het mislukte knooppunt onbereikbaar is of als het niet reageert, wordt de fencing vertraagd op basis van de tijd die is bepaald, het geconfigureerde aantal iteraties en de fence_kdump time-out. Zie Hoe kan ik fence_kdump configureren in een Red Hat Pacemaker-cluster? voor meer informatie.

De voorgestelde fence_kdump time-out moet mogelijk worden aangepast aan de specifieke omgeving.

Het is raadzaam om fencing alleen te configureren fence_kdump wanneer dat nodig is om diagnostische gegevens binnen de VIRTUELE machine te verzamelen en altijd in combinatie met traditionele hekmethoden, zoals de Azure Fence-agent.

De volgende Red Hat KB-artikelen bevatten belangrijke informatie over het configureren van fence_kdump schermen:

Voer de volgende optionele stappen uit om toe te voegen fence_kdump als een fencing-configuratie op het eerste niveau, naast de configuratie van de Azure Fence-agent.

  1. [A] Controleer of dit kdump actief en geconfigureerd is.

    systemctl is-active kdump
    # Expected result
    # active
    
  2. [A] Installeer de fence_kdump omheiningsagent.

    yum install fence-agents-kdump
    
  3. [1] Maak een fence_kdump fencing-apparaat in het cluster.

    pcs stonith create rsc_st_kdump fence_kdump pcmk_reboot_action="off" pcmk_host_list="prod-cl1-0 prod-cl1-1" timeout=30
    
  4. [1] Configureer afschermingsniveaus zodat het fence_kdump afschermingsmechanisme eerst wordt ingeschakeld.

    pcs stonith create rsc_st_kdump fence_kdump pcmk_reboot_action="off" pcmk_host_list="prod-cl1-0 prod-cl1-1"
    pcs stonith level add 1 prod-cl1-0 rsc_st_kdump
    pcs stonith level add 1 prod-cl1-1 rsc_st_kdump
    pcs stonith level add 2 prod-cl1-0 rsc_st_azure
    pcs stonith level add 2 prod-cl1-1 rsc_st_azure
    
    # Check the fencing level configuration 
    pcs stonith level
    # Example output
    # Target: prod-cl1-0
    # Level 1 - rsc_st_kdump
    # Level 2 - rsc_st_azure
    # Target: prod-cl1-1
    # Level 1 - rsc_st_kdump
    # Level 2 - rsc_st_azure
    
  5. [A] Sta de vereiste poorten toe via fence_kdump de firewall.

    firewall-cmd --add-port=7410/udp
    firewall-cmd --add-port=7410/udp --permanent
    
  6. [A] Zorg ervoor dat het initramfs afbeeldingsbestand de fence_kdump en hosts bestanden bevat. Zie Hoe kan ik fence_kdump configureren in een Red Hat Pacemaker-cluster? voor meer informatie.

    lsinitrd /boot/initramfs-$(uname -r)kdump.img | egrep "fence|hosts"
    # Example output 
    # -rw-r--r--   1 root     root          208 Jun  7 21:42 etc/hosts
    # -rwxr-xr-x   1 root     root        15560 Jun 17 14:59 usr/libexec/fence_kdump_send
    
  7. [A] Voer de fence_kdump_nodes configuratie uit /etc/kdump.conf om te voorkomen dat fence_kdump er een time-out optreedt voor sommige kexec-tools versies. Zie fence_kdump time-out wanneer fence_kdump_nodes niet is opgegeven met kexec-tools versie 2.0.15 of hoger en fence_kdump mislukt met time-out na X seconden in een RHEL 6- of 7 high availability-cluster met kexec-tools versies ouder dan 2.0.14. De voorbeeldconfiguratie voor een cluster met twee knooppunten wordt hier weergegeven. Nadat u een wijziging /etc/kdump.confhebt aangebracht, moet de kdump-installatiekopieën opnieuw worden gegenereerd. Start de service opnieuw om opnieuw kdump te genereren.

    vi /etc/kdump.conf
    # On node prod-cl1-0 make sure the following line is added
    fence_kdump_nodes  prod-cl1-1
    # On node prod-cl1-1 make sure the following line is added
    fence_kdump_nodes  prod-cl1-0
    
    # Restart the service on each node
    systemctl restart kdump
    
  8. Test de configuratie door een knooppunt te crashen. Zie Hoe kan ik fence_kdump configureren in een Red Hat Pacemaker-cluster? voor meer informatie.

    Belangrijk

    Als het cluster al productief is, plant u de test dienovereenkomstig omdat het vastlopen van een knooppunt gevolgen heeft voor de toepassing.

    echo c > /proc/sysrq-trigger
    

Volgende stappen