Condividi tramite


Configurazione a disponibilità elevata in SUSE usando il dispositivo di fencing

In questo articolo verranno illustrati i passaggi per configurare la disponibilità elevata (HA) in istanze large di HANA nel sistema operativo SUSE usando il dispositivo di fencing.

Nota

Questa guida è derivata dal test della configurazione nell'ambiente Istanze large di Microsoft HANA. Il team di gestione dei servizi Microsoft per istanze large di HANA non supporta il sistema operativo. Per la risoluzione dei problemi o il chiarimento sul livello del sistema operativo, contattare SUSE.

Il team di Gestione servizi Microsoft esegue la configurazione e supporta completamente il dispositivo di fencing. Può aiutare a risolvere i problemi del dispositivo di fencing.

Prerequisiti

Per configurare la disponibilità elevata usando il clustering SUSE, è necessario:

  • Effettuare il provisioning di istanze large di HANA.
  • Installare e registrare il sistema operativo con le patch più recenti.
  • Connettere i server di istanze large DI HANA al server SMT per ottenere patch e pacchetti.
  • Configurare il protocollo di ora di rete (server di ora NTP).
  • Leggere e comprendere la documentazione più recente di SUSE sulla configurazione di disponibilità elevata.

Dettagli di configurazione

Questa guida usa la configurazione seguente:

  • Sistema operativo: SLES 12 SP1 per SAP
  • Istanze di grandi dimensioni di HANA: 2xS192 (4 socket, 2 TB)
  • Versione di HANA: HANA 2.0 SP1
  • Nomi server: sapprdhdb95 (node1) e sapprdhdb96 (node2)
  • Dispositivo di isolamento: basato su iSCSI
  • NTP in uno dei nodi dell'istanza large di HANA

Quando si configurano istanze large DI HANA con la replica del sistema HANA, è possibile richiedere al team di Gestione servizi Microsoft di configurare il dispositivo di isolamento. Eseguire questa operazione al momento del provisioning.

Se si è un cliente esistente con istanze large di HANA già sottoposto a provisioning, è comunque possibile configurare il dispositivo di fencing. Fornire le informazioni seguenti al team di Gestione servizi Microsoft nel modulo di richiesta di servizio (SRF). È possibile ottenere SRF tramite Technical Account Manager o il contatto Microsoft per l'onboarding di istanze large di HANA.

  • Nome server e indirizzo IP server (ad esempio, myhanaserver1 e 10.35.0.1)
  • Posizione (ad esempio, Stati Uniti orientali)
  • Nome del cliente (ad esempio, Microsoft)
  • IDENTIFICATORe di sistema HANA (SID) (ad esempio, H11)

Dopo aver configurato il dispositivo di protezione, il team di Gestione servizi Microsoft fornisce il nome SBD e l'indirizzo IP dell'archiviazione iSCSI. È possibile usare queste informazioni per configurare la configurazione della fencing.

Seguire la procedura descritta nelle sezioni seguenti per configurare la disponibilità elevata usando il dispositivo di fencing.

Identificare il dispositivo SBD

Nota

Questa sezione si applica solo ai clienti esistenti. Se sei un nuovo cliente, il team di Gestione servizi Microsoft ti darà il nome del dispositivo SBD, quindi ignora questa sezione.

  1. Modificare /etc/iscsi/initiatorname.isci to:

    iqn.1996-04.de.suse:01:<Tenant><Location><SID><NodeNumber> 
    

    Microsoft Service Management fornisce questa stringa. Modificare il file in entrambi i nodi. Tuttavia, il numero di nodo è diverso in ogni nodo.

    Screenshot che mostra un file initiatorname con valori InitiatorName per un nodo.

  2. Modificare /etc/iscsi/iscsid.conf impostando node.session.timeo.replacement_timeout=5 e node.startup = automatic. Modificare il file in entrambi i nodi.

  3. Eseguire il comando di individuazione seguente in entrambi i nodi.

    iscsiadm -m discovery -t st -p <IP address provided by Service Management>:3260
    

    I risultati mostrano quattro sessioni.

    Screenshot che mostra una finestra della console con i risultati del comando di individuazione.

  4. Eseguire il comando seguente in entrambi i nodi per accedere al dispositivo iSCSI.

    iscsiadm -m node -l
    

    I risultati mostrano quattro sessioni.

    Screenshot che mostra una finestra della console con i risultati del comando node.

  5. Usare il comando seguente per eseguire lo script di rescan-scsi-bus.sh rescan. Questo script mostra i nuovi dischi creati per l'utente. Eseguirlo in entrambi i nodi.

    rescan-scsi-bus.sh
    

    I risultati devono mostrare un numero LUN maggiore di zero(ad esempio: 1, 2 e così via).

    Screenshot che mostra una finestra della console con i risultati dello script.

  6. Per ottenere il nome del dispositivo, eseguire il comando seguente in entrambi i nodi.

      fdisk –l
    

    Nei risultati scegliere il dispositivo con le dimensioni di 178 MiB.

    Screenshot che mostra una finestra della console con i risultati del comando f disk.

Inizializzare il dispositivo SBD

  1. Usare il comando seguente per inizializzare il dispositivo SBD in entrambi i nodi.

    sbd -d <SBD Device Name> create
    

    Screenshot che mostra una finestra della console con il risultato del comando s b d create.

  2. Usare il comando seguente in entrambi i nodi per verificare cosa è stato scritto nel dispositivo.

    sbd -d <SBD Device Name> dump
    

Configurare il cluster SUSE HA

  1. Usare il comando seguente per verificare se i modelli ha_sles e SAPHanaSR-doc vengono installati in entrambi i nodi. Se non sono installati, installarli.

    zypper in -t pattern ha_sles
    zypper in SAPHanaSR SAPHanaSR-doc
    

    Screenshot che mostra una finestra della console con il risultato del comando pattern.

    Screenshot che mostra una finestra della console con il risultato del comando SAPHanaSR-doc.

  2. Configurare il cluster usando il comando o la ha-cluster-init procedura guidata yast2. In questo esempio viene usata la procedura guidata yast2. Eseguire questo passaggio solo nel nodo primario.

    1. Passare a yast2>Clustera disponibilità> elevata.

      Screenshot che mostra il Centro di controllo YaST con disponibilità elevata e cluster selezionato.

    2. Nella finestra di dialogo visualizzata sull'installazione del pacchetto hawk selezionare Annulla perché il pacchetto halk2 è già installato.

      Screenshot che mostra una finestra di dialogo con le opzioni Installa e Annulla.

    3. Nella finestra di dialogo visualizzata per continuare selezionare Continua.

      Screenshot che mostra un messaggio relativo alla continuazione senza installare i pacchetti necessari.

    4. Il valore previsto è il numero di nodi distribuiti (in questo caso, 2). Selezionare Avanti.

    5. Aggiungere i nomi dei nodi e quindi selezionare Aggiungi file suggeriti.

      Screenshot che mostra la finestra Configura cluster con gli elenchi Di host di sincronizzazione e sincronizzazione file.

    6. Selezionare Attiva csync2.

    7. Selezionare Genera chiavi pre-condivise.

    8. Nel messaggio popup visualizzato selezionare OK.

      Screenshot che mostra un messaggio generato dalla chiave.

    9. L'autenticazione viene eseguita usando gli indirizzi IP e le chiavi precondividi in Csync2. Il file di chiave viene generato con csync2 -k /etc/csync2/key_hagroup.

      Copiare manualmente il file key_hagroup in tutti i membri del cluster dopo la creazione. Assicurarsi di copiare il file da node1 a node2. Fare quindi clic su Avanti.

      Screenshot che mostra una finestra di dialogo Configura cluster con opzioni necessarie per copiare la chiave in tutti i membri del cluster.

    10. Nell'opzione predefinita, l'avvio è disattivato. Impostarlo su Attivato, quindi il servizio pacemaker viene avviato all'avvio. È possibile effettuare la scelta in base ai requisiti di configurazione.

      Screenshot che mostra la finestra Servizio cluster con avvio attivato.

    11. Selezionare Avanti e la configurazione del cluster è completata.

Configurare il watchdog softdog

  1. Aggiungere la riga seguente a /etc/init.d/boot.local in entrambi i nodi.

    modprobe softdog
    

    Screenshot che mostra un file di avvio con la riga softdog aggiunta.

  2. Usare il comando seguente per aggiornare il file /etc/sysconfig/sbd in entrambi i nodi.

    SBD_DEVICE="<SBD Device Name>"
    

    Screenshot che mostra il file b d con il valore aggiunto D_DEVICE S B.

  3. Caricare il modulo kernel in entrambi i nodi eseguendo il comando seguente.

    modprobe softdog
    

    Screenshot che mostra parte di una finestra della console con il comando modprobe softdog.

  4. Usare il comando seguente per assicurarsi che softdog sia in esecuzione in entrambi i nodi.

    lsmod | grep dog
    

    Screenshot che mostra parte di una finestra della console con il risultato dell'esecuzione del comando mod l.

  5. Usare il comando seguente per avviare il dispositivo SBD in entrambi i nodi.

    /usr/share/sbd/sbd.sh start
    

    Screenshot che mostra parte di una finestra della console con il comando start.

  6. Usare il comando seguente per testare il daemon SBD in entrambi i nodi.

    sbd -d <SBD Device Name> list
    

    I risultati mostrano due voci dopo la configurazione in entrambi i nodi.

    Screenshot che mostra parte di una finestra della console che visualizza due voci.

  7. Inviare il messaggio di test seguente a uno dei nodi.

    sbd  -d <SBD Device Name> message <node2> <message>
    
  8. Nel secondo nodo (node2), usare il comando seguente per controllare lo stato del messaggio.

    sbd  -d <SBD Device Name> list
    

    Screenshot che mostra parte di una finestra della console con uno dei membri che visualizzano un valore di test per l'altro membro.

  9. Per adottare la configurazione SBD, aggiornare il file /etc/sysconfig/sbd come segue in entrambi i nodi.

    SBD_DEVICE=" <SBD Device Name>" 
    SBD_WATCHDOG="yes" 
    SBD_PACEMAKER="yes" 
    SBD_STARTMODE="clean" 
    SBD_OPTS=""
    
  10. Usare il comando seguente per avviare il servizio pacemaker nel nodo primario (node1).

    systemctl start pacemaker
    

    Screenshot che mostra una finestra della console che visualizza lo stato dopo l'avvio di pacemaker.

    Se il servizio pacemaker ha esito negativo, vedere la sezione Scenario 5: Il servizio Pacemaker ha esito negativo più avanti in questo articolo.

Aggiungere il nodo al cluster

Eseguire il comando seguente in node2 per consentire al nodo di partecipare al cluster.

ha-cluster-join

Se viene visualizzato un errore durante l'aggiunta del cluster, vedere la sezione Scenario 6: Node2 non può partecipare al cluster più avanti in questo articolo.

Convalidare il cluster

  1. Usare i comandi seguenti per controllare e avviare facoltativamente il cluster per la prima volta in entrambi i nodi.

    systemctl status pacemaker
    systemctl start pacemaker
    

    Screenshot che mostra una finestra della console con lo stato di pacemaker.

  2. Eseguire il comando seguente per assicurarsi che entrambi i nodi siano online. È possibile eseguirlo in uno dei nodi del cluster.

    crm_mon
    

    Screenshot che mostra una finestra della console con i risultati del comando c r m_mon.

    È anche possibile accedere a hawk per controllare lo stato del cluster: https://\<node IP>:7630. L'utente predefinito è hacluster e la password è linux. Se necessario, è possibile modificare la password usando il passwd comando .

Configurare le proprietà e le risorse del cluster

Questa sezione descrive i passaggi per configurare le risorse del cluster. In questo esempio vengono configurate le risorse seguenti. È possibile configurare il resto (se necessario) facendo riferimento alla guida SUSE HA.

  • Bootstrap del cluster
  • Dispositivo di fencing
  • Indirizzo IP virtuale

Eseguire la configurazione solo nel nodo primario .

  1. Creare il file bootstrap del cluster e configurarlo aggiungendo il testo seguente.

    sapprdhdb95:~ # vi crm-bs.txt
    # enter the following to crm-bs.txt
    property $id="cib-bootstrap-options" \
    no-quorum-policy="ignore" \
    stonith-enabled="true" \
    stonith-action="reboot" \
    stonith-timeout="150s"
    rsc_defaults $id="rsc-options" \
    resource-stickiness="1000" \
    migration-threshold="5000"
    op_defaults $id="op-options" \
    timeout="600"
    
  2. Usare il comando seguente per aggiungere la configurazione al cluster.

    crm configure load update crm-bs.txt
    

    Screenshot che mostra parte di una finestra della console che esegue il comando c r m.

  3. Configurare il dispositivo di fencing aggiungendo la risorsa, creando il file e aggiungendo testo come indicato di seguito.

    # vi crm-sbd.txt
    # enter the following to crm-sbd.txt
    primitive stonith-sbd stonith:external/sbd \
    params pcmk_delay_max="15"
    

    Usare il comando seguente per aggiungere la configurazione al cluster.

    crm configure load update crm-sbd.txt
    
  4. Aggiungere l'indirizzo IP virtuale per la risorsa creando il file e aggiungendo il testo seguente.

    # vi crm-vip.txt
    primitive rsc_ip_HA1_HDB10 ocf:heartbeat:IPaddr2 \
    operations $id="rsc_ip_HA1_HDB10-operations" \
    op monitor interval="10s" timeout="20s" \
    params ip="10.35.0.197"
    

    Usare il comando seguente per aggiungere la configurazione al cluster.

    crm configure load update crm-vip.txt
    
  5. Usare il crm_mon comando per convalidare le risorse.

    I risultati mostrano le due risorse.

    Screenshot che mostra una finestra della console con due risorse.

    È anche possibile controllare lo stato all'indirizzo> IP https://< node:7630/cib/live/state.

    Screenshot che mostra lo stato delle due risorse.

Testare il processo di failover

  1. Per testare il processo di failover, usare il comando seguente per arrestare il servizio pacemaker in node1.

    Service pacemaker stop
    

    Le risorse hanno eseguito il failover su node2.

  2. Arrestare il servizio pacemaker in node2 e le risorse hanno eseguito il failover su node1.

    Ecco lo stato prima del failover:
    Screenshot che mostra lo stato delle due risorse prima del failover.

    Ecco lo stato dopo il failover:
    Screenshot che mostra lo stato delle due risorse dopo il failover.

    Screenshot che mostra una finestra della console con lo stato delle risorse dopo il failover.

Risoluzione dei problemi

Questa sezione descrive gli scenari di errore che potrebbero verificarsi durante l'installazione.

Scenario 1: Nodo del cluster non online

Se uno dei nodi non viene visualizzato online in Cluster Manager, è possibile provare questa procedura per portarla online.

  1. Usare il comando seguente per avviare il servizio iSCSI.

    service iscsid start
    
  2. Usare il comando seguente per accedere a tale nodo iSCSI.

    iscsiadm -m node -l
    

    L'output previsto è simile al seguente:

    sapprdhdb45:~ # iscsiadm -m node -l
    Logging in to [iface: default, target: iqn.1992-08.com.netapp:hanadc11:1:t020, portal: 10.250.22.11,3260] (multiple)
    Logging in to [iface: default, target: iqn.1992-08.com.netapp:hanadc11:1:t020, portal: 10.250.22.12,3260] (multiple)
    Logging in to [iface: default, target: iqn.1992-08.com.netapp:hanadc11:1:t020, portal: 10.250.22.22,3260] (multiple)
    Logging in to [iface: default, target: iqn.1992-08.com.netapp:hanadc11:1:t020, portal: 10.250.22.21,3260] (multiple)
    Login to [iface: default, target: iqn.1992-08.com.netapp:hanadc11:1:t020, portal: 10.250.22.11,3260] successful.
    Login to [iface: default, target: iqn.1992-08.com.netapp:hanadc11:1:t020, portal: 10.250.22.12,3260] successful.
    Login to [iface: default, target: iqn.1992-08.com.netapp:hanadc11:1:t020, portal: 10.250.22.22,3260] successful.
    Login to [iface: default, target: iqn.1992-08.com.netapp:hanadc11:1:t020, portal: 10.250.22.21,3260] successful.
    

Scenario 2: Yast2 non mostra la visualizzazione grafica

La schermata grafica yast2 viene usata per configurare il cluster a disponibilità elevata in questo articolo. Se yast2 non viene aperto con la finestra grafica come illustrato e genera un errore Qt, seguire questa procedura per installare i pacchetti necessari. Se si apre con la finestra grafica, è possibile ignorare la procedura.

Ecco un esempio dell'errore Qt:

Screenshot che mostra parte di una finestra della console con un messaggio di errore.

Ecco un esempio dell'output previsto:

Screenshot che mostra il Centro di controllo YaST con disponibilità elevata e cluster evidenziato.

  1. Assicurarsi di aver eseguito l'accesso come utente "root" e di aver configurato SMT per scaricare e installare i pacchetti.

  2. Passare a Yast>Software>Management>Dependencies e quindi selezionare Installa pacchetti consigliati.

    Nota

    Eseguire i passaggi in entrambi i nodi, in modo che sia possibile accedere alla visualizzazione grafica yast2 da entrambi i nodi.

    Lo screenshot seguente mostra la schermata prevista.

    Screenshot che mostra una finestra della console che visualizza il Centro controllo YaST.

  3. In Dipendenze selezionare Installa pacchetti consigliati.

    Screenshot che mostra una finestra della console con Installa pacchetti consigliati selezionati.

  4. Esaminare le modifiche e selezionare OK.

    Screenshot che mostra una finestra della console con un elenco di pacchetti selezionati per l'installazione.

    L'installazione del pacchetto procede.

    Screenshot che mostra una finestra della console che visualizza lo stato di avanzamento dell'installazione.

  5. Selezionare Avanti.

  6. Quando viene visualizzata la schermata Installazione completata , selezionare Fine.

    Screenshot che mostra una finestra della console con un messaggio di esito positivo.

  7. Usare i comandi seguenti per installare i pacchetti libqt4 e libyui-qt.

    zypper -n install libqt4
    

    Screenshot che mostra una finestra della console che installa il primo pacchetto.

    zypper -n install libyui-qt
    

    Screenshot che mostra una finestra della console che installa il secondo pacchetto.

    Screenshot che mostra una finestra della console che installa il secondo pacchetto, continua.

    Yast2 può ora aprire la visualizzazione grafica.

    Screenshot che mostra il Centro di controllo YaST con Software e Aggiornamento online selezionato.

Scenario 3: Yast2 non mostra l'opzione a disponibilità elevata

Per visualizzare l'opzione a disponibilità elevata nel centro di controllo yast2, è necessario installare gli altri pacchetti.

  1. Passare a Yast2>Software>Management. Selezionare Quindi Aggiornamentoonlinesoftware>.

    Screenshot che mostra il Centro di controllo YaST con Software e Aggiornamento online selezionato.

  2. Selezionare i modelli per gli elementi seguenti. Selezionare Quindi Accetta.

    • SAP HANA server base (Base server SAP HANA)
    • Compilatore e strumenti C/C++
    • Disponibilità elevata
    • Base del server applicazioni SAP

    Screenshot che mostra la selezione del primo modello nell'elemento per il compilatore e gli strumenti.

    Screenshot che mostra la selezione del secondo modello nell'elemento per il compilatore e gli strumenti.

  3. Nell'elenco dei pacchetti modificati per risolvere le dipendenze selezionare Continua.

    Screenshot che mostra la finestra di dialogo Pacchetti modificati con pacchetti modificati modificati per risolvere le dipendenze.

  4. Nella pagina Esecuzione dello stato dell'installazione selezionare Avanti.

    Screenshot che mostra la pagina Esecuzione dello stato dell'installazione.

  5. Al termine dell'installazione, viene visualizzato un report di installazione. Selezionare Fine.

    Screenshot che mostra il report di installazione.

Scenario 4: l'installazione di HANA non riesce con l'errore degli assembly gcc

Se l'installazione di HANA ha esito negativo, potrebbe verificarsi l'errore seguente.

Screenshot che mostra un messaggio di errore che il sistema operativo non è pronto per eseguire assembly g c c 5.

Per risolvere il problema, installare le librerie libgcc_sl e libstdc++6, come illustrato nello screenshot seguente.

Screenshot che mostra una finestra della console che installa le librerie necessarie.

Scenario 5: Il servizio Pacemaker ha esito negativo

Le informazioni seguenti sono visualizzate se il servizio pacemaker non può iniziare.

sapprdhdb95:/ # systemctl start pacemaker
A dependency job for pacemaker.service failed. See 'journalctl -xn' for details.
sapprdhdb95:/ # journalctl -xn
-- Logs begin at Thu 2017-09-28 09:28:14 EDT, end at Thu 2017-09-28 21:48:27 EDT. --
Sep 28 21:48:27 sapprdhdb95 corosync[68812]: [SERV  ] Service engine unloaded: corosync configuration map
Sep 28 21:48:27 sapprdhdb95 corosync[68812]: [QB    ] withdrawing server sockets
Sep 28 21:48:27 sapprdhdb95 corosync[68812]: [SERV  ] Service engine unloaded: corosync configuration ser
Sep 28 21:48:27 sapprdhdb95 corosync[68812]: [QB    ] withdrawing server sockets
Sep 28 21:48:27 sapprdhdb95 corosync[68812]: [SERV  ] Service engine unloaded: corosync cluster closed pr
Sep 28 21:48:27 sapprdhdb95 corosync[68812]: [QB    ] withdrawing server sockets
Sep 28 21:48:27 sapprdhdb95 corosync[68812]: [SERV  ] Service engine unloaded: corosync cluster quorum se
Sep 28 21:48:27 sapprdhdb95 corosync[68812]: [SERV  ] Service engine unloaded: corosync profile loading s
Sep 28 21:48:27 sapprdhdb95 corosync[68812]: [MAIN  ] Corosync Cluster Engine exiting normally
Sep 28 21:48:27 sapprdhdb95 systemd[1]: Dependency failed for Pacemaker High Availability Cluster Manager
-- Subject: Unit pacemaker.service has failed
-- Defined-By: systemd
-- Support: https://lists.freedesktop.org/mailman/listinfo/systemd-devel
--
-- Unit pacemaker.service has failed.
--
-- The result is dependency.
sapprdhdb95:/ # tail -f /var/log/messages
2017-09-28T18:44:29.675814-04:00 sapprdhdb95 corosync[57600]:   [QB    ] withdrawing server sockets
2017-09-28T18:44:29.676023-04:00 sapprdhdb95 corosync[57600]:   [SERV  ] Service engine unloaded: corosync cluster closed process group service v1.01
2017-09-28T18:44:29.725885-04:00 sapprdhdb95 corosync[57600]:   [QB    ] withdrawing server sockets
2017-09-28T18:44:29.726069-04:00 sapprdhdb95 corosync[57600]:   [SERV  ] Service engine unloaded: corosync cluster quorum service v0.1
2017-09-28T18:44:29.726164-04:00 sapprdhdb95 corosync[57600]:   [SERV  ] Service engine unloaded: corosync profile loading service
2017-09-28T18:44:29.776349-04:00 sapprdhdb95 corosync[57600]:   [MAIN  ] Corosync Cluster Engine exiting normally
2017-09-28T18:44:29.778177-04:00 sapprdhdb95 systemd[1]: Dependency failed for Pacemaker High Availability Cluster Manager.
2017-09-28T18:44:40.141030-04:00 sapprdhdb95 systemd[1]: [/usr/lib/systemd/system/fstrim.timer:8] Unknown lvalue 'Persistent' in section 'Timer'
2017-09-28T18:45:01.275038-04:00 sapprdhdb95 cron[57995]: pam_unix(crond:session): session opened for user root by (uid=0)
2017-09-28T18:45:01.308066-04:00 sapprdhdb95 CRON[57995]: pam_unix(crond:session): session closed for user root

Per correggerlo, eliminare la riga seguente dal file /usr/lib/systemd/system/fstrim.timer:

Persistent=true

Screenshot che mostra il file di taglio f con il valore persistent=true da eliminare.

Scenario 6: Node2 non può partecipare al cluster

L'errore seguente viene visualizzato se si verifica un problema con l'aggiunta di node2 al cluster esistente tramite il comando ha-cluster-join .

ERROR: Can’t retrieve SSH keys from <Primary Node>

Screenshot che mostra una finestra della console con un messaggio di errore che indica che le chiavi S H S non possono essere recuperate da un determinato indirizzo I P.

Per correggerlo:

  1. Eseguire i comandi seguenti in entrambi i nodi.

    ssh-keygen -q -f /root/.ssh/id_rsa -C 'Cluster Internal' -N ''
    cat /root/.ssh/id_rsa.pub >> /root/.ssh/authorized_keys
    

    Screenshot che mostra parte di una finestra della console che esegue il comando nel primo nodo.

    Screenshot che mostra parte di una finestra della console che esegue il comando nel secondo nodo.

  2. Verificare che node2 venga aggiunto al cluster.

    Screenshot che mostra una finestra della console con un comando join riuscito.

Passaggi successivi

Per altre informazioni sulla configurazione della disponibilità elevata di SUSE, vedere gli articoli seguenti: