Udostępnij za pośrednictwem


Konfiguracja wysokiej dostępności w systemie SUSE przy użyciu urządzenia ogrodzenia

W tym artykule omówimy kroki konfigurowania wysokiej dostępności w dużych wystąpieniach platformy HANA w systemie operacyjnym SUSE przy użyciu urządzenia ogrodzenia.

Uwaga

Ten przewodnik pochodzi z pomyślnego testowania konfiguracji w środowisku dużych wystąpień platformy Microsoft HANA. Zespół zarządzania usługami firmy Microsoft dla dużych wystąpień HANA nie obsługuje systemu operacyjnego. Aby uzyskać informacje na temat rozwiązywania problemów lub wyjaśnienia dotyczące warstwy systemu operacyjnego, skontaktuj się z systemem SUSE.

Zespół zarządzania usługami firmy Microsoft konfiguruje i w pełni obsługuje urządzenie ogrodzenia. Może pomóc w rozwiązywaniu problemów z urządzeniem ogrodzenia.

Wymagania wstępne

Aby skonfigurować wysoką dostępność przy użyciu klastrowania SUSE, należy:

  • Aprowizuj duże wystąpienia platformy HANA.
  • Zainstaluj i zarejestruj system operacyjny przy użyciu najnowszych poprawek.
  • Połącz serwery dużych wystąpień HANA z serwerem SMT, aby uzyskać poprawki i pakiety.
  • Skonfiguruj protokół czasu sieciowego (serwer czasu NTP).
  • Przeczytaj i zapoznaj się z najnowszą dokumentacją systemu SUSE dotyczącą konfiguracji wysokiej dostępności.

Szczegóły instalacji

W tym przewodniku jest używana następująca konfiguracja:

  • System operacyjny: SLES 12 SP1 dla systemu SAP
  • Duże wystąpienia platformy HANA: 2xS192 (cztery gniazda, 2 TB)
  • Wersja platformy HANA: HANA 2.0 SP1
  • Nazwy serwerów: sapprdhdb95 (node1) i sapprdhdb96 (node2)
  • Urządzenie ogrodzenia: oparte na protokole iSCSI
  • NTP w jednym z węzłów dużego wystąpienia HANA

Podczas konfigurowania dużych wystąpień HANA za pomocą replikacji systemu HANA można zażądać, aby zespół zarządzania usługami firmy Microsoft skonfigurował urządzenie ogrodzenia. Zrób to w momencie aprowizacji.

Jeśli jesteś istniejącym klientem z już aprowizowaną usługą HANA Large Instances, nadal możesz skonfigurować urządzenie ogrodzenia. Podaj następujące informacje zespołowi zarządzania usługami firmy Microsoft w formularzu żądania obsługi (SRF). SRF można uzyskać za pośrednictwem Menedżera konta technicznego lub kontaktu firmy Microsoft dotyczącego dołączania dużych wystąpień HANA.

  • Nazwa serwera i adres IP serwera (na przykład myhanaserver1 i 10.35.0.1)
  • Lokalizacja (na przykład Wschodnie stany USA)
  • Nazwa klienta (na przykład Microsoft)
  • Identyfikator systemu HANA (SID) (na przykład H11)

Po skonfigurowaniu urządzenia ogrodzenia zespół zarządzania usługami firmy Microsoft udostępni nazwę SBD i adres IP magazynu iSCSI. Te informacje służą do konfigurowania konfiguracji ogrodzenia.

Wykonaj kroki opisane w poniższych sekcjach, aby skonfigurować wysoką dostępność przy użyciu urządzenia ogrodzenia.

Identyfikowanie urządzenia SBD

Uwaga

Ta sekcja dotyczy tylko istniejących klientów. Jeśli jesteś nowym klientem, zespół zarządzania usługami firmy Microsoft nada nazwę urządzenia SBD, więc pomiń tę sekcję.

  1. Zmodyfikuj parametr /etc/iscsi/initiatorname.isci , aby:

    iqn.1996-04.de.suse:01:<Tenant><Location><SID><NodeNumber> 
    

    Usługa Microsoft Service Management udostępnia ten ciąg. Zmodyfikuj plik w obu węzłach. Jednak numer węzła jest inny w każdym węźle.

    Zrzut ekranu przedstawiający plik initiatorname z wartościami InitiatorName dla węzła.

  2. Zmodyfikuj plik /etc/iscsid.conf , ustawiając i node.session.timeo.replacement_timeout=5node.startup = automatic. Zmodyfikuj plik w obu węzłach.

  3. Uruchom następujące polecenie odnajdywania w obu węzłach.

    iscsiadm -m discovery -t st -p <IP address provided by Service Management>:3260
    

    Wyniki pokazują cztery sesje.

    Zrzut ekranu przedstawiający okno konsoli z wynikami polecenia odnajdywania.

  4. Uruchom następujące polecenie w obu węzłach, aby zalogować się do urządzenia iSCSI.

    iscsiadm -m node -l
    

    Wyniki pokazują cztery sesje.

    Zrzut ekranu przedstawiający okno konsoli z wynikami polecenia node.

  5. Użyj następującego polecenia, aby uruchomić skrypt ponownego skanowania rescan-scsi-bus.sh . Ten skrypt przedstawia utworzone nowe dyski. Uruchom go w obu węzłach.

    rescan-scsi-bus.sh
    

    Wyniki powinny zawierać numer LUN większy niż zero (na przykład: 1, 2 itd.).

    Zrzut ekranu przedstawiający okno konsoli z wynikami skryptu.

  6. Aby uzyskać nazwę urządzenia, uruchom następujące polecenie w obu węzłach.

      fdisk –l
    

    W wynikach wybierz urządzenie o rozmiarze 178 MiB.

    Zrzut ekranu przedstawiający okno konsoli z wynikami polecenia f disk.

Inicjowanie urządzenia SBD

  1. Użyj następującego polecenia, aby zainicjować urządzenie SBD w obu węzłach.

    sbd -d <SBD Device Name> create
    

    Zrzut ekranu przedstawiający okno konsoli z wynikiem polecenia s b d create.

  2. Użyj następującego polecenia w obu węzłach, aby sprawdzić, co zostało zapisane na urządzeniu.

    sbd -d <SBD Device Name> dump
    

Konfigurowanie klastra SUSE HA

  1. Użyj następującego polecenia, aby sprawdzić, czy wzorce ha_sles i SAPHanaSR-doc są zainstalowane w obu węzłach. Jeśli nie są zainstalowane, zainstaluj je.

    zypper in -t pattern ha_sles
    zypper in SAPHanaSR SAPHanaSR-doc
    

    Zrzut ekranu przedstawiający okno konsoli z wynikiem polecenia wzorca.

    Zrzut ekranu przedstawiający okno konsoli z wynikiem polecenia SAPHanaSR-doc.

  2. Skonfiguruj klaster przy użyciu ha-cluster-init polecenia lub kreatora yast2. W tym przykładzie używamy kreatora yast2. Wykonaj ten krok tylko w węźle podstawowym.

    1. Przejdź doklastrao wysokiej dostępności>yast2>.

      Zrzut ekranu przedstawiający centrum sterowania YaST z wybraną wysoką dostępnością i klastrem.

    2. W wyświetlonym oknie dialogowym dotyczącym instalacji pakietu hawk wybierz pozycję Anuluj , ponieważ pakiet halk2 jest już zainstalowany.

      Zrzut ekranu przedstawiający okno dialogowe z opcjami Zainstaluj i Anuluj.

    3. W wyświetlonym oknie dialogowym dotyczącym kontynuowania wybierz pozycję Kontynuuj.

      Zrzut ekranu przedstawiający komunikat o kontynuowaniu bez instalowania wymaganych pakietów.

    4. Oczekiwana wartość to liczba wdrożonych węzłów (w tym przypadku 2). Wybierz opcję Dalej.

    5. Dodaj nazwy węzłów, a następnie wybierz pozycję Dodaj sugerowane pliki.

      Zrzut ekranu przedstawiający okno Konfigurowanie klastra z listami Host synchronizacji i Plik synchronizacji.

    6. Wybierz pozycję Włącz csync2.

    7. Wybierz pozycję Generuj klucze wstępne.

    8. W wyświetlonym oknie podręcznym wybierz przycisk OK.

      Zrzut ekranu przedstawiający komunikat o wygenerowaniu klucza.

    9. Uwierzytelnianie jest wykonywane przy użyciu adresów IP i kluczy wstępnych w Csync2. Plik klucza jest generowany za pomocą csync2 -k /etc/csync2/key_hagrouppolecenia .

      Ręcznie skopiuj plik key_hagroup do wszystkich członków klastra po jego utworzeniu. Pamiętaj, aby skopiować plik z węzła node1 do node2. Następnie wybierz przycisk Dalej.

      Zrzut ekranu przedstawiający okno dialogowe Konfigurowanie klastra z opcjami niezbędnymi do skopiowania klucza do wszystkich elementów członkowskich klastra.

    10. W opcji domyślnej rozruch był wyłączony. Zmień ją na ., aby usługa pacemaker została uruchomiona podczas rozruchu. Możesz dokonać wyboru na podstawie wymagań dotyczących konfiguracji.

      Zrzut ekranu przedstawiający okno Usługa klastra z włączonym rozruchem.

    11. Wybierz pozycję Dalej, a konfiguracja klastra została ukończona.

Konfigurowanie softdog watchdog

  1. Dodaj następujący wiersz do /etc/init.d/boot.local w obu węzłach.

    modprobe softdog
    

    Zrzut ekranu przedstawiający plik rozruchowy z dodanym wierszem softdog.

  2. Użyj następującego polecenia, aby zaktualizować plik /etc/sysconfig/sbd w obu węzłach.

    SBD_DEVICE="<SBD Device Name>"
    

    Zrzut ekranu przedstawiający plik s b d z dodanymi wartościami S B D_DEVICE.

  3. Załaduj moduł jądra w obu węzłach, uruchamiając następujące polecenie.

    modprobe softdog
    

    Zrzut ekranu przedstawiający część okna konsoli z poleceniem modprobe softdog.

  4. Użyj następującego polecenia, aby upewnić się, że program softdog jest uruchomiony w obu węzłach.

    lsmod | grep dog
    

    Zrzut ekranu przedstawiający część okna konsoli z wynikiem uruchomienia polecenia l s mod.

  5. Użyj następującego polecenia, aby uruchomić urządzenie SBD w obu węzłach.

    /usr/share/sbd/sbd.sh start
    

    Zrzut ekranu przedstawiający część okna konsoli z poleceniem uruchamiania.

  6. Użyj następującego polecenia, aby przetestować demona SBD w obu węzłach.

    sbd -d <SBD Device Name> list
    

    Wyniki pokazują dwa wpisy po konfiguracji w obu węzłach.

    Zrzut ekranu przedstawiający część okna konsoli z dwoma wpisami.

  7. Wyślij następujący komunikat testowy do jednego z węzłów.

    sbd  -d <SBD Device Name> message <node2> <message>
    
  8. W drugim węźle (node2) użyj następującego polecenia, aby sprawdzić stan komunikatu.

    sbd  -d <SBD Device Name> list
    

    Zrzut ekranu przedstawiający część okna konsoli z jednym z elementów członkowskich wyświetlających wartość testową dla innego elementu członkowskiego.

  9. Aby zastosować konfigurację usługi SBD, zaktualizuj plik /etc/sysconfig/sbd w następujący sposób w obu węzłach.

    SBD_DEVICE=" <SBD Device Name>" 
    SBD_WATCHDOG="yes" 
    SBD_PACEMAKER="yes" 
    SBD_STARTMODE="clean" 
    SBD_OPTS=""
    
  10. Użyj następującego polecenia, aby uruchomić usługę pacemaker w węźle podstawowym (node1 ).

    systemctl start pacemaker
    

    Zrzut ekranu przedstawiający okno konsoli z wyświetlonym stanem po uruchomieniu rozrusznika.

    Jeśli usługa pacemaker zakończy się niepowodzeniem, zobacz sekcję Scenariusz 5: Usługa Pacemaker kończy się niepowodzeniem w dalszej części tego artykułu.

Dołączanie węzła do klastra

Uruchom następujące polecenie w węźle Node2 , aby umożliwić dołączenie tego węzła do klastra.

ha-cluster-join

Jeśli podczas dołączania do klastra wystąpi błąd, zobacz sekcję Scenariusz 6: Węzeł2 nie może dołączyć do klastra w dalszej części tego artykułu.

Weryfikowanie klastra

  1. Użyj następujących poleceń, aby sprawdzić i opcjonalnie uruchomić klaster po raz pierwszy w obu węzłach.

    systemctl status pacemaker
    systemctl start pacemaker
    

    Zrzut ekranu przedstawiający okno konsoli ze stanem pacemaker.

  2. Uruchom następujące polecenie, aby upewnić się, że oba węzły są w trybie online. Można go uruchomić w dowolnym z węzłów klastra.

    crm_mon
    

    Zrzut ekranu przedstawiający okno konsoli z wynikami polecenia c r m_mon.

    Możesz również zalogować się do usługi hawk, aby sprawdzić stan klastra: https://\<node IP>:7630. Domyślny użytkownik to hacluster, a hasło to linux. W razie potrzeby możesz zmienić hasło przy użyciu passwd polecenia .

Konfigurowanie właściwości i zasobów klastra

W tej sekcji opisano kroki konfigurowania zasobów klastra. W tym przykładzie skonfigurujesz następujące zasoby. Resztę (w razie potrzeby) można skonfigurować, odwołując się do przewodnika SUSE HA.

  • Uruchamianie klastra
  • Urządzenie ogrodzeniowe
  • Wirtualny adres IP

Wykonaj konfigurację tylko w węźle podstawowym .

  1. Utwórz plik bootstrap klastra i skonfiguruj go, dodając następujący tekst.

    sapprdhdb95:~ # vi crm-bs.txt
    # enter the following to crm-bs.txt
    property $id="cib-bootstrap-options" \
    no-quorum-policy="ignore" \
    stonith-enabled="true" \
    stonith-action="reboot" \
    stonith-timeout="150s"
    rsc_defaults $id="rsc-options" \
    resource-stickiness="1000" \
    migration-threshold="5000"
    op_defaults $id="op-options" \
    timeout="600"
    
  2. Użyj następującego polecenia, aby dodać konfigurację do klastra.

    crm configure load update crm-bs.txt
    

    Zrzut ekranu przedstawiający część okna konsoli z uruchomionym poleceniem c r m.

  3. Skonfiguruj urządzenie ogrodzenia, dodając zasób, tworząc plik i dodając tekst w następujący sposób.

    # vi crm-sbd.txt
    # enter the following to crm-sbd.txt
    primitive stonith-sbd stonith:external/sbd \
    params pcmk_delay_max="15"
    

    Użyj następującego polecenia, aby dodać konfigurację do klastra.

    crm configure load update crm-sbd.txt
    
  4. Dodaj wirtualny adres IP zasobu, tworząc plik i dodając następujący tekst.

    # vi crm-vip.txt
    primitive rsc_ip_HA1_HDB10 ocf:heartbeat:IPaddr2 \
    operations $id="rsc_ip_HA1_HDB10-operations" \
    op monitor interval="10s" timeout="20s" \
    params ip="10.35.0.197"
    

    Użyj następującego polecenia, aby dodać konfigurację do klastra.

    crm configure load update crm-vip.txt
    
  5. Użyj polecenia , crm_mon aby zweryfikować zasoby.

    Wyniki pokazują dwa zasoby.

    Zrzut ekranu przedstawiający okno konsoli z dwoma zasobami.

    Stan można również sprawdzić pod adresem> IP https://< node:7630/cib/live/state.

    Zrzut ekranu przedstawiający stan dwóch zasobów.

Testowanie procesu pracy w trybie failover

  1. Aby przetestować proces pracy w trybie failover, użyj następującego polecenia, aby zatrzymać usługę pacemaker w węźle Node1.

    Service pacemaker stop
    

    Zasoby przełączą się w tryb failover do węzła2.

  2. Zatrzymaj usługę pacemaker w węźle Node2 i przełącz zasoby w tryb failover do węzła1.

    Oto stan przed przejściem w tryb failover:
    Zrzut ekranu przedstawiający stan dwóch zasobów przed przejściem w tryb failover.

    Oto stan po przejściu w tryb failover:
    Zrzut ekranu przedstawiający stan dwóch zasobów po przejściu w tryb failover.

    Zrzut ekranu przedstawiający okno konsoli ze stanem zasobów po przejściu w tryb failover.

Rozwiązywanie problemów

W tej sekcji opisano scenariusze błędów, które mogą wystąpić podczas instalacji.

Scenariusz 1. Węzeł klastra nie jest w trybie online

Jeśli którykolwiek z węzłów nie jest wyświetlany w trybie online w Menedżerze klastra, możesz wypróbować tę procedurę, aby przenieść ją do trybu online.

  1. Użyj następującego polecenia, aby uruchomić usługę iSCSI.

    service iscsid start
    
  2. Użyj następującego polecenia, aby zalogować się do tego węzła iSCSI.

    iscsiadm -m node -l
    

    Oczekiwane dane wyjściowe wyglądają następująco:

    sapprdhdb45:~ # iscsiadm -m node -l
    Logging in to [iface: default, target: iqn.1992-08.com.netapp:hanadc11:1:t020, portal: 10.250.22.11,3260] (multiple)
    Logging in to [iface: default, target: iqn.1992-08.com.netapp:hanadc11:1:t020, portal: 10.250.22.12,3260] (multiple)
    Logging in to [iface: default, target: iqn.1992-08.com.netapp:hanadc11:1:t020, portal: 10.250.22.22,3260] (multiple)
    Logging in to [iface: default, target: iqn.1992-08.com.netapp:hanadc11:1:t020, portal: 10.250.22.21,3260] (multiple)
    Login to [iface: default, target: iqn.1992-08.com.netapp:hanadc11:1:t020, portal: 10.250.22.11,3260] successful.
    Login to [iface: default, target: iqn.1992-08.com.netapp:hanadc11:1:t020, portal: 10.250.22.12,3260] successful.
    Login to [iface: default, target: iqn.1992-08.com.netapp:hanadc11:1:t020, portal: 10.250.22.22,3260] successful.
    Login to [iface: default, target: iqn.1992-08.com.netapp:hanadc11:1:t020, portal: 10.250.22.21,3260] successful.
    

Scenariusz 2: Yast2 nie wyświetla widoku graficznego

Ekran graficzny yast2 służy do konfigurowania klastra o wysokiej dostępności w tym artykule. Jeśli plik yast2 nie jest otwarty przy użyciu okna graficznego, jak pokazano, i zgłasza błąd Qt, wykonaj następujące kroki, aby zainstalować wymagane pakiety. Jeśli zostanie otwarte okno graficzne, możesz pominąć kroki.

Oto przykład błędu Qt:

Zrzut ekranu przedstawiający część okna konsoli z komunikatem o błędzie.

Oto przykład oczekiwanych danych wyjściowych:

Zrzut ekranu przedstawiający centrum kontroli YaST z wyróżnioną wysoką dostępnością i klastrem.

  1. Upewnij się, że zalogowano się jako użytkownik "root" i skonfigurowano protokół SMT do pobierania i instalowania pakietów.

  2. Przejdź do obszaruZależnościzarządzania>oprogramowaniemyast>, > a następnie wybierz pozycję Zainstaluj zalecane pakiety.

    Uwaga

    Wykonaj kroki w obu węzłach, aby uzyskać dostęp do widoku graficznego yast2 z obu węzłów.

    Poniższy zrzut ekranu przedstawia oczekiwany ekran.

    Zrzut ekranu przedstawiający okno konsoli z centrum sterowania YaST.

  3. W obszarze Zależności wybierz pozycję Zainstaluj zalecane pakiety.

    Zrzut ekranu przedstawiający okno konsoli z wybraną pozycją Zainstaluj zalecane pakiety.

  4. Przejrzyj zmiany i wybierz przycisk OK.

    Zrzut ekranu przedstawiający okno konsoli z listą pakietów wybranych do instalacji.

    Instalacja pakietu jest kontynuowana.

    Zrzut ekranu przedstawiający okno konsoli z postępem instalacji.

  5. Wybierz opcję Dalej.

  6. Po wyświetleniu ekranu Instalacja zakończona pomyślnie wybierz pozycję Zakończ.

    Zrzut ekranu przedstawiający okno konsoli z komunikatem o powodzeniu.

  7. Użyj następujących poleceń, aby zainstalować pakiety libqt4 i libyui-qt.

    zypper -n install libqt4
    

    Zrzut ekranu przedstawiający okno konsoli, w którym zainstalowano pierwszy pakiet.

    zypper -n install libyui-qt
    

    Zrzut ekranu przedstawiający okno konsoli, w którym zainstalowano drugi pakiet.

    Zrzut ekranu przedstawiający okno konsoli, w którym zainstalowano drugi pakiet.

    Yast2 może teraz otworzyć widok graficzny.

    Zrzut ekranu przedstawiający centrum kontroli YaST z wybraną pozycją Software (Oprogramowanie) i Online Update (Aktualizacja online).

Scenariusz 3: Yast2 nie pokazuje opcji wysokiej dostępności

Aby opcja wysokiej dostępności był widoczna w centrum sterowania yast2, należy zainstalować inne pakiety.

  1. Przejdź do pozycji Yast2Software Management (Zarządzanie oprogramowaniem>Yast2>). Następnie wybierz pozycjęAktualizacja onlineoprogramowania>.

    Zrzut ekranu przedstawiający centrum sterowania YaST z wybranym oprogramowaniem i aktualizacją online.

  2. Wybierz wzorce dla następujących elementów. Następnie wybierz pozycję Akceptuj.

    • Baza serwerów SAP HANA
    • Kompilator i narzędzia języka C/C++
    • Wysoka dostępność
    • Baza serwera aplikacji SAP

    Zrzut ekranu przedstawiający wybieranie pierwszego wzorca w elemencie dla kompilatora i narzędzi.

    Zrzut ekranu przedstawiający wybieranie drugiego wzorca w elemencie dla kompilatora i narzędzi.

  3. Na liście pakietów, które zostały zmienione w celu rozwiązania zależności, wybierz pozycję Kontynuuj.

    Zrzut ekranu przedstawiający okno dialogowe Zmieniono pakiety z pakietami zmienionymi w celu rozwiązania zależności.

  4. Na stronie Stan instalacji wykonującej wybierz przycisk Dalej.

    Zrzut ekranu przedstawiający stronę Stan instalacji wykonującej.

  5. Po zakończeniu instalacji zostanie wyświetlony raport instalacji. Wybierz pozycję Zakończ.

    Zrzut ekranu przedstawiający raport instalacji.

Scenariusz 4. Instalacja platformy HANA kończy się niepowodzeniem z powodu błędu zestawów gcc

Jeśli instalacja platformy HANA nie powiedzie się, może zostać wyświetlony następujący błąd.

Zrzut ekranu przedstawiający komunikat o błędzie informujący, że system operacyjny nie jest gotowy do wykonania zestawów g c c 5.

Aby rozwiązać ten problem, zainstaluj biblioteki libgcc_sl i libstdc++6, jak pokazano na poniższym zrzucie ekranu.

Zrzut ekranu przedstawiający okno konsoli z zainstalowanymi wymaganymi bibliotekami.

Scenariusz 5. Niepowodzenie usługi Pacemaker

Poniższe informacje są wyświetlane, jeśli usługa pacemaker nie może się uruchomić.

sapprdhdb95:/ # systemctl start pacemaker
A dependency job for pacemaker.service failed. See 'journalctl -xn' for details.
sapprdhdb95:/ # journalctl -xn
-- Logs begin at Thu 2017-09-28 09:28:14 EDT, end at Thu 2017-09-28 21:48:27 EDT. --
Sep 28 21:48:27 sapprdhdb95 corosync[68812]: [SERV  ] Service engine unloaded: corosync configuration map
Sep 28 21:48:27 sapprdhdb95 corosync[68812]: [QB    ] withdrawing server sockets
Sep 28 21:48:27 sapprdhdb95 corosync[68812]: [SERV  ] Service engine unloaded: corosync configuration ser
Sep 28 21:48:27 sapprdhdb95 corosync[68812]: [QB    ] withdrawing server sockets
Sep 28 21:48:27 sapprdhdb95 corosync[68812]: [SERV  ] Service engine unloaded: corosync cluster closed pr
Sep 28 21:48:27 sapprdhdb95 corosync[68812]: [QB    ] withdrawing server sockets
Sep 28 21:48:27 sapprdhdb95 corosync[68812]: [SERV  ] Service engine unloaded: corosync cluster quorum se
Sep 28 21:48:27 sapprdhdb95 corosync[68812]: [SERV  ] Service engine unloaded: corosync profile loading s
Sep 28 21:48:27 sapprdhdb95 corosync[68812]: [MAIN  ] Corosync Cluster Engine exiting normally
Sep 28 21:48:27 sapprdhdb95 systemd[1]: Dependency failed for Pacemaker High Availability Cluster Manager
-- Subject: Unit pacemaker.service has failed
-- Defined-By: systemd
-- Support: https://lists.freedesktop.org/mailman/listinfo/systemd-devel
--
-- Unit pacemaker.service has failed.
--
-- The result is dependency.
sapprdhdb95:/ # tail -f /var/log/messages
2017-09-28T18:44:29.675814-04:00 sapprdhdb95 corosync[57600]:   [QB    ] withdrawing server sockets
2017-09-28T18:44:29.676023-04:00 sapprdhdb95 corosync[57600]:   [SERV  ] Service engine unloaded: corosync cluster closed process group service v1.01
2017-09-28T18:44:29.725885-04:00 sapprdhdb95 corosync[57600]:   [QB    ] withdrawing server sockets
2017-09-28T18:44:29.726069-04:00 sapprdhdb95 corosync[57600]:   [SERV  ] Service engine unloaded: corosync cluster quorum service v0.1
2017-09-28T18:44:29.726164-04:00 sapprdhdb95 corosync[57600]:   [SERV  ] Service engine unloaded: corosync profile loading service
2017-09-28T18:44:29.776349-04:00 sapprdhdb95 corosync[57600]:   [MAIN  ] Corosync Cluster Engine exiting normally
2017-09-28T18:44:29.778177-04:00 sapprdhdb95 systemd[1]: Dependency failed for Pacemaker High Availability Cluster Manager.
2017-09-28T18:44:40.141030-04:00 sapprdhdb95 systemd[1]: [/usr/lib/systemd/system/fstrim.timer:8] Unknown lvalue 'Persistent' in section 'Timer'
2017-09-28T18:45:01.275038-04:00 sapprdhdb95 cron[57995]: pam_unix(crond:session): session opened for user root by (uid=0)
2017-09-28T18:45:01.308066-04:00 sapprdhdb95 CRON[57995]: pam_unix(crond:session): session closed for user root

Aby rozwiązać ten problem, usuń następujący wiersz z pliku /usr/lib/systemd/system/fstrim.timer:

Persistent=true

Zrzut ekranu przedstawiający plik przycinania f s z wartością Persistent=true do usunięcia.

Scenariusz 6. Węzeł Node2 nie może dołączyć do klastra

Poniższy błąd pojawia się, jeśli wystąpił problem z dołączeniem węzła2 do istniejącego klastra za pomocą polecenia ha-cluster-join .

ERROR: Can’t retrieve SSH keys from <Primary Node>

Zrzut ekranu przedstawiający okno konsoli z komunikatem o błędzie informującym, że nie można pobrać kluczy S H z określonego adresu I P.

Aby rozwiązać ten problem:

  1. Uruchom następujące polecenia w obu węzłach.

    ssh-keygen -q -f /root/.ssh/id_rsa -C 'Cluster Internal' -N ''
    cat /root/.ssh/id_rsa.pub >> /root/.ssh/authorized_keys
    

    Zrzut ekranu przedstawiający część okna konsoli z uruchomionym poleceniem w pierwszym węźle.

    Zrzut ekranu przedstawiający część okna konsoli, w którym uruchomiono polecenie w drugim węźle.

  2. Upewnij się, że węzeł Node2 został dodany do klastra.

    Zrzut ekranu przedstawiający okno konsoli z pomyślnym poleceniem sprzężenia.

Następne kroki

Więcej informacji na temat konfigurowania systemu SUSE HA można znaleźć w następujących artykułach: