Бөлісу құралы:


Настройка высокого уровня доступности в SUSE с помощью устройства ограничения

В этой статье мы рассмотрим шаги по настройке высокого уровня доступности (HA) в крупных экземплярах HANA в операционной системе SUSE с помощью устройства ограничения.

Примечание

Это руководство составлено по итогам успешной проверки настройки в среде крупных экземпляров Microsoft HANA. Команда управления службами Майкрософт для крупных экземпляров HANA не занимается поддержкой операционной системы. Для устранения неполадок и уточнений на уровне операционной системы обратитесь в SUSE.

Команда управления службами Майкрософт настраивает и полностью поддерживает устройство ограничения. Она также помогает в устранении неполадок с устройством ограничения.

Предварительные требования

Чтобы настроить высокий уровень доступности с помощью кластеризации SUSE, вам потребуется следующее.

  • Подготовленные крупные экземпляры HANA.
  • Установите и зарегистрируйте операционную систему с последними исправлениями.
  • Подключите серверы крупных экземпляров HANA к серверу SMT для получения исправлений и пакетов.
  • Настроенный сервер времени NTP.
  • Вы ознакомились с последней версией документации SUSE по настройке HA.

Сведения о настройке

В этом руководстве используется следующая конфигурация:

  • операционная система: SLES 12 с пакетом обновления 1 (SP1) для SAP;
  • крупные экземпляры HANA: 2xS192 (4 сокета, 2 ТБ);
  • версия HANA: HANA 2.0 с пакетом обновления 1 (SP1);
  • имена серверов: sapprdhdb95 (node1) и sapprdhdb96 (node2);
  • устройство ограничения: на основе iSCSI;
  • NTP на одном из узлов крупных экземпляров HANA.

При настройке крупных экземпляров HANA с репликацией системы HANA вы можете попросить команду управления службами Майкрософт настроить для вас устройство ограничения. Сделайте это на этапе подготовке к работе.

Если вы уже являетесь нашим клиентом и используете подготовленные крупные экземпляры HANA, это не помешает нам настроить для вас устройство ограничения. Предоставьте в запросе на обслуживание приведенные ниже сведения для команды управления службами Майкрософт. Форму запроса на обслуживание (SRF) можно получить у менеджера по технической поддержке или представителя Майкрософт по подключению крупных экземпляров HANA.

  • Имя и IP-адрес сервера (например, myhanaserver1 и 10.35.0.1).
  • Расположение (например, восточная часть США).
  • Имя клиента (например, корпорация Майкрософт).
  • Идентификатор системы HANA (SID) (например, H11).

После настройки устройства ограничения команда управления службами Майкрософт предоставит вам имя SBD и IP-адрес хранилища iSCSI. Эти сведения можно использовать для настройки ограничения.

Выполните действия, описанные в следующих разделах, чтобы настроить высокий уровень доступности с помощью устройства ограничения.

Идентификация устройства SBD

Примечание

Этот раздел относится только к существующим клиентам. Если вы наш новый клиент, команда управления службами Майкрософт предоставит вам имя устройства SBD, так что просто пропустите этот раздел.

  1. Измените /etc/iscsi/initiatorname.isci на:

    iqn.1996-04.de.suse:01:<Tenant><Location><SID><NodeNumber> 
    

    Специалисты по управлению службами Майкрософт предоставят эту строку. Измените файл на обоих узлах. Но номера узлов на них будут отличаться.

    Снимок экрана: файл initiatorname со значениями InitiatorName для узла.

  2. Измените /etc/iscsi/iscsid.conf, задав node.session.timeo.replacement_timeout=5 и node.startup = automatic. Измените файл на обоих узлах.

  3. Выполните следующую команду обнаружения на обоих узлах.

    iscsiadm -m discovery -t st -p <IP address provided by Service Management>:3260
    

    В результатах отображаются четыре сеанса.

    Снимок экрана: окно консоли с результатами команды discovery.

  4. Выполните следующую команду на обоих узлах, чтобы войти на устройство iSCSI.

    iscsiadm -m node -l
    

    В результатах отображаются четыре сеанса.

    Снимок экрана: окно консоли с результатами команды node.

  5. Используйте следующую команду, чтобы запустить сценарий повторного сканирования rescan-scsi-bus.sh. Отобразятся созданные диски. Выполните ее на обоих узлах.

    rescan-scsi-bus.sh
    

    Результат должен содержать номер LUN, который должен быть больше нуля (например, 1, 2 и т. д.).

    Снимок экрана: окно консоли с результатами скрипта.

  6. Чтобы получить имя устройства, выполните следующую команду на обоих узлах.

      fdisk –l
    

    В результатах выберите устройство размером 178 МиБ.

    Снимок экрана: окно консоли с результатами команды fdisk.

Инициализация устройства SBD

  1. Используйте следующую команду, чтобы инициализировать устройство SBD на обоих узлах.

    sbd -d <SBD Device Name> create
    

    Снимок экрана: окно консоли с результатом выполнения команды sbd create.

  2. Используйте следующую команду на обоих узлах, чтобы проверить, что было записано на устройство.

    sbd -d <SBD Device Name> dump
    

Настройка кластера SUSE с высоким уровнем доступности

  1. Используйте следующую команду, чтобы проверить, установлены ли шаблоны ha_sles и SAPHanaSR-doc на обоих узлах. Если они не установлены, установите их.

    zypper in -t pattern ha_sles
    zypper in SAPHanaSR SAPHanaSR-doc
    

    Снимок экрана: окно консоли с результатом выполнения команды pattern.

    Снимок экрана: окно консоли с результатом выполнения команды SAPHanaSR-doc.

  2. Настройте кластер с помощью команды ha-cluster-init или мастера YaST2. В этом примере мы используем мастер YaST2. Это действие выполняется только на первичном узле.

    1. Go to YaST2>High Availability>Cluster (YaST2 > Высокая доступность > Кластер).

      Снимок экрана: окно YaST Control Center с выделенными элементами High Availability (Высокий уровень доступности) и Cluster (Кластер).

    2. В появившемся диалоговом окне об установке пакета hawk нажмите кнопку Cancel (Отмена), так как пакет halk2 уже установлен.

      Снимок экрана: диалоговое окно с действиями Install (Установить) и Cancel (Отмена).

    3. В появившемся диалоговом окне нажмите кнопку Continue (Продолжить).

      Снимок экрана: сообщение о продолжении без установки необходимых пакетов.

    4. Ожидаемое значение — число развернутых узлов (в нашем примере это 2). Выберите Далее.

    5. Добавьте имена узлов, а затем выберите команду Add suggested files (Добавить рекомендуемые файлы).

      Снимок экрана: окно настройки кластера со списками синхронизации узлов и синхронизации файлов.

    6. Выберите элемент Turn csync2 ON (Включить csync2).

    7. Нажмите Generate Pre-Shared-Keys (Сгенерировать общий ключ).

    8. Во всплывающем сообщении нажмите кнопку ОК.

      Снимок экрана: сообщение о том, что ключ создан.

    9. Аутентификация выполняется с помощью IP-адресов и общих ключей в Csync2. Файл ключа создается с помощью csync2 -k /etc/csync2/key_hagroup.

      После создания файла key_hagroup вручную скопируйте его во все элементы кластера. Убедитесь, что файл скопирован с узла 1 на узел 2. Выберите Далее.

      Снимок экрана: диалоговое окно настройки кластера с параметрами, необходимыми для копирования ключа во все члены кластера.

    10. По умолчанию параметр Booting (Загрузка) имеет значение Off (Отключено). Измените значение на On (Включено), чтобы служба pacemaker запускалась при загрузке. Выбор можно сделать на основе требований к установке.

      Снимок экрана: окно службы кластеров с включенной загрузкой.

    11. Щелкните Next (Далее), чтобы завершить настройку кластера.

Настройка службы наблюдения softdog

  1. Добавьте следующую строку в /etc/init.d/boot.local на обоих узлах.

    modprobe softdog
    

    Снимок экрана: файл загрузки с добавленной строкой softdog.

  2. Используйте следующую команду, чтобы обновить файл /etc/sysconfig/sbd на обоих узлах.

    SBD_DEVICE="<SBD Device Name>"
    

    Снимок экрана: файл sbd с добавленным значением SBD_DEVICE.

  3. Загрузите модуль ядра на обоих узлах, выполнив следующую команду.

    modprobe softdog
    

    Снимок экрана: часть окна консоли с командой modprobe softdog.

  4. Используйте следующую команду, чтобы убедиться, что softdog работает на обоих узлах.

    lsmod | grep dog
    

    Снимок экрана: часть окна консоли с результатом выполнения команды lsmod.

  5. Используйте следующую команду, чтобы запустить устройство SBD на обоих узлах.

    /usr/share/sbd/sbd.sh start
    

    Снимок экрана: часть окна консоли с командой start.

  6. Используйте следующую команду, чтобы протестировать управляющую программу SBD на обоих узлах.

    sbd -d <SBD Device Name> list
    

    В результатах отобразятся две записи после настройки на обоих узлах.

    Снимок экрана: часть окна консоли с двумя записями.

  7. Отправьте следующее тестовое сообщение на один из ваших узлов.

    sbd  -d <SBD Device Name> message <node2> <message>
    
  8. На втором узле (node2) используйте следующую команду, чтобы проверить состояние сообщения.

    sbd  -d <SBD Device Name> list
    

    Снимок экрана: часть окна консоли, один из элементов отображает тестовое значение для другого элемента.

  9. Чтобы принять конфигурацию SBD, обновите файл /etc/sysconfig/sbd следующим образом на обоих узлах.

    SBD_DEVICE=" <SBD Device Name>" 
    SBD_WATCHDOG="yes" 
    SBD_PACEMAKER="yes" 
    SBD_STARTMODE="clean" 
    SBD_OPTS=""
    
  10. Используйте следующую команду, чтобы запустить службу pacemaker на основном узле (node1).

    systemctl start pacemaker
    

    Снимок экрана: окно консоли с состоянием после запуска службы Pacemaker.

    В случае сбоя службы pacemaker см. раздел Сценарий 5. Сбой службы pacemaker далее в этой статье.

Соедините узел с кластером.

Выполните следующую команду на node2, чтобы узел мог соединиться с кластером.

ha-cluster-join

Если при присоединении кластера появляется сообщение об ошибке, см. раздел Сценарий 6. node2 не может присоединиться к кластеру далее в этой статье.

Проверка кластера

  1. Чтобы проверить и при необходимости запустить кластер в первый раз на обоих узлах, используйте следующие команды.

    systemctl status pacemaker
    systemctl start pacemaker
    

    Снимок экрана: окно консоли с состоянием службы Pacemaker.

  2. Выполните следующую команду, чтобы убедиться, что оба узла находятся в сети. Ее можно выполнить на любом узле кластера.

    crm_mon
    

    Снимок экрана: окно консоли с результатами команды crm_mon.

    Кроме того, для проверки состояния кластера можно войти в hawk: https://\<node IP>:7630. Пользователь по умолчанию — hacluster, пароль — linux. При необходимости можно изменить пароль с помощью команды passwd.

Настройка свойств и ресурсов кластера

В этом разделе описаны действия по настройке кластерных ресурсов. В этом примере вы настроите следующие ресурсы. При необходимости информацию о настройке остальных ресурсов можно найти в руководстве по настройке высокого уровня доступности в SUSE.

  • Начальная загрузка кластера
  • Устройство ограничения
  • Виртуальный IP-адрес

Выполните настройку только на основном узле.

  1. Создайте файл начальной загрузки кластера и настройте его, добавив следующий текст.

    sapprdhdb95:~ # vi crm-bs.txt
    # enter the following to crm-bs.txt
    property $id="cib-bootstrap-options" \
    no-quorum-policy="ignore" \
    stonith-enabled="true" \
    stonith-action="reboot" \
    stonith-timeout="150s"
    rsc_defaults $id="rsc-options" \
    resource-stickiness="1000" \
    migration-threshold="5000"
    op_defaults $id="op-options" \
    timeout="600"
    
  2. Выполните следующую команду, чтобы добавить конфигурацию в кластер.

    crm configure load update crm-bs.txt
    

    Снимок экрана: часть окна консоли, выполняющей команду crm.

  3. Настройте устройство ограничения, добавив ресурс, создав файл и добавив текст, как показано ниже.

    # vi crm-sbd.txt
    # enter the following to crm-sbd.txt
    primitive stonith-sbd stonith:external/sbd \
    params pcmk_delay_max="15"
    

    Выполните следующую команду, чтобы добавить конфигурацию в кластер.

    crm configure load update crm-sbd.txt
    
  4. Добавьте виртуальный IP-адрес для ресурса, создав файл и добавив следующий текст.

    # vi crm-vip.txt
    primitive rsc_ip_HA1_HDB10 ocf:heartbeat:IPaddr2 \
    operations $id="rsc_ip_HA1_HDB10-operations" \
    op monitor interval="10s" timeout="20s" \
    params ip="10.35.0.197"
    

    Выполните следующую команду, чтобы добавить конфигурацию в кластер.

    crm configure load update crm-vip.txt
    
  5. Используйте команду crm_mon для проверки ресурсов.

    В результатах показаны два ресурса.

    Снимок экрана: окно консоли с двумя ресурсами.

    Состояние можно также проверить по адресу https://<IP-адрес узла>:7630/cib/live/state.

    Снимок экрана: состояние двух ресурсов.

Протестируйте процесс отработки отказа.

  1. Чтобы протестировать процесс отработки отказа, используйте следующую команду для завершения работы службы pacemaker на узле node1.

    Service pacemaker stop
    

    В результате отработки отказа ресурсы перейдут на узел node2.

  2. Остановите службу pacemaker на узле node2. После этого произойдет отработка отказа ресурсов на узел node1.

    Состояние до отработки отказа выглядит следующим образом:
    Снимок экрана: состояние двух ресурсов до отработки отказа.

    Состояние после отработки отказа выглядит следующим образом:
    Снимок экрана: состояние двух ресурсов после отработки отказа.

    Снимок экрана: окно консоли с состоянием ресурсов после отработки отказа.

Устранение неполадок

В этом разделе описываются сценарии сбоев, которые могут возникнуть во время установки.

Сценарий 1. Узел кластера не в сети

Если какой-либо из узлов отображается в диспетчере кластеров как находящийся не в сети, можно попробовать включить его с помощью приведенных ниже действий.

  1. Используйте следующую команду, чтобы запустить службу iSCSI.

    service iscsid start
    
  2. Используйте следующую команду, чтобы войти на этот узел iSCSI.

    iscsiadm -m node -l
    

    Ожидаемый результат выглядит примерно так:

    sapprdhdb45:~ # iscsiadm -m node -l
    Logging in to [iface: default, target: iqn.1992-08.com.netapp:hanadc11:1:t020, portal: 10.250.22.11,3260] (multiple)
    Logging in to [iface: default, target: iqn.1992-08.com.netapp:hanadc11:1:t020, portal: 10.250.22.12,3260] (multiple)
    Logging in to [iface: default, target: iqn.1992-08.com.netapp:hanadc11:1:t020, portal: 10.250.22.22,3260] (multiple)
    Logging in to [iface: default, target: iqn.1992-08.com.netapp:hanadc11:1:t020, portal: 10.250.22.21,3260] (multiple)
    Login to [iface: default, target: iqn.1992-08.com.netapp:hanadc11:1:t020, portal: 10.250.22.11,3260] successful.
    Login to [iface: default, target: iqn.1992-08.com.netapp:hanadc11:1:t020, portal: 10.250.22.12,3260] successful.
    Login to [iface: default, target: iqn.1992-08.com.netapp:hanadc11:1:t020, portal: 10.250.22.22,3260] successful.
    Login to [iface: default, target: iqn.1992-08.com.netapp:hanadc11:1:t020, portal: 10.250.22.21,3260] successful.
    

Сценарий 2. В YaST2 не отображается графическое представление

В этой статье для настройки высокодоступного кластера используется графический экран YaST2. Если YaST2 при открытии не отображает графический экран и возвращает ошибку Qt, выполните следующие действия, чтобы установить необходимые пакеты. Если он открывается с графическим окном, эти шаги можно пропустить.

Так выглядит пример ошибки Qt:

Снимок экрана: часть окна консоли с сообщением об ошибке.

Так выглядит ожидаемый вывод:

Снимок экрана: окно YaST Control Center с выделенными элементами High Availability (Высокий уровень доступности) и Cluster (Кластер).

  1. Необходимо войти в систему как пользователь root и настроить SMT для скачивания и установки пакетов.

  2. Перейдите в раздел YaST>Software>Software Management>Dependencies (YaST > Программы > Управление программами > Зависимости), а затем нажмите Install recommended packages (Установить рекомендуемые пакеты).

    Примечание

    Для получения доступа к графическому представлению YaST2 выполните указанные выше действия на обоих узлах.

    На следующем снимке экрана показано окно, которое должно появиться.

    Снимок экрана: окно консоли с YaST Control Center.

  3. В разделе Dependencies (Зависимости) выберите Install Recommended Packages (Установить рекомендуемые пакеты).

    Снимок экрана: окно консоли с выбранным вариантом Install Recommended Packages (Установить рекомендуемые пакеты).

  4. Проверьте изменения и щелкните ОК.

    Снимок экрана: окно консоли со списком пакетов, выбранных для установки.

    Установка пакета продолжится.

    Снимок экрана: окно консоли, в котором отображается ход установки.

  5. Выберите Далее.

  6. Когда появится экран Installation Successfully Finished (Установка успешно завершена), нажмите кнопку Finish (Готово).

    Снимок экрана: окно консоли с сообщением об успешном выполнении операции.

  7. Используйте следующие команды для установки пакетов libqt4 и libyui-qt.

    zypper -n install libqt4
    

    Снимок экрана: окно консоли с установкой первого пакета.

    zypper -n install libyui-qt
    

    Снимок экрана: окно консоли с установкой второго пакета.

    Снимок экрана: окно консоли с установкой второго пакета (продолжение).

    Теперь YaST2 может открыть графическое представление.

    Снимок экрана: окно YaST Control Center с выбранными элементами Software (Программное обеспечение) и Online Update (Онлайн-обновление).

Сценарий 3. В YaST2 не отображается пункт для высокого уровня доступности

Для отображения пункта high-availability (высокий уровень доступности) в YaST2 Control Center необходимо установить дополнительные пакеты.

  1. Перейдите в раздел Yast2>Software>Software Management (YaST > Программы > Управление программами). Затем выберите пункт Software>Online Update (Программы > Обновление онлайн).

    Снимок экрана: окно YaST Control Center с выбранными элементами Software (Программное обеспечение) и Online Update (Онлайн-обновление).

  2. Выберите шаблоны для следующих элементов. Затем нажмите Accept (Принять).

    • Базовый сервер SAP HANA.
    • Компилятор и средства C/C++.
    • Высокий уровень доступности
    • Базовый сервер приложений SAP.

    Снимок экрана: выбор первого шаблона в элементе для компилятора и средств.

    Снимок экрана: выбор второго шаблона в элементе для компилятора и средств.

  3. В списке пакетов, которые были изменены для разрешения зависимостей, нажмите Continue (Продолжить).

    Снимок экрана: диалоговое окно Changed Packages (Измененные пакеты) с пакетами, измененными для устранения зависимостей.

  4. На странице состояния Performing Installation (Выполняется установка) нажмите кнопку Next (Далее).

    Снимок экрана: страница состояния выполнения установки.

  5. После завершения установки появится отчет об установке. Нажмите кнопку Готово.

    Снимок экрана: отчет установки.

Сценарий 4. Установка HANA завершается ошибкой сборок gcc

Если установка HANA завершается сбоем, может появиться следующая ошибка.

Снимок экрана: ошибка с сообщением о том, что операционная система не готова выполнить сборки ggc5.

Чтобы устранить эту проблему, установите библиотеки libgcc_sl и libstdc++6, как показано на следующем снимке экрана.

Снимок экрана: окно консоли, в котором устанавливаются необходимые библиотеки.

Сценарий 5. Сбой службы Pacemaker

Если не удается запустить службу pacemaker, отображаются следующие сведения.

sapprdhdb95:/ # systemctl start pacemaker
A dependency job for pacemaker.service failed. See 'journalctl -xn' for details.
sapprdhdb95:/ # journalctl -xn
-- Logs begin at Thu 2017-09-28 09:28:14 EDT, end at Thu 2017-09-28 21:48:27 EDT. --
Sep 28 21:48:27 sapprdhdb95 corosync[68812]: [SERV  ] Service engine unloaded: corosync configuration map
Sep 28 21:48:27 sapprdhdb95 corosync[68812]: [QB    ] withdrawing server sockets
Sep 28 21:48:27 sapprdhdb95 corosync[68812]: [SERV  ] Service engine unloaded: corosync configuration ser
Sep 28 21:48:27 sapprdhdb95 corosync[68812]: [QB    ] withdrawing server sockets
Sep 28 21:48:27 sapprdhdb95 corosync[68812]: [SERV  ] Service engine unloaded: corosync cluster closed pr
Sep 28 21:48:27 sapprdhdb95 corosync[68812]: [QB    ] withdrawing server sockets
Sep 28 21:48:27 sapprdhdb95 corosync[68812]: [SERV  ] Service engine unloaded: corosync cluster quorum se
Sep 28 21:48:27 sapprdhdb95 corosync[68812]: [SERV  ] Service engine unloaded: corosync profile loading s
Sep 28 21:48:27 sapprdhdb95 corosync[68812]: [MAIN  ] Corosync Cluster Engine exiting normally
Sep 28 21:48:27 sapprdhdb95 systemd[1]: Dependency failed for Pacemaker High Availability Cluster Manager
-- Subject: Unit pacemaker.service has failed
-- Defined-By: systemd
-- Support: https://lists.freedesktop.org/mailman/listinfo/systemd-devel
--
-- Unit pacemaker.service has failed.
--
-- The result is dependency.
sapprdhdb95:/ # tail -f /var/log/messages
2017-09-28T18:44:29.675814-04:00 sapprdhdb95 corosync[57600]:   [QB    ] withdrawing server sockets
2017-09-28T18:44:29.676023-04:00 sapprdhdb95 corosync[57600]:   [SERV  ] Service engine unloaded: corosync cluster closed process group service v1.01
2017-09-28T18:44:29.725885-04:00 sapprdhdb95 corosync[57600]:   [QB    ] withdrawing server sockets
2017-09-28T18:44:29.726069-04:00 sapprdhdb95 corosync[57600]:   [SERV  ] Service engine unloaded: corosync cluster quorum service v0.1
2017-09-28T18:44:29.726164-04:00 sapprdhdb95 corosync[57600]:   [SERV  ] Service engine unloaded: corosync profile loading service
2017-09-28T18:44:29.776349-04:00 sapprdhdb95 corosync[57600]:   [MAIN  ] Corosync Cluster Engine exiting normally
2017-09-28T18:44:29.778177-04:00 sapprdhdb95 systemd[1]: Dependency failed for Pacemaker High Availability Cluster Manager.
2017-09-28T18:44:40.141030-04:00 sapprdhdb95 systemd[1]: [/usr/lib/systemd/system/fstrim.timer:8] Unknown lvalue 'Persistent' in section 'Timer'
2017-09-28T18:45:01.275038-04:00 sapprdhdb95 cron[57995]: pam_unix(crond:session): session opened for user root by (uid=0)
2017-09-28T18:45:01.308066-04:00 sapprdhdb95 CRON[57995]: pam_unix(crond:session): session closed for user root

Чтобы устранить проблему, удалите следующую строку в файле /usr/lib/systemd/system/fstrim.timer:

Persistent=true

Снимок экрана: файл fstrim со значением Persistent=true, которое нужно удалить.

Сценарий 6. Узел node2 не может присоединиться к кластеру

Следующая ошибка возникает, если есть проблемы с присоединением узла node2 к существующему кластеру с помощью команды ha-cluster-join.

ERROR: Can’t retrieve SSH keys from <Primary Node>

Снимок экрана: окно консоли с сообщением ошибки о том, что ключи SSH невозможно получить с определенного IP-адреса.

Чтобы устранить эту проблему, выполните следующие действия.

  1. Выполните следующие команды на обоих узлах.

    ssh-keygen -q -f /root/.ssh/id_rsa -C 'Cluster Internal' -N ''
    cat /root/.ssh/id_rsa.pub >> /root/.ssh/authorized_keys
    

    Снимок экрана: часть окна консоли, выполняющей команду для первого узла.

    Снимок экрана: часть окна консоли, выполняющей команду для второго узла.

  2. Убедитесь, что узел node2 добавлен в кластер.

    Снимок экрана: окно консоли с успешно выполненной командой join.

Дальнейшие действия

Дополнительные сведения об установке SUSE HA можно найти в следующих статьях: