Alta disponibilidade para SAP NetWeaver em VMs Azure no SUSE Linux Enterprise Server com Azure NetApp Files para aplicações SAP

Este artigo descreve como implantar as máquinas virtuais, configurar as máquinas virtuais, instalar a estrutura do cluster e instalar um sistema SAP NetWeaver 7.50 altamente disponível, utilizando Azure NetApp Files. Nas configurações de exemplo, comandos de instalação, etc., a instância ASCS é número 00, a instância ERS número 01, a instância de Aplicação Primária (PAS) é 02 e a instância de aplicação (AAS) é 03. O SISTEMA SAP ID QAS é utilizado.

Este artigo explica como obter uma elevada disponibilidade para a aplicação SAP NetWeaver com Azure NetApp Files. A camada de base de dados não está coberta em detalhe neste artigo.

Leia primeiro as seguintes notas e artigos SAP:

Descrição Geral

A elevada disponibilidade (HA) para os serviços centrais DA NETWEaver requer armazenamento partilhado. Para o conseguir em SUSE Linux até agora, era necessário construir um cluster NFS altamente disponível.

Agora é possível alcançar o SAP Netweaver HA utilizando o armazenamento partilhado, implantado em Azure NetApp Files. A utilização de Azure NetApp Files para o armazenamento partilhado elimina a necessidade de um cluster NFS adicional. O Pacemaker ainda é necessário para a HA dos serviços centrais SAP Netweaver (ASCS/SCS).

Visão geral de alta disponibilidade do SAP NetWeaver

SAP NetWeaver ASCS, SAP NetWeaver SCS, SAP NetWeaver ERS e a base de dados SAP HANA utilizam o nome de anfitrião virtual e endereços IP virtuais. No Azure, é necessário um equilibrador de carga para utilizar um endereço IP virtual. Recomendamos a utilização do balanceador de carga standard. A configuração apresentada mostra um equilibrador de carga com:

  • Endereço IP frontend 10.1.1.20 para ASCS
  • Endereço IP frontend 10.1.1.21 para ERS
  • Porta de sonda 62000 para ASCS
  • Sonda porta 62101 para ERS

Criação da infraestrutura Azure NetApp Files

O SAP NetWeaver requer armazenamento partilhado para o diretório de transporte e perfil. Antes de prosseguir com a configuração para a infraestrutura de ficheiros Azure NetApp, familiarize-se com a documentação Azure NetApp Files. Verifique se a região de Azure selecionada oferece Azure NetApp Files. O seguinte link mostra a disponibilidade de Azure NetApp Files pela região de Azure: Azure NetApp Files Disponibilidade por Região de Azure.

Os ficheiros Azure NetApp estão disponíveis em várias regiões do Azure.

Mobilizar recursos Azure NetApp Files

Os passos pressupõem que já deslocou o Azure Rede Virtual. Os Azure NetApp Files recursos e os VMs, onde os recursos Azure NetApp Files serão montados devem ser implantados no mesmo Rede Virtual Azure ou em Redes Virtuais Azure.

  1. Crie a conta NetApp na região de Azure selecionada, seguindo as instruções para criar a Conta NetApp.

  2. Configurar Azure NetApp Files piscina de capacidade, seguindo as instruções sobre como configurar Azure NetApp Files piscina de capacidade.
    A arquitetura SAP Netweaver apresentada neste artigo utiliza um pool de capacidade de Azure NetApp Files única, Premium SKU. Recomendamos Azure NetApp Files Premium SKU para a carga de trabalho da aplicação SAP Netweaver em Azure.

  3. Delege uma sub-rede para ficheiros Azure NetApp, conforme descrito nas instruções, descreva uma sub-rede para Azure NetApp Files.

  4. Desloque Azure NetApp Files volumes, seguindo as instruções para criar um volume para Azure NetApp Files. Desloque os volumes na sub-rede Azure NetApp Files designada. Os endereços IP dos volumes Azure NetApp são atribuídos automaticamente. Tenha em mente que os recursos Azure NetApp Files e os VMs Azure devem estar no mesmo Azure Rede Virtual ou em Redes Virtuais Azure. Neste exemplo, utilizamos dois volumes Azure NetApp Files: sapQAS e trans. Os caminhos de arquivo que são montados para os pontos de montagem correspondentes são /usrsapqas/sapmntQAS, /usrsapqas/usrsapQASsys, etc.

    1. volume sapQAS (nfs://10.1.0.4/usrsapqas/sapmntQAS)
    2. volume sapQAS (nfs://10.1.0.4/usrsapqas/usrsapQASascs)
    3. volume sapQAS (nfs://10.1.0.4/usrsapqas/usrsapQASsys)
    4. volume sapQAS (nfs://10.1.0.4/usrsapqas/usrsapQASers)
    5. volume trans (nfs://10.1.0.4/trans)
    6. volume sapQAS (nfs://10.1.0.4/usrsapqas/usrsapQASpas)
    7. volume sapQAS (nfs://10.1.0.4/usrsapqas/usrsapQASaas)

Neste exemplo, uímos Azure NetApp Files para todos os sistemas de ficheiros SAP Netweaver para demonstrar como Azure NetApp Files podem ser usados. Os sistemas de ficheiros SAP que não precisam de ser montados através de NFS também podem ser implantados como armazenamento de disco Azure . Neste exemplo, o a-e deve estar em Azure NetApp Files e f-g (isto é, /usr/sap/QAS/D02, /usr/sap/QAS/D03) poderia ser implantado como armazenamento de disco Azure.

Considerações importantes

Ao considerar Azure NetApp Files para o SAP Netweaver na arquitetura SUSE High Availability, esteja ciente das seguintes considerações importantes:

  • A capacidade mínima é de 4 TiB. O tamanho da piscina pode ser aumentado em 1 incrementos TiB.
  • O volume mínimo é de 100 GiB
  • Azure NetApp Files e todas as máquinas virtuais, onde Azure NetApp Files volumes serão montados, devem estar no mesmo Azure Rede Virtual ou em redes virtuais na mesma região. Azure NetApp Files acesso ao VNET na mesma região é agora suportado. O acesso do Azure NetApp ao que está a ser olhando globalmente ainda não está suportado.
  • A rede virtual selecionada deve ter uma sub-rede delegada em Azure NetApp Files.
  • As características de produção e desempenho de um volume Azure NetApp Files são uma função da quota de volume e do nível de serviço, tal como documentado a nível de Serviço para Azure NetApp Files. Ao dimensionar os volumes SAP Azure NetApp, certifique-se de que a produção resultante satisfaz os requisitos da aplicação.
  • Azure NetApp Files oferece política de exportação: pode controlar os clientes autorizados, o tipo de acesso (Ler&Apenas, Ler, etc.).
  • Azure NetApp Files funcionalidade ainda não está ciente da zona. Atualmente Azure NetApp Files funcionalidade não está implantada em todas as zonas de Disponibilidade numa região do Azure. Esteja ciente das potenciais implicações de latência em algumas regiões de Azure.
  • Azure NetApp Files volumes podem ser implantados como volumes NFSv3 ou NFSv4.1. Ambos os protocolos são suportados para a camada de aplicação SAP (ASCS/ERS, servidores de aplicações SAP).

Implementar os VMs Linux manualmente através de portal do Azure

Primeiro, tens de criar os volumes Azure NetApp Files. Desdobre os VMs. Em seguida, cria-se um equilibrador de carga e utiliza-se as máquinas virtuais nas piscinas de backend.

  1. Criar um Grupo de Recursos
  2. Criar uma Rede Virtual
  3. Criar um conjunto de disponibilidade para ASCS
    Definir o domínio de atualização máxima
  4. Criar Máquina Virtual 1
    Utilize pelo menos sLES4SAP 12 SP3, neste exemplo é utilizada a imagem SLES4SAP 12 SP3
    Selecione Conjunto de Disponibilidade criado anteriormente para ASCS
  5. Criar Máquina Virtual 2
    Utilize pelo menos sLES4SAP 12 SP3, neste exemplo é utilizada a imagem SLES4SAP 12 SP3
    Selecione Conjunto de Disponibilidade criado anteriormente para ASCS
  6. Criar um Conjunto de Disponibilidade para as instâncias de aplicação SAP (PAS, AAS)
    Definir o domínio de atualização máxima
  7. Criar Máquina Virtual 3
    Utilize pelo menos sLES4SAP 12 SP3, neste exemplo é utilizada a imagem SLES4SAP 12 SP3
    Selecione Conjunto de Disponibilidade criado anteriormente para PAS/AAS
  8. Criar Máquina Virtual 4
    Utilize pelo menos sLES4SAP 12 SP3, neste exemplo é utilizada a imagem SLES4SAP 12 SP3
    Selecione Conjunto de Disponibilidade criado anteriormente para PAS/AAS

Desativar o mapeamento de ID (se utilizar o NFSv4.1)

As instruções desta secção só são aplicáveis, se utilizar volumes Azure NetApp Files com o protocolo NFSv4.1. Execute a configuração em todos os VMs, onde Azure NetApp Files volumes NFSv4.1 serão montados.

  1. Verifique a definição de domínio NFS. Certifique-se de que o domínio está configurado como o domínio padrão Azure NetApp Files, ou sejadefaultv4iddomain.com, e o mapeamento não está definido para ninguém.

    Importante

    Certifique-se de que define o domínio NFS no /etc/idmapd.conf VM para corresponder à configuração de domínio predefinido no Azure NetApp Files: defaultv4iddomain.com. Se houver um desfasamento entre a configuração de domínio no cliente NFS (ou seja, o VM) e o servidor NFS, ou seja, a configuração do Azure NetApp, então as permissões para ficheiros nos volumes Azure NetApp que são montados nos VMs serão exibidas como nobody.

    
     sudo cat /etc/idmapd.conf
     # Example
     [General]
     Verbosity = 0
     Pipefs-Directory = /var/lib/nfs/rpc_pipefs
     Domain = defaultv4iddomain.com
     [Mapping]
     Nobody-User = nobody
     Nobody-Group = nobody
     
  2. [A] Verificar nfs4_disable_idmapping. Deve ser definido para Y. Para criar a estrutura do diretório onde nfs4_disable_idmapping está localizada, execute o comando de montagem. Não poderá criar manualmente o diretório em /sys/módulos, porque o acesso é reservado para o núcleo/condutores.

    
     # Check nfs4_disable_idmapping 
     cat /sys/module/nfs/parameters/nfs4_disable_idmapping
     # If you need to set nfs4_disable_idmapping to Y
     mkdir /mnt/tmp
     mount 10.1.0.4:/sapmnt/qas /mnt/tmp
     umount  /mnt/tmp
     echo "Y" > /sys/module/nfs/parameters/nfs4_disable_idmapping
     # Make the configuration permanent
     echo "options nfs nfs4_disable_idmapping=Y" >> /etc/modprobe.d/nfs.conf
     

Criação (A)SCS

Neste exemplo, os recursos foram utilizados manualmente através do portal do Azure .

Implemente Balanceador de Carga do Azure manualmente através de portal do Azure

Primeiro, tens de criar os volumes Azure NetApp Files. Desdobre os VMs. Em seguida, cria-se um equilibrador de carga e utiliza-se as máquinas virtuais na piscina de backend.

  1. Criar equilibrador de carga (interno, padrão):
    1. Criar os endereços IP frontend
      1. Endereço IP 10.1.1.20 para o ASCS
        1. Abra o equilibrador de carga, selecione o pool IP frontal e clique em Adicionar
        2. Insira o nome do novo pool IP frontend (por exemplo , frontend. O QAS. ASCS)
        3. Desaponda a Estática e introduza o endereço IP (por exemplo 10.1.1.20)
        4. Clique em OK
      2. Endereço IP 10.1.1.21 para o ASCS ERS
        • Repita os passos acima em "a" para criar um endereço IP para o ERS (por exemplo 10.1.1.21 e frontend. O QAS. ERS)
    2. Criar o conjunto de back-end
      1. Abra o balançador de carga, selecione piscinas de backend e clique em Adicionar
      2. Insira o nome da nova piscina de backend (por exemplo , backend. QAS)
      3. Clique Em Adicionar uma máquina virtual.
      4. Selecione máquina virtual
      5. Selecione as máquinas virtuais do cluster (A)SCS e os seus endereços IP.
      6. Clique em Adicionar
    3. Criar as sondas de saúde
      1. Porto 62000 para ASCS
        1. Abra o equilibrador de carga, selecione sondas de saúde e clique em Adicionar
        2. Insira o nome da nova sonda de saúde (por exemplo , saúde. O QAS. ASCS)
        3. Selecione TCP como protocolo, porta 62000, mantenha o Intervalo 5 e o limiar insalubre 2
        4. Clique em OK
      2. Porto 62101 para ASCS ERS
        • Repita os passos acima em "c" para criar uma sonda de saúde para o ERS (por exemplo 62101 e saúde. O QAS. ERS)
    4. Regras de equilíbrio de carga
      1. Criar uma piscina de backend para o ASCS
        1. Abra o equilibrador de carga, selecione regras de equilíbrio de carga e clique em Adicionar
        2. Insira o nome da nova regra do balançador de carga (por exemplo lb. O QAS. ASCS)
        3. Selecione o endereço IP frontend para ASCS, backend pool e sonda de saúde que criou anteriormente (por exemplo , frontend. O QAS. ASCS, backend. QAS e saúde. O QAS. ASCS)
        4. Selecione portas HA
        5. Certifique-se de ativar o IP flutuante
        6. Clique em OK
        • Repita os passos acima para criar regras de equilíbrio de carga para ERS (por exemplo lb. O QAS. ERS)
  2. Em alternativa, apenas se o seu cenário necessitar de um balanceador de carga básico (interno), siga estes passos de configuração para criar um equilibrador de carga básico:
    1. Criar os endereços IP frontend

      1. Endereço IP 10.1.1.20 para o ASCS
        1. Abra o equilibrador de carga, selecione o pool IP frontal e clique em Adicionar
        2. Insira o nome do novo pool IP frontend (por exemplo , frontend. O QAS. ASCS)
        3. Desaponda a Estática e introduza o endereço IP (por exemplo 10.1.1.20)
        4. Clique em OK
      2. Endereço IP 10.1.1.21 para o ASCS ERS
        • Repita os passos acima em "a" para criar um endereço IP para o ERS (por exemplo 10.1.1.21 e frontend. O QAS. ERS)
    2. Criar o conjunto de back-end

      1. Abra o balançador de carga, selecione piscinas de backend e clique em Adicionar
      2. Insira o nome da nova piscina de backend (por exemplo , backend. QAS)
      3. Clique Em Adicionar uma máquina virtual.
      4. Selecione o Conjunto de Disponibilidade que criou anteriormente para ASCS
      5. Selecione as máquinas virtuais do cluster (A)SCS
      6. Clique em OK
    3. Criar as sondas de saúde

      1. Porto 62000 para ASCS
        1. Abra o equilibrador de carga, selecione sondas de saúde e clique em Adicionar
        2. Insira o nome da nova sonda de saúde (por exemplo , saúde. O QAS. ASCS)
        3. Selecione TCP como protocolo, porta 62000, mantenha o Intervalo 5 e o limiar insalubre 2
        4. Clique em OK
      2. Porto 62101 para ASCS ERS
        • Repita os passos acima em "c" para criar uma sonda de saúde para o ERS (por exemplo 62101 e saúde. O QAS. ERS)
    4. Regras de equilíbrio de carga

      1. 3200 TCP para ASCS
        1. Abra o equilibrador de carga, selecione regras de equilíbrio de carga e clique em Adicionar
        2. Insira o nome da nova regra do balançador de carga (por exemplo lb. O QAS. ASCS.3200)
        3. Selecione o endereço IP frontend para ASCS, backend pool e sonda de saúde que criou anteriormente (por exemplo , frontend. O QAS. ASCS)
        4. Manter o protocolo TCP, inserir porta 3200
        5. Aumente o tempo de inatividade para 30 minutos
        6. Certifique-se de ativar o IP flutuante
        7. Clique em OK
      2. Portas adicionais para o ASCS
        • Repita os passos acima em "d" para as portas 3600, 3900, 8100, 50013, 50014, 50016 e TCP para o ASCS
      3. Portos adicionais para o ASCS ERS
        • Repita os passos acima em "d" para as portas 3201, 3301, 50113, 50114, 50116 e TCP para o ASCS ERS

      Importante

      O IP flutuante não é suportado numa configuração IP secundária do NIC em cenários de equilíbrio de carga. Para mais detalhes consulte as limitações do balançador de carga Azure. Se precisar de um endereço IP adicional para o VM, implante um segundo NIC.

      Nota

      Quando os VMs sem endereços IP públicos forem colocados no pool de backend de saldos de carga standard Azure (sem endereço IP público), não haverá conectividade de internet de saída, a menos que seja realizada uma configuração adicional para permitir o encaminhamento para pontos finais públicos. Para obter detalhes sobre como alcançar a conectividade de saída, consulte a conectividade do ponto final público para Máquinas Virtuais usando a Azure Balanceador de Carga Standard em cenários de alta disponibilidade SAP.

      Importante

      Não ative os cartões de tempo TCP em VMs Azure colocados atrás de Balanceador de Carga do Azure. Permitir que os tempos de TCP ostálteros façam com que as sondas de saúde falhem. Definir o parâmetro net.ipv4.tcp_timestamps a 0. Para mais detalhes, consulte Balanceador de Carga sondas de saúde.

Criar cluster pacemaker

Siga os passos na configuração do Pacemaker no SUSE Linux Enterprise Server em Azure para criar um cluster pacemaker básico para este servidor (A)SCS.

Instalação

Os seguintes itens são prefixados com ambos [A] - aplicável a todos os nós, [1] - apenas aplicáveis ao nó 1 ou [2] - apenas aplicáveis ao nó 2.

  1. [A] Instalar o conector SUSE

    sudo zypper install sap-suse-cluster-connector
    

    Nota

    O problema conhecido com a utilização de um traço em nomes de anfitrião é fixado com a versão 3.1.1 do conector de conjunto sap-suse-suse. Certifique-se de que está a utilizar pelo menos a versão 3.1.1 do conector de conjunto sap-suse-cluster, se utilizar nós de cluster com traço no nome de anfitrião. Caso contrário, o seu agrupamento não funcionará.

    Certifique-se de que instalou a nova versão do conector do cluster SAP SUSE. O antigo chamava-se sap_suse_cluster_connector e o novo chama-se conector de fragmentos de sap-suse.

    sudo zypper info sap-suse-cluster-connector
    
     # Information for package sap-suse-cluster-connector:
     # ---------------------------------------------------
     # Repository     : SLE-12-SP3-SAP-Updates
     # Name           : sap-suse-cluster-connector
     # Version        : 3.1.0-8.1
     # Arch           : noarch
     # Vendor         : SUSE LLC <https://www.suse.com/>
     # Support Level  : Level 3
     # Installed Size : 45.6 KiB
     # Installed      : Yes
     # Status         : up-to-date
     # Source package : sap-suse-cluster-connector-3.1.0-8.1.src
     # Summary        : SUSE High Availability Setup for SAP Products
    
  2. [A] Atualizar os agentes de recursos SAP

    Um patch para o pacote de agentes de recursos é necessário para usar a nova configuração, que é descrita neste artigo. Pode verificar se o patch já está instalado com o seguinte comando

    sudo grep 'parameter name="IS_ERS"' /usr/lib/ocf/resource.d/heartbeat/SAPInstance
    

    A saída deve ser semelhante a

    <parameter name="IS_ERS" unique="0" required="0">
    

    Se o comando grep não encontrar o parâmetro IS_ERS, é necessário instalar o patch listado na página de descarregamento SUSE

    # example for patch for SLES 12 SP1
    sudo zypper in -t patch SUSE-SLE-HA-12-SP1-2017-885=1
    # example for patch for SLES 12 SP2
    sudo zypper in -t patch SUSE-SLE-HA-12-SP2-2017-886=1
    
  3. [A] Resolução do nome do anfitrião da configuração

    Pode utilizar um servidor DNS ou modificar os /etc/anfitriões em todos os nós. Este exemplo mostra como utilizar o ficheiro /etc/hosts. Substitua o endereço IP e o nome de anfitrião nos seguintes comandos

    sudo vi /etc/hosts
    

    Insira as seguintes linhas para /etc/anfitriões. Altere o endereço IP e o nome de anfitrião para combinar com o seu ambiente

    
    # IP address of cluster node 1
    10.1.1.18    anftstsapcl1
    # IP address of cluster node 2
    10.1.1.6     anftstsapcl2
    # IP address of the load balancer frontend configuration for SAP Netweaver ASCS
    10.1.1.20    anftstsapvh
    # IP address of the load balancer frontend configuration for SAP Netweaver ERS
    10.1.1.21    anftstsapers
    
  4. [1] Criar diretórios SAP no volume Azure NetApp Files.
    Monte temporariamente o volume de Azure NetApp Files num dos VMs e crie os diretórios SAP (caminhos de arquivo).

     # mount temporarily the volume
     sudo mkdir -p /saptmp
     # If using NFSv3
     sudo mount -t nfs -o rw,hard,rsize=65536,wsize=65536,vers=3,tcp 10.1.0.4:/sapQAS /saptmp
     # If using NFSv4.1
     sudo mount -t nfs -o rw,hard,rsize=65536,wsize=65536,vers=4.1,sec=sys,tcp 10.1.0.4:/sapQAS /saptmp
     # create the SAP directories
     sudo cd /saptmp
     sudo mkdir -p sapmntQAS
     sudo mkdir -p usrsapQASascs
     sudo mkdir -p usrsapQASers
     sudo mkdir -p usrsapQASsys
     sudo mkdir -p usrsapQASpas
     sudo mkdir -p usrsapQASaas
     # unmount the volume and delete the temporary directory
     sudo cd ..
     sudo umount /saptmp
     sudo rmdir /saptmp
    

Preparar para a instalação SAP NetWeaver

  1. [A] Criar os diretórios partilhados

    sudo mkdir -p /sapmnt/QAS
    sudo mkdir -p /usr/sap/trans
    sudo mkdir -p /usr/sap/QAS/SYS
    sudo mkdir -p /usr/sap/QAS/ASCS00
    sudo mkdir -p /usr/sap/QAS/ERS01
    
    sudo chattr +i /sapmnt/QAS
    sudo chattr +i /usr/sap/trans
    sudo chattr +i /usr/sap/QAS/SYS
    sudo chattr +i /usr/sap/QAS/ASCS00
    sudo chattr +i /usr/sap/QAS/ERS01
    
  2. [A] Configurar autofs

    
    sudo vi /etc/auto.master
    # Add the following line to the file, save and exit
    /- /etc/auto.direct
    

    Se utilizar o NFSv3, crie um ficheiro com:

    
    sudo vi /etc/auto.direct
    # Add the following lines to the file, save and exit
    /sapmnt/QAS -nfsvers=3,nobind 10.1.0.4:/usrsapqas/sapmntQAS
    /usr/sap/trans -nfsvers=3,nobind 10.1.0.4:/trans
    /usr/sap/QAS/SYS -nfsvers=3,nobind 10.1.0.4:/usrsapqas/usrsapQASsys
    

    Se utilizar o NFSv4.1, crie um ficheiro com:

    
    sudo vi /etc/auto.direct
    # Add the following lines to the file, save and exit
    /sapmnt/QAS -nfsvers=4.1,nobind,sec=sys 10.1.0.4:/usrsapqas/sapmntQAS
    /usr/sap/trans -nfsvers=4.1,nobind,sec=sys 10.1.0.4:/trans
    /usr/sap/QAS/SYS -nfsvers=4.1,nobind,sec=sys 10.1.0.4:/usrsapqas/usrsapQASsys
    

    Nota

    Certifique-se de que corresponde à versão do protocolo NFS do Azure NetApp Files volumes, ao montar os volumes. Se os volumes Azure NetApp Files forem criados como volumes NFSv3, utilize a configuração NFSv3 correspondente. Se os volumes Azure NetApp Files forem criados como volumes NFSv4.1, siga as instruções para desativar o mapeamento de ID e certifique-se de utilizar a configuração NFSv4.1 correspondente. Neste exemplo, os volumes Azure NetApp Files foram criados como volumes NFSv3.

    Reiniciar autofs para montar as novas ações

    
       sudo systemctl enable autofs
       sudo service autofs restart
      
  3. [A] Ficheiro swap de configuração

    sudo vi /etc/waagent.conf
    
    # Check if property ResourceDisk.Format is already set to y and if not, set it
    ResourceDisk.Format=y
    
    # Set the property ResourceDisk.EnableSwap to y
    # Create and use swapfile on resource disk.
    ResourceDisk.EnableSwap=y
    
    # Set the size of the SWAP file with property ResourceDisk.SwapSizeMB
    # The free space of resource disk varies by virtual machine size. Make sure that you do not set a value that is too big. You can check the SWAP space with command swapon
    # Size of the swapfile.
    ResourceDisk.SwapSizeMB=2000
    

    Reinicie o Agente para ativar a alteração

    sudo service waagent restart
    

Instalação SAP NetWeaver ASCS/ERS

  1. [1] Criar um recurso IP virtual e uma sonda de saúde para a instância ASCS

    Importante

    Testes recentes revelaram situações, em que o netcat deixa de responder aos pedidos devido a atrasos e à sua limitação de manuseamento de apenas uma ligação. O recurso netcat deixa de ouvir os pedidos do balançador de carga Azure e o IP flutuante fica indisponível.
    Para os aglomerados pacemaker existentes, recomendamos no passado a substituição do netcat por socat. Atualmente recomendamos a utilização de um agente de recursos azure-lb, que faz parte dos agentes de recursos do pacote, com os seguintes requisitos de versão pacote:

    • Para sLES 12 SP4/SP5, a versão deve ser pelo menos agentes de recursos-4.3.018.a7fb5035-3.30.1.
    • Para sLES 15/15 SP1, a versão deve ser pelo menos agentes de recursos-4.3.0184.6ee15eb2-4.13.1.

    Note que a mudança requer breves tempos de inatividade.
    Para os clusters pacemaker existentes, se a configuração já foi alterada para usar socat como descrito no Azure Load-Balancer Detection Hardening, não há necessidade de mudar imediatamente para o agente de recursos azure-lb.

    sudo crm node standby anftstsapcl2
    # If using NFSv3
    sudo crm configure primitive fs_QAS_ASCS Filesystem device='10.1.0.4/usrsapqas/usrsapQASascs' directory='/usr/sap/QAS/ASCS00' fstype='nfs' \
      op start timeout=60s interval=0 \
      op stop timeout=60s interval=0 \
      op monitor interval=20s timeout=40s
    
    # If using NFSv4.1
    sudo crm configure primitive fs_QAS_ASCS Filesystem device='10.1.0.4:/usrsapqas/usrsapQASascs' directory='/usr/sap/QAS/ASCS00' fstype='nfs' options='sec=sys,vers=4.1' \
      op start timeout=60s interval=0 \
      op stop timeout=60s interval=0 \
      op monitor interval=20s timeout=105s
    
    sudo crm configure primitive vip_QAS_ASCS IPaddr2 \
      params ip=10.1.1.20 \
      op monitor interval=10 timeout=20
    
    sudo crm configure primitive nc_QAS_ASCS azure-lb port=62000
    
    sudo crm configure group g-QAS_ASCS fs_QAS_ASCS nc_QAS_ASCS vip_QAS_ASCS \
       meta resource-stickiness=3000
    

    Certifique-se de que o estado do cluster está bem e que todos os recursos são iniciados. Não é importante em que nó os recursos estão a funcionar.

    sudo crm_mon -r
    
    # Node anftstsapcl2: standby
    # Online: [ anftstsapcl1 ]
    # 
    # Full list of resources:
    #
    # Resource Group: g-QAS_ASCS
    #     fs_QAS_ASCS        (ocf::heartbeat:Filesystem):    Started anftstsapcl1
    #     nc_QAS_ASCS        (ocf::heartbeat:azure-lb):      Started anftstsapcl1
    #     vip_QAS_ASCS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl1
    # stonith-sbd     (stonith:external/sbd): Started anftstsapcl2
    
  2. [1] Instalar OSCS SAP NetWeaver

    Instale o SAP NetWeaver ASCS como raiz no primeiro nó utilizando um nome de anfitrião virtual que mapeia para o endereço IP da configuração frontal do balançador de carga para o ASCS, por exemplo anftstsapvh, 10.1.1.20 e o número de instância que usou para a sonda do balançador de carga, por exemplo 00.

    Pode utilizar o parâmetro de seiva SAPINST_REMOTE_ACCESS_USER para permitir que um utilizador não-raiz se conecte ao sapinst. Pode utilizar SAPINST_USE_HOSTNAME de parâmetros para instalar o SAP, utilizando o nome de hospedeiro virtual.

    sudo <swpm>/sapinst SAPINST_REMOTE_ACCESS_USER=sapadmin SAPINST_USE_HOSTNAME=virtual_hostname
    

    Se a instalação não criar uma sub-dobradeira em /usr/seiva/QAS/ASCS00, tente definir o proprietário e o grupo da pasta ASCS00 e retentou novamente.

    
    chown qasadm /usr/sap/QAS/ASCS00
    chgrp sapsys /usr/sap/QAS/ASCS00
    
  3. [1] Criar um recurso IP virtual e sonda de saúde para a instância ERS

    
    sudo crm node online anftstsapcl2
    sudo crm node standby anftstsapcl1
    # If using NFSv3
    sudo crm configure primitive fs_QAS_ERS Filesystem device='10.1.0.4:/usrsapqas/usrsapQASers' directory='/usr/sap/QAS/ERS01' fstype='nfs' \
      op start timeout=60s interval=0 \
      op stop timeout=60s interval=0 \
      op monitor interval=20s timeout=40s
    
    # If using NFSv4.1
    sudo crm configure primitive fs_QAS_ERS Filesystem device='10.1.0.4:/usrsapqas/usrsapQASers' directory='/usr/sap/QAS/ERS01' fstype='nfs' options='sec=sys,vers=4.1' \
      op start timeout=60s interval=0 \
      op stop timeout=60s interval=0 \
      op monitor interval=20s timeout=105s
    
    sudo crm configure primitive vip_QAS_ERS IPaddr2 \
      params ip=10.1.1.21 \
      op monitor interval=10 timeout=20
    
    sudo crm configure primitive nc_QAS_ERS azure-lb port=62101
    
    sudo crm configure group g-QAS_ERS fs_QAS_ERS nc_QAS_ERS vip_QAS_ERS
    

    Certifique-se de que o estado do cluster está bem e que todos os recursos são iniciados. Não é importante em que nó os recursos estão a funcionar.

    sudo crm_mon -r
    
    # Node anftstsapcl1: standby
    # Online: [ anftstsapcl2 ]
    # 
    # Full list of resources:
    #
    # stonith-sbd     (stonith:external/sbd): Started anftstsapcl2
    #  Resource Group: g-QAS_ASCS
    #      fs_QAS_ASCS        (ocf::heartbeat:Filesystem):    Started anftstsapcl2
    #      nc_QAS_ASCS        (ocf::heartbeat:azure-lb):      Started anftstsapcl2
    #      vip_QAS_ASCS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl2
    #  Resource Group: g-QAS_ERS
    #      fs_QAS_ERS (ocf::heartbeat:Filesystem):    Started anftstsapcl2
    #      nc_QAS_ERS (ocf::heartbeat:azure-lb):      Started anftstsapcl2
    #      vip_QAS_ERS  (ocf::heartbeat:IPaddr2):     Started anftstsapcl2
    
  4. [2] Instalar SAP NetWeaver ERS

    Instale o SAP NetWeaver ERS como raiz no segundo nó utilizando um nome de anfitrião virtual que mapeia para o endereço IP da configuração frontal do balançador de carga para o ERS, por exemplo anftstsapers, 10.1.1.21 e o número de instância que usou para a sonda do balançador de carga, por exemplo 01.

    Pode utilizar o parâmetro de seiva SAPINST_REMOTE_ACCESS_USER para permitir que um utilizador não-raiz se conecte ao sapinst. Pode utilizar SAPINST_USE_HOSTNAME de parâmetros para instalar o SAP, utilizando o nome de hospedeiro virtual.

    sudo <swpm>/sapinst SAPINST_REMOTE_ACCESS_USER=sapadmin SAPINST_USE_HOSTNAME=virtual_hostname
    

    Nota

    Utilize SWPM SP 20 PL 05 ou superior. As versões inferiores não definem corretamente as permissões e a instalação falhará.

    Se a instalação não criar uma sub-dobradeira em /usr/seiva/QAS/ERS01, tente definir o proprietário e o grupo da pasta ERS01 e retentou novamente.

    
    chown qasadm /usr/sap/QAS/ERS01
    chgrp sapsys /usr/sap/QAS/ERS01
    
  5. [1] Adaptar os perfis de instância ASCS/SCS e ERS

    • Perfil ASCS/SCS
    
    sudo vi /sapmnt/QAS/profile/QAS_ASCS00_anftstsapvh
    
    # Change the restart command to a start command
    #Restart_Program_01 = local $(_EN) pf=$(_PF)
    Start_Program_01 = local $(_EN) pf=$(_PF)
    
    # Add the following lines
    service/halib = $(DIR_CT_RUN)/saphascriptco.so
    service/halib_cluster_connector = /usr/bin/sap_suse_cluster_connector
    
    # Add the keep alive parameter, if using ENSA1
    enque/encni/set_so_keepalive = true
    

    Tanto para a ENSA1 como para a ENSA2, certifique-se de que os keepalive parâmetros de SO estão definidos como descrito na nota SAP 1410736.

    • Perfil ERS
    
    sudo vi /sapmnt/QAS/profile/QAS_ERS01_anftstsapers
    
    # Change the restart command to a start command
    #Restart_Program_00 = local $(_ER) pf=$(_PFL) NR=$(SCSID)
    Start_Program_00 = local $(_ER) pf=$(_PFL) NR=$(SCSID)
    
    # Add the following lines
    service/halib = $(DIR_CT_RUN)/saphascriptco.so
    service/halib_cluster_connector = /usr/bin/sap_suse_cluster_connector
    
    # remove Autostart from ERS profile
    # Autostart = 1
    
  6. [A] Configurar Manter Vivo

    A comunicação entre o servidor de aplicações SAP NetWeaver e o ASCS/SCS é encaminhada através de um equilibrador de carga de software. O balançador de carga desliga as ligações inativas após um intervalo configurável. Para evitar isto, é necessário definir um parâmetro no perfil ASCS/SCS DO NET NetWeaver, se utilizar o ENSA1, e alterar as definições do sistema keepalive Linux em todos os servidores SAP para ambos ENSA1/ENSA2. Leia 1410736 SAP Note para obter mais informações.

    
    # Change the Linux system configuration
    sudo sysctl net.ipv4.tcp_keepalive_time=300
    
  7. [A] Configurar os utilizadores SAP após a instalação

    
    # Add sidadm to the haclient group
    sudo usermod -aG haclient qasadm
    
  8. [1] Adicione os serviços ASCS e ERS SAP ao sapservice ficheiro

    Adicione a entrada de serviço ASCS no segundo nó e copie a entrada de serviço ERS no primeiro nó.

    
    cat /usr/sap/sapservices | grep ASCS00 | sudo ssh anftstsapcl2 "cat >>/usr/sap/sapservices"
    sudo ssh anftstsapcl2 "cat /usr/sap/sapservices" | grep ERS01 | sudo tee -a /usr/sap/sapservices
    
  9. [1] Criar os recursos de cluster SAP

Se utilizar a arquitetura do servidor 1 do enqueue (ENSA1), defina os recursos da seguinte forma:

sudo crm configure property maintenance-mode="true"
   # If using NFSv3
   sudo crm configure primitive rsc_sap_QAS_ASCS00 SAPInstance \
    operations \$id=rsc_sap_QAS_ASCS00-operations \
    op monitor interval=11 timeout=60 on-fail=restart \
    params InstanceName=QAS_ASCS00_anftstsapvh START_PROFILE="/sapmnt/QAS/profile/QAS_ASCS00_anftstsapvh" \
    AUTOMATIC_RECOVER=false \
    meta resource-stickiness=5000 failure-timeout=60 migration-threshold=1 priority=10

   # If using NFSv4.1
   sudo crm configure primitive rsc_sap_QAS_ASCS00 SAPInstance \
    operations \$id=rsc_sap_QAS_ASCS00-operations \
    op monitor interval=11 timeout=105 on-fail=restart \
    params InstanceName=QAS_ASCS00_anftstsapvh START_PROFILE="/sapmnt/QAS/profile/QAS_ASCS00_anftstsapvh" \
    AUTOMATIC_RECOVER=false \
    meta resource-stickiness=5000 failure-timeout=105 migration-threshold=1 priority=10

   # If using NFSv3   
   sudo crm configure primitive rsc_sap_QAS_ERS01 SAPInstance \
    operations \$id=rsc_sap_QAS_ERS01-operations \
    op monitor interval=11 timeout=60 on-fail=restart \
    params InstanceName=QAS_ERS01_anftstsapers START_PROFILE="/sapmnt/QAS/profile/QAS_ERS01_anftstsapers" AUTOMATIC_RECOVER=false IS_ERS=true \
    meta priority=1000

   # If using NFSv4.1
   sudo crm configure primitive rsc_sap_QAS_ERS01 SAPInstance \
    operations \$id=rsc_sap_QAS_ERS01-operations \
    op monitor interval=11 timeout=105 on-fail=restart \
    params InstanceName=QAS_ERS01_anftstsapers START_PROFILE="/sapmnt/QAS/profile/QAS_ERS01_anftstsapers" AUTOMATIC_RECOVER=false IS_ERS=true \
    meta priority=1000

   sudo crm configure modgroup g-QAS_ASCS add rsc_sap_QAS_ASCS00
   sudo crm configure modgroup g-QAS_ERS add rsc_sap_QAS_ERS01
   
   sudo crm configure colocation col_sap_QAS_no_both -5000: g-QAS_ERS g-QAS_ASCS
   sudo crm configure location loc_sap_QAS_failover_to_ers rsc_sap_QAS_ASCS00 rule 2000: runs_ers_QAS eq 1
   sudo crm configure order ord_sap_QAS_first_start_ascs Optional: rsc_sap_QAS_ASCS00:start rsc_sap_QAS_ERS01:stop symmetrical=false
   
   sudo crm node online anftstsapcl1
   sudo crm configure property maintenance-mode="false"
   

A SAP introduziu suporte para o servidor 2, incluindo a replicação, a partir de SAP NW 7.52. A partir da Plataforma ABAP 1809, o servidor 2 do enqueue é instalado por padrão. Consulte a nota SAP 2630416 para obter suporte ao servidor 2. Se utilizar a arquitetura do servidor 2 do enqueue (ENSA2), defina os recursos da seguinte forma:

sudo crm configure property maintenance-mode="true"
   
   # If using NFSv3
   sudo crm configure primitive rsc_sap_QAS_ASCS00 SAPInstance \
    operations \$id=rsc_sap_QAS_ASCS00-operations \
    op monitor interval=11 timeout=60 on-fail=restart \
    params InstanceName=QAS_ASCS00_anftstsapvh START_PROFILE="/sapmnt/QAS/profile/QAS_ASCS00_anftstsapvh" \
    AUTOMATIC_RECOVER=false \
    meta resource-stickiness=5000
   
   # If using NFSv4.1
   sudo crm configure primitive rsc_sap_QAS_ASCS00 SAPInstance \
    operations \$id=rsc_sap_QAS_ASCS00-operations \
    op monitor interval=11 timeout=105 on-fail=restart \
    params InstanceName=QAS_ASCS00_anftstsapvh START_PROFILE="/sapmnt/QAS/profile/QAS_ASCS00_anftstsapvh" \
    AUTOMATIC_RECOVER=false \
    meta resource-stickiness=5000
   
   # If using NFSv3
   sudo crm configure primitive rsc_sap_QAS_ERS01 SAPInstance \
    operations \$id=rsc_sap_QAS_ERS01-operations \
    op monitor interval=11 timeout=60 on-fail=restart \
    params InstanceName=QAS_ERS01_anftstsapers START_PROFILE="/sapmnt/QAS/profile/QAS_ERS01_anftstsapers" AUTOMATIC_RECOVER=false IS_ERS=true
   
   # If using NFSv4.1
   sudo crm configure primitive rsc_sap_QAS_ERS01 SAPInstance \
    operations \$id=rsc_sap_QAS_ERS01-operations \
    op monitor interval=11 timeout=105 on-fail=restart \
    params InstanceName=QAS_ERS01_anftstsapers START_PROFILE="/sapmnt/QAS/profile/QAS_ERS01_anftstsapers" AUTOMATIC_RECOVER=false IS_ERS=true
   
   sudo crm configure modgroup g-QAS_ASCS add rsc_sap_QAS_ASCS00
   sudo crm configure modgroup g-QAS_ERS add rsc_sap_QAS_ERS01
   
   sudo crm configure colocation col_sap_QAS_no_both -5000: g-QAS_ERS g-QAS_ASCS
   sudo crm configure order ord_sap_QAS_first_start_ascs Optional: rsc_sap_QAS_ASCS00:start rsc_sap_QAS_ERS01:stop symmetrical=false
   
   sudo crm node online anftstsapcl1
   sudo crm configure property maintenance-mode="false"
   

Se estiver a atualizar a partir de uma versão mais antiga e mudar para o servidor 2, consulte a nota SAP 2641019.

Nota

Os intervalos mais elevados, sugeridos ao utilizar o NFSv4.1 são necessários devido a uma pausa específica do protocolo, relacionada com as renovações do arrendamento NFSv4.1. Para mais informações consulte NFS no NetApp Best practice.
Os intervalos de tempo na configuração acima podem ter de ser adaptados à configuração SAP específica.

Certifique-se de que o estado do cluster está bem e que todos os recursos são iniciados. Não é importante em que nó os recursos estão a funcionar.

sudo crm_mon -r
   # Full list of resources:
   #
   # stonith-sbd     (stonith:external/sbd): Started anftstsapcl2
   #  Resource Group: g-QAS_ASCS
   #      fs_QAS_ASCS        (ocf::heartbeat:Filesystem):    Started anftstsapcl1
   #      nc_QAS_ASCS        (ocf::heartbeat:azure-lb):      Started anftstsapcl1
   #      vip_QAS_ASCS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl1
   #      rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance):   Started anftstsapcl1
   #  Resource Group: g-QAS_ERS
   #      fs_QAS_ERS (ocf::heartbeat:Filesystem):    Started anftstsapcl2
   #      nc_QAS_ERS (ocf::heartbeat:azure-lb):      Started anftstsapcl2
   #      vip_QAS_ERS        (ocf::heartbeat:IPaddr2):       Started anftstsapcl2
   #      rsc_sap_QAS_ERS01  (ocf::heartbeat:SAPInstance):   Started anftstsapcl2
   

Preparação do servidor de aplicações SAP NetWeaver

Algumas bases de dados requerem que a instalação da instância da base de dados seja executada num servidor de aplicações. Prepare as máquinas virtuais do servidor de aplicações para poder usá-las nestes casos.

Os passos pressupõem que instala o servidor de aplicações num servidor diferente dos servidores ASCS/SCS e HANA. Caso contrário, alguns dos passos abaixo (como configurar a resolução do nome do anfitrião) não são necessários.

Os seguintes itens são prefixados com ambos [A] - aplicáveis tanto a PAS como a AAS, [P] - apenas aplicável a PAS ou [S] - apenas aplicáveis à AAS.

  1. [A] Sistema operativo Configure

    Reduza o tamanho da cache suja. Para obter mais informações, consulte o desempenho da gravação de Low nos servidores SLES 11/12 com RAM grande.

    
    sudo vi /etc/sysctl.conf
    # Change/set the following settings
    vm.dirty_bytes = 629145600
    vm.dirty_background_bytes = 314572800
    
  2. [A] Resolução do nome do anfitrião da configuração

    Pode utilizar um servidor DNS ou modificar os /etc/anfitriões em todos os nós. Este exemplo mostra como utilizar o ficheiro /etc/hosts. Substitua o endereço IP e o nome de anfitrião nos seguintes comandos

    sudo vi /etc/hosts
    

    Insira as seguintes linhas para /etc/anfitriões. Altere o endereço IP e o nome de anfitrião para combinar com o seu ambiente

    
    # IP address of the load balancer frontend configuration for SAP NetWeaver ASCS/SCS
    10.1.1.20 anftstsapvh
    # IP address of the load balancer frontend configuration for SAP NetWeaver ERS
    10.1.1.21 anftstsapers
    # IP address of all application servers
    10.1.1.15 anftstsapa01
    10.1.1.16 anftstsapa02
    
  3. [A] Criar o diretório de sapmnt

    
    sudo mkdir -p /sapmnt/QAS
    sudo mkdir -p /usr/sap/trans
    
    sudo chattr +i /sapmnt/QAS
    sudo chattr +i /usr/sap/trans
    
  4. [P] Criar o diretório PAS

    
    sudo mkdir -p /usr/sap/QAS/D02
    sudo chattr +i /usr/sap/QAS/D02
    
  5. [S] Criar o diretório AAS

    
    sudo mkdir -p /usr/sap/QAS/D03
    sudo chattr +i /usr/sap/QAS/D03
    
  6. [P] Configure autofs no PAS

    sudo vi /etc/auto.master
    
    # Add the following line to the file, save and exit
    /- /etc/auto.direct
    

    Se utilizar o NFSv3, crie um novo ficheiro com:

    
    sudo vi /etc/auto.direct
    # Add the following lines to the file, save and exit
    /sapmnt/QAS -nfsvers=3,nobind 10.1.0.4:/usrsapqas/sapmntQAS
    /usr/sap/trans -nfsvers=3,nobind 10.1.0.4:/trans
    /usr/sap/QAS/D02 -nfsvers=3,nobind 10.1.0.4:/usrsapqas/usrsapQASpas
    

    Se utilizar o NFSv4.1, crie um novo ficheiro com:

    
    sudo vi /etc/auto.direct
    # Add the following lines to the file, save and exit
    /sapmnt/QAS -nfsvers=4.1,nobind,sec=sys 10.1.0.4:/usrsapqas/sapmntQAS
    /usr/sap/trans -nfsvers=4.1,nobind,sec=sys 10.1.0.4:/trans
    /usr/sap/QAS/D02 -nfsvers=4.1,nobind,sec=sys 10.1.0.4:/usrsapqas/usrsapQASpas
    

    Reiniciar autofs para montar as novas ações

    
    sudo systemctl enable autofs
    sudo service autofs restart
    
  7. [P] Configure autofs na AAS

    sudo vi /etc/auto.master
    
    # Add the following line to the file, save and exit
    /- /etc/auto.direct
    

    Se utilizar o NFSv3, crie um novo ficheiro com:

    
    sudo vi /etc/auto.direct
    # Add the following lines to the file, save and exit
    /sapmnt/QAS -nfsvers=3,nobind 10.1.0.4:/usrsapqas/sapmntQAS
    /usr/sap/trans -nfsvers=3,nobind 10.1.0.4:/trans
    /usr/sap/QAS/D03 -nfsvers=3,nobind 10.1.0.4:/usrsapqas/usrsapQASaas
    

    Se utilizar o NFSv4.1, crie um novo ficheiro com:

    
    sudo vi /etc/auto.direct
    # Add the following lines to the file, save and exit
    /sapmnt/QAS -nfsvers=4.1,nobind,sec=sys 10.1.0.4:/usrsapqas/sapmntQAS
    /usr/sap/trans -nfsvers=4.1,nobind,sec=sys 10.1.0.4:/trans
    /usr/sap/QAS/D03 -nfsvers=4.1,nobind,sec=sys 10.1.0.4:/usrsapqas/usrsapQASaas
    

    Reiniciar autofs para montar as novas ações

    
    sudo systemctl enable autofs
    sudo service autofs restart
    
  8. [A] Ficheiro swap de configuração

    
    sudo vi /etc/waagent.conf
    
    # Set the property ResourceDisk.EnableSwap to y
    # Create and use swapfile on resource disk.
    ResourceDisk.EnableSwap=y
    
    # Set the size of the SWAP file with property ResourceDisk.SwapSizeMB
    # The free space of resource disk varies by virtual machine size. Make sure that you do not set a value that is too big. You can check the SWAP space with command swapon
    # Size of the swapfile.
    ResourceDisk.SwapSizeMB=2000
    

    Reinicie o Agente para ativar a alteração

    sudo service waagent restart
    

Instalar base de dados

Neste exemplo, o SAP NetWeaver é instalado no SAP HANA. Pode utilizar todas as bases de dados suportadas para esta instalação. Para obter mais informações sobre como instalar o SAP HANA em Azure, consulte Alta Disponibilidade de SAP HANA em Azure Máquinas Virtuais (VMs). Para obter uma lista de bases de dados suportadas, consulte a nota SAP 1928533.

  • Executar a instalação de instância de caixa de dados de base de dados SAP

    Instale a caixa de dados SAP NetWeaver como raiz utilizando um nome de anfitrião virtual que mapeia para o endereço IP da configuração frontal do balançador de carga para a base de dados.

    Pode utilizar o parâmetro de seiva SAPINST_REMOTE_ACCESS_USER para permitir que um utilizador não-raiz se conecte ao sapinst.

    sudo <swpm>/sapinst SAPINST_REMOTE_ACCESS_USER=sapadmin
    

Instalação do servidor de aplicações SAP NetWeaver

Siga estes passos para instalar um servidor de aplicação SAP.

  1. [A] Prepare o servidor de aplicações Siga os passos do capítulo SAP NetWeaver preparação do servidor de aplicações acima para preparar o servidor de aplicações.

  2. [A] Instalar o servidor de aplicações SAP NetWeaver Instale um servidor de aplicações SAP NetWeaver primário ou adicional.

    Pode utilizar o parâmetro de seiva SAPINST_REMOTE_ACCESS_USER para permitir que um utilizador não-raiz se conecte ao sapinst.

    sudo <swpm>/sapinst SAPINST_REMOTE_ACCESS_USER=sapadmin
    
  3. [A] Atualizar loja segura SAP HANA

    Atualize a loja segura SAP HANA para indicar o nome virtual da configuração de replicação do sistema SAP HANA.

    Executar o seguinte comando para listar as entradas

    
    hdbuserstore List
    

    Isto deve listar todas as entradas e deve parecer semelhante a

    
    DATA FILE       : /home/qasadm/.hdb/anftstsapa01/SSFS_HDB.DAT
    KEY FILE        : /home/qasadm/.hdb/anftstsapa01/SSFS_HDB.KEY
    
    KEY DEFAULT
      ENV : 10.1.1.5:30313
      USER: SAPABAP1
      DATABASE: QAS
    

    A saída mostra que o endereço IP da entrada predefinida está a apontar para a máquina virtual e não para o endereço IP do balançador de carga. Esta entrada precisa de ser alterada para apontar para o nome de hospedeiro virtual do equilibrador de carga. Certifique-se de que utiliza a mesma porta (30313 na saída acima) e o nome da base de dados (QAS na saída acima)!

    
    su - qasadm
    hdbuserstore SET DEFAULT qasdb:30313@QAS SAPABAP1 <password of ABAP schema>
    

Testar a configuração do cluster

Os seguintes testes são uma cópia dos casos de teste nos guias de boas práticas da SUSE. São copiados para a sua conveniência. Leia sempre os guias de boas práticas e realize todos os testes adicionais que possam ter sido adicionados.

  1. Teste HAGetFailoverConfig, HACheckConfig e HACheckFailoverConfig

    Executar os seguintes comandos como <adm sapsid>no nó onde a instância ASCS está atualmente em execução. Se os comandos falharem com FAIL: Memória insuficiente, pode ser causado por traços no seu nome de hospedeiro. Trata-se de um problema conhecido e será corrigido pela SUSE no pacote de conector de fragmentos de sap-suse.

    
    anftstsapcl1:qasadm 52> sapcontrol -nr 00 -function HAGetFailoverConfig
    07.03.2019 20:08:59
    HAGetFailoverConfig
    OK
    HAActive: TRUE
    HAProductVersion: SUSE Linux Enterprise Server for SAP Applications 12 SP3
    HASAPInterfaceVersion: SUSE Linux Enterprise Server for SAP Applications 12 SP3 (sap_suse_cluster_connector 3.1.0)
    HADocumentation: https://www.suse.com/products/sles-for-sap/resource-library/sap-best-practices/
    HAActiveNode: anftstsapcl1
    HANodes: anftstsapcl1, anftstsapcl2
    
    anftstsapcl1:qasadm 54> sapcontrol -nr 00 -function HACheckConfig
    07.03.2019 23:28:29
    HACheckConfig
    OK
    state, category, description, comment
    SUCCESS, SAP CONFIGURATION, Redundant ABAP instance configuration, 2 ABAP instances detected
    SUCCESS, SAP CONFIGURATION, Redundant Java instance configuration, 0 Java instances detected
    SUCCESS, SAP CONFIGURATION, Enqueue separation, All Enqueue server separated from application server
    SUCCESS, SAP CONFIGURATION, MessageServer separation, All MessageServer separated from application server
    SUCCESS, SAP CONFIGURATION, ABAP instances on multiple hosts, ABAP instances on multiple hosts detected
    SUCCESS, SAP CONFIGURATION, Redundant ABAP SPOOL service configuration, 2 ABAP instances with SPOOL service detected
    SUCCESS, SAP STATE, Redundant ABAP SPOOL service state, 2 ABAP instances with active SPOOL service detected
    SUCCESS, SAP STATE, ABAP instances with ABAP SPOOL service on multiple hosts, ABAP instances with active ABAP SPOOL service on multiple hosts detected
    SUCCESS, SAP CONFIGURATION, Redundant ABAP BATCH service configuration, 2 ABAP instances with BATCH service detected
    SUCCESS, SAP STATE, Redundant ABAP BATCH service state, 2 ABAP instances with active BATCH service detected
    SUCCESS, SAP STATE, ABAP instances with ABAP BATCH service on multiple hosts, ABAP instances with active ABAP BATCH service on multiple hosts detected
    SUCCESS, SAP CONFIGURATION, Redundant ABAP DIALOG service configuration, 2 ABAP instances with DIALOG service detected
    SUCCESS, SAP STATE, Redundant ABAP DIALOG service state, 2 ABAP instances with active DIALOG service detected
    SUCCESS, SAP STATE, ABAP instances with ABAP DIALOG service on multiple hosts, ABAP instances with active ABAP DIALOG service on multiple hosts detected
    SUCCESS, SAP CONFIGURATION, Redundant ABAP UPDATE service configuration, 2 ABAP instances with UPDATE service detected
    SUCCESS, SAP STATE, Redundant ABAP UPDATE service state, 2 ABAP instances with active UPDATE service detected
    SUCCESS, SAP STATE, ABAP instances with ABAP UPDATE service on multiple hosts, ABAP instances with active ABAP UPDATE service on multiple hosts detected
    SUCCESS, SAP STATE, SCS instance running, SCS instance status ok
    SUCCESS, SAP CONFIGURATION, SAPInstance RA sufficient version (anftstsapvh_QAS_00), SAPInstance includes is-ers patch
    SUCCESS, SAP CONFIGURATION, Enqueue replication (anftstsapvh_QAS_00), Enqueue replication enabled
    SUCCESS, SAP STATE, Enqueue replication state (anftstsapvh_QAS_00), Enqueue replication active
    
    anftstsapcl1:qasadm 55> sapcontrol -nr 00 -function HACheckFailoverConfig
    07.03.2019 23:30:48
    HACheckFailoverConfig
    OK
    state, category, description, comment
    SUCCESS, SAP CONFIGURATION, SAPInstance RA sufficient version, SAPInstance includes is-ers patch
    
  2. Migrar manualmente a instância ASCS

    Estado de recursos antes de iniciar o teste:

    
     Resource Group: g-QAS_ASCS
         fs_QAS_ASCS        (ocf::heartbeat:Filesystem):    Started anftstsapcl2
         nc_QAS_ASCS        (ocf::heartbeat:azure-lb):      Started anftstsapcl2
         vip_QAS_ASCS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl2
         rscsap_QAS_ASCS00 (ocf::heartbeat:SAPInstance):   Started anftstsapcl2
    stonith-sbd     (stonith:external/sbd): Started anftstsapcl1
     Resource Group: g-QAS_ERS
         fs_QAS_ERS (ocf::heartbeat:Filesystem):    Started anftstsapcl1
         nc_QAS_ERS (ocf::heartbeat:azure-lb):      Started anftstsapcl1
         vip_QAS_ERS        (ocf::heartbeat:IPaddr2):       Started anftstsapcl1
         rsc_sap_QAS_ERS01  (ocf::heartbeat:SAPInstance):   Starting anftstsapcl1
    

    Executar os seguintes comandos como raiz para migrar a instância ASCS.

    
    anftstsapcl1:~ # crm resource migrate rsc_sap_QAS_ASCS00 force
    INFO: Move constraint created for rsc_sap_QAS_ASCS00
    
    anftstsapcl1:~ # crm resource unmigrate rsc_sap_QAS_ASCS00
    INFO: Removed migration constraints for rsc_sap_QAS_ASCS00
    
    # Remove failed actions for the ERS that occurred as part of the migration
    anftstsapcl1:~ # crm resource cleanup rsc_sap_QAS_ERS01
    

    Estado de recursos após o teste:

    
     Resource Group: g-QAS_ASCS
         fs_QAS_ASCS        (ocf::heartbeat:Filesystem):    Started anftstsapcl1
         nc_QAS_ASCS        (ocf::heartbeat:azure-lb):      Started anftstsapcl1
         vip_QAS_ASCS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl1
         rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance):   Started anftstsapcl1
    stonith-sbd     (stonith:external/sbd): Started anftstsapcl1
     Resource Group: g-QAS_ERS
         fs_QAS_ERS (ocf::heartbeat:Filesystem):    Started anftstsapcl2
         nc_QAS_ERS (ocf::heartbeat:azure-lb):      Started anftstsapcl2
         vip_QAS_ERS        (ocf::heartbeat:IPaddr2):       Started anftstsapcl2
         rsc_sap_QAS_ERS01  (ocf::heartbeat:SAPInstance):   Started anftstsapcl2
    
  3. Teste HAFailoverToNode

    Estado de recursos antes de iniciar o teste:

    
     Resource Group: g-QAS_ASCS
         fs_QAS_ASCS        (ocf::heartbeat:Filesystem):    Started anftstsapcl1
         nc_QAS_ASCS        (ocf::heartbeat:azure-lb):      Started anftstsapcl1
         vip_QAS_ASCS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl1
         rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance):   Started anftstsapcl1
    stonith-sbd     (stonith:external/sbd): Started anftstsapcl1
     Resource Group: g-QAS_ERS
         fs_QAS_ERS (ocf::heartbeat:Filesystem):    Started anftstsapcl2
         nc_QAS_ERS (ocf::heartbeat:azure-lb):      Started anftstsapcl2
         vip_QAS_ERS        (ocf::heartbeat:IPaddr2):       Started anftstsapcl2
         rsc_sap_QAS_ERS01  (ocf::heartbeat:SAPInstance):   Started anftstsapcl2
    

    Executar os seguintes comandos como <adm sapsid>para migrar a instância ASCS.

    
    anftstsapcl1:qasadm 53> sapcontrol -nr 00 -host anftstsapvh -user qasadm <password> -function HAFailoverToNode ""
    
    # run as root
    # Remove failed actions for the ERS that occurred as part of the migration
    anftstsapcl1:~ # crm resource cleanup rsc_sap_QAS_ERS01
    # Remove migration constraints
    anftstsapcl1:~ # crm resource clear rsc_sap_QAS_ASCS00
    #INFO: Removed migration constraints for rsc_sap_QAS_ASCS00
    

    Estado de recursos após o teste:

    
     Resource Group: g-QAS_ASCS
         fs_QAS_ASCS        (ocf::heartbeat:Filesystem):    Started anftstsapcl2
         nc_QAS_ASCS        (ocf::heartbeat:azure-lb):      Started anftstsapcl2
         vip_QAS_ASCS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl2
         rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance):   Started anftstsapcl2
    stonith-sbd     (stonith:external/sbd): Started anftstsapcl1
     Resource Group: g-QAS_ERS
         fs_QAS_ERS (ocf::heartbeat:Filesystem):    Started anftstsapcl1
         nc_QAS_ERS (ocf::heartbeat:azure-lb):      Started anftstsapcl1
         vip_QAS_ERS        (ocf::heartbeat:IPaddr2):       Started anftstsapcl1
         rsc_sap_QAS_ERS01  (ocf::heartbeat:SAPInstance):   Started anftstsapcl1
    
  4. Simular queda de nó

    Estado de recursos antes de iniciar o teste:

    
     Resource Group: g-QAS_ASCS
         fs_QAS_ASCS        (ocf::heartbeat:Filesystem):    Started anftstsapcl2
         nc_QAS_ASCS        (ocf::heartbeat:azure-lb):      Started anftstsapcl2
         vip_QAS_ASCS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl2
         rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance):   Started anftstsapcl2
    stonith-sbd     (stonith:external/sbd): Started anftstsapcl1
     Resource Group: g-QAS_ERS
         fs_QAS_ERS (ocf::heartbeat:Filesystem):    Started anftstsapcl1
         nc_QAS_ERS (ocf::heartbeat:azure-lb):      Started anftstsapcl1
         vip_QAS_ERS        (ocf::heartbeat:IPaddr2):       Started anftstsapcl1
         rsc_sap_QAS_ERS01  (ocf::heartbeat:SAPInstance):   Started anftstsapcl1
    

    Executar o seguinte comando como raiz no nó onde a instância ASCS está em execução

    anftstsapcl2:~ # echo b > /proc/sysrq-trigger
    

    Se utilizar o SBD, o Pacemaker não deve iniciar automaticamente o nó morto. O estado após o nó recomeçar deve ser assim.

    Online:
    Online: [ anftstsapcl1 ]
    OFFLINE: [ anftstsapcl2 ]
    
    Full list of resources:
    
     Resource Group: g-QAS_ASCS
         fs_QAS_ASCS        (ocf::heartbeat:Filesystem):    Started anftstsapcl1
         nc_QAS_ASCS        (ocf::heartbeat:azure-lb):      Started anftstsapcl1
         vip_QAS_ASCS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl1
         rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance):   Started anftstsapcl1
    stonith-sbd     (stonith:external/sbd): Started anftstsapcl1
     Resource Group: g-QAS_ERS
         fs_QAS_ERS (ocf::heartbeat:Filesystem):    Started anftstsapcl1
         nc_QAS_ERS (ocf::heartbeat:azure-lb):      Started anftstsapcl1
         vip_QAS_ERS        (ocf::heartbeat:IPaddr2):       Started anftstsapcl1
         rsc_sap_QAS_ERS01  (ocf::heartbeat:SAPInstance):   Started anftstsapcl1
    
    Failed Actions:
    * rsc_sap_QAS_ERS01_monitor_11000 on anftstsapcl1 'not running' (7): call=166, status=complete, exitreason='',
     last-rc-change='Fri Mar  8 18:26:10 2019', queued=0ms, exec=0ms
    

    Use os seguintes comandos para iniciar o Pacemaker no nó morto, limpe as mensagens SBD e limpe os recursos falhados.

    
    # run as root
    # list the SBD device(s)
    anftstsapcl2:~ # cat /etc/sysconfig/sbd | grep SBD_DEVICE=
    # SBD_DEVICE="/dev/disk/by-id/scsi-36001405b730e31e7d5a4516a2a697dcf;/dev/disk/by-id/scsi-36001405f69d7ed91ef54461a442c676e;/dev/disk/by-id/scsi-360014058e5f335f2567488882f3a2c3a"
    
    anftstsapcl2:~ # sbd -d /dev/disk/by-id/scsi-36001405772fe8401e6240c985857e11 -d /dev/disk/by-id/scsi-36001405f69d7ed91ef54461a442c676e -d /dev/disk/by-id/scsi-360014058e5f335f2567488882f3a2c3a message anftstsapcl2 clear
    
    anftstsapcl2:~ # systemctl start pacemaker
    anftstsapcl2:~ # crm resource cleanup rsc_sap_QAS_ASCS00
    anftstsapcl2:~ # crm resource cleanup rsc_sap_QAS_ERS01
    

    Estado de recursos após o teste:

    
    Full list of resources:
    
     Resource Group: g-QAS_ASCS
         fs_QAS_ASCS        (ocf::heartbeat:Filesystem):    Started anftstsapcl1
         nc_QAS_ASCS        (ocf::heartbeat:azure-lb):      Started anftstsapcl1
         vip_QAS_ASCS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl1
         rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance):   Started anftstsapcl1
    stonith-sbd     (stonith:external/sbd): Started anftstsapcl1
     Resource Group: g-QAS_ERS
         fs_QAS_ERS (ocf::heartbeat:Filesystem):    Started anftstsapcl2
         nc_QAS_ERS (ocf::heartbeat:azure-lb):      Started anftstsapcl2
         vip_QAS_ERS        (ocf::heartbeat:IPaddr2):       Started anftstsapcl2
         rsc_sap_QAS_ERS01  (ocf::heartbeat:SAPInstance):   Started anftstsapcl2
    
  5. Reiniciar manual de teste da instância ASCS

    Estado de recursos antes de iniciar o teste:

    
     Resource Group: g-QAS_ASCS
         fs_QAS_ASCS        (ocf::heartbeat:Filesystem):    Started anftstsapcl2
         nc_QAS_ASCS        (ocf::heartbeat:azure-lb):      Started anftstsapcl2
         vip_QAS_ASCS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl2
         rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance):   Started anftstsapcl2
    stonith-sbd     (stonith:external/sbd): Started anftstsapcl1
     Resource Group: g-QAS_ERS
         fs_QAS_ERS (ocf::heartbeat:Filesystem):    Started anftstsapcl1
         nc_QAS_ERS (ocf::heartbeat:azure-lb):      Started anftstsapcl1
         vip_QAS_ERS        (ocf::heartbeat:IPaddr2):       Started anftstsapcl1
         rsc_sap_QAS_ERS01  (ocf::heartbeat:SAPInstance):   Started anftstsapcl1
    

    Crie um bloqueio de enqueue, por exemplo, editar um utilizador em transação su01. Executar os seguintes comandos como <adm sapsid>no nó onde a instância ASCS está em execução. Os comandos irão parar a instância ASCS e reiniciá-la. Se utilizar a arquitetura do servidor 1 do enqueue, espera-se que o bloqueio de enqueue seja perdido neste teste. Se utilizar a arquitetura do servidor 2 do enqueue, o enqueue será mantido.

    anftstsapcl2:qasadm 51> sapcontrol -nr 00 -function StopWait 600 2
    

    A instância ASCS deve agora ser desativada no Pacemaker

      rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance):   Stopped (disabled)
    

    Inicie novamente a instância ASCS no mesmo nó.

    anftstsapcl2:qasadm 52> sapcontrol -nr 00 -function StartWait 600 2
    

    O bloqueio de enqueue da transação su01 deve ser perdido, se a utilização da replicação do servidor enqueue 1 arquitetura e o back-end deve ter sido reiniciado. Estado de recursos após o teste:

    
     Resource Group: g-QAS_ASCS
         fs_QAS_ASCS        (ocf::heartbeat:Filesystem):    Started anftstsapcl2
         nc_QAS_ASCS        (ocf::heartbeat:azure-lb):      Started anftstsapcl2
         vip_QAS_ASCS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl2
         rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance):   Started anftstsapcl2
    stonith-sbd     (stonith:external/sbd): Started anftstsapcl1
     Resource Group: g-QAS_ERS
         fs_QAS_ERS (ocf::heartbeat:Filesystem):    Started anftstsapcl1
         nc_QAS_ERS (ocf::heartbeat:azure-lb):      Started anftstsapcl1
         vip_QAS_ERS        (ocf::heartbeat:IPaddr2):       Started anftstsapcl1
         rsc_sap_QAS_ERS01  (ocf::heartbeat:SAPInstance):   Started anftstsapcl1
    
  6. Desa um processo de servidor de mensagens

    Estado de recursos antes de iniciar o teste:

    
     Resource Group: g-QAS_ASCS
         fs_QAS_ASCS        (ocf::heartbeat:Filesystem):    Started anftstsapcl2
         nc_QAS_ASCS        (ocf::heartbeat:azure-lb):      Started anftstsapcl2
         vip_QAS_ASCS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl2
         rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance):   Started anftstsapcl2
    stonith-sbd     (stonith:external/sbd): Started anftstsapcl1
     Resource Group: g-QAS_ERS
         fs_QAS_ERS (ocf::heartbeat:Filesystem):    Started anftstsapcl1
         nc_QAS_ERS (ocf::heartbeat:azure-lb):      Started anftstsapcl1
         vip_QAS_ERS        (ocf::heartbeat:IPaddr2):       Started anftstsapcl1
         rsc_sap_QAS_ERS01  (ocf::heartbeat:SAPInstance):   Started anftstsapcl1
    

    Executar os seguintes comandos como raiz para identificar o processo do servidor de mensagem e matá-lo.

    anftstsapcl2:~ # pgrep ms.sapQAS | xargs kill -9
    

    Se só desligar o servidor de mensagens uma vez, será reiniciado por sapstart. Se o matares com frequência, o Pacemaker irá eventualmente mover a instância ASCS para o outro nó. Executar os seguintes comandos como raiz para limpar o estado de recursos da instância ASCS e ERS após o teste.

    
    anftstsapcl2:~ # crm resource cleanup rsc_sap_QAS_ASCS00
    anftstsapcl2:~ # crm resource cleanup rsc_sap_QAS_ERS01
    

    Estado de recursos após o teste:

    
     Resource Group: g-QAS_ASCS
         fs_QAS_ASCS        (ocf::heartbeat:Filesystem):    Started anftstsapcl1
         nc_QAS_ASCS        (ocf::heartbeat:azure-lb):      Started anftstsapcl1
         vip_QAS_ASCS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl1
         rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance):   Started anftstsapcl1
    stonith-sbd     (stonith:external/sbd): Started anftstsapcl1
     Resource Group: g-QAS_ERS
         fs_QAS_ERS (ocf::heartbeat:Filesystem):    Started anftstsapcl2
         nc_QAS_ERS (ocf::heartbeat:azure-lb):      Started anftstsapcl2
         vip_QAS_ERS        (ocf::heartbeat:IPaddr2):       Started anftstsapcl2
         rsc_sap_QAS_ERS01  (ocf::heartbeat:SAPInstance):   Started anftstsapcl2
    
  7. Kill enqueue servidor process

    Estado de recursos antes de iniciar o teste:

    
     Resource Group: g-QAS_ASCS
         fs_QAS_ASCS        (ocf::heartbeat:Filesystem):    Started anftstsapcl1
         nc_QAS_ASCS        (ocf::heartbeat:azure-lb):      Started anftstsapcl1
         vip_QAS_ASCS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl1
         rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance):   Started anftstsapcl1
    stonith-sbd     (stonith:external/sbd): Started anftstsapcl1
     Resource Group: g-QAS_ERS
         fs_QAS_ERS (ocf::heartbeat:Filesystem):    Started anftstsapcl2
         nc_QAS_ERS (ocf::heartbeat:azure-lb):      Started anftstsapcl2
         vip_QAS_ERS        (ocf::heartbeat:IPaddr2):       Started anftstsapcl2
         rsc_sap_QAS_ERS01  (ocf::heartbeat:SAPInstance):   Started anftstsapcl2
    

    Executar os seguintes comandos como raiz no nó onde a instância ASCS está em execução para matar o servidor de enqueue.

    
    #If using ENSA1
    anftstsapcl1:~ # pgrep en.sapQAS | xargs kill -9
    #If using ENSA2
    anftstsapcl1:~ # pgrep -f enq.sapQAS | xargs kill -9
    

    A instância ASCS deve falhar imediatamente com o outro nó, no caso da ENSA1. A instância ERS também deve ser chumbada após o início da instância ASCS. Executar os seguintes comandos como raiz para limpar o estado de recursos da instância ASCS e ERS após o teste.

    
    anftstsapcl1:~ # crm resource cleanup rsc_sap_QAS_ASCS00
    anftstsapcl1:~ # crm resource cleanup rsc_sap_QAS_ERS01
    

    Estado de recursos após o teste:

    
     Resource Group: g-QAS_ASCS
         fs_QAS_ASCS        (ocf::heartbeat:Filesystem):    Started anftstsapcl2
         nc_QAS_ASCS        (ocf::heartbeat:azure-lb):      Started anftstsapcl2
         vip_QAS_ASCS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl2
         rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance):   Started anftstsapcl2
    stonith-sbd     (stonith:external/sbd): Started anftstsapcl1
     Resource Group: g-QAS_ERS
         fs_QAS_ERS (ocf::heartbeat:Filesystem):    Started anftstsapcl1
         nc_QAS_ERS (ocf::heartbeat:azure-lb):      Started anftstsapcl1
         vip_QAS_ERS        (ocf::heartbeat:IPaddr2):       Started anftstsapcl1
         rsc_sap_QAS_ERS01  (ocf::heartbeat:SAPInstance):   Started anftstsapcl1
    
  8. Kill enqueue processo de servidor de replicação

    Estado de recursos antes de iniciar o teste:

    
     Resource Group: g-QAS_ASCS
         fs_QAS_ASCS        (ocf::heartbeat:Filesystem):    Started anftstsapcl2
         nc_QAS_ASCS        (ocf::heartbeat:azure-lb):      Started anftstsapcl2
         vip_QAS_ASCS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl2
         rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance):   Started anftstsapcl2
    stonith-sbd     (stonith:external/sbd): Started anftstsapcl1
     Resource Group: g-QAS_ERS
         fs_QAS_ERS (ocf::heartbeat:Filesystem):    Started anftstsapcl1
         nc_QAS_ERS (ocf::heartbeat:azure-lb):      Started anftstsapcl1
         vip_QAS_ERS        (ocf::heartbeat:IPaddr2):       Started anftstsapcl1
         rsc_sap_QAS_ERS01  (ocf::heartbeat:SAPInstance):   Started anftstsapcl1
    

    Executar o seguinte comando como raiz no nó onde a instância ERS está correndo para matar o processo do servidor de replicação enqueue.

    anftstsapcl1:~ # pgrep er.sapQAS | xargs kill -9
    

    Se executar apenas o comando uma vez, sapstart reiniciará o processo. Se o executar com frequência, sapstart não reiniciará o processo e o recurso estará num estado parado. Executar os seguintes comandos como raiz para limpar o estado de recurso da instância ERS após o teste.

    anftstsapcl1:~ # crm resource cleanup rsc_sap_QAS_ERS01
    

    Estado de recursos após o teste:

    
     Resource Group: g-QAS_ASCS
         fs_QAS_ASCS        (ocf::heartbeat:Filesystem):    Started anftstsapcl2
         nc_QAS_ASCS        (ocf::heartbeat:azure-lb):      Started anftstsapcl2
         vip_QAS_ASCS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl2
         rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance):   Started anftstsapcl2
    stonith-sbd     (stonith:external/sbd): Started anftstsapcl1
     Resource Group: g-QAS_ERS
         fs_QAS_ERS (ocf::heartbeat:Filesystem):    Started anftstsapcl1
         nc_QAS_ERS (ocf::heartbeat:azure-lb):      Started anftstsapcl1
         vip_QAS_ERS        (ocf::heartbeat:IPaddr2):       Started anftstsapcl1
         rsc_sap_QAS_ERS01  (ocf::heartbeat:SAPInstance):   Started anftstsapcl1
    
  9. Kill enqueue processo sapstartsrv

    Estado de recursos antes de iniciar o teste:

    
     Resource Group: g-QAS_ASCS
         fs_QAS_ASCS        (ocf::heartbeat:Filesystem):    Started anftstsapcl2
         nc_QAS_ASCS        (ocf::heartbeat:azure-lb):      Started anftstsapcl2
         vip_QAS_ASCS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl2
         rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance):   Started anftstsapcl2
    stonith-sbd     (stonith:external/sbd): Started anftstsapcl1
     Resource Group: g-QAS_ERS
         fs_QAS_ERS (ocf::heartbeat:Filesystem):    Started anftstsapcl1
         nc_QAS_ERS (ocf::heartbeat:azure-lb):      Started anftstsapcl1
         vip_QAS_ERS        (ocf::heartbeat:IPaddr2):       Started anftstsapcl1
         rsc_sap_QAS_ERS01  (ocf::heartbeat:SAPInstance):   Started anftstsapcl1
    

    Executar os seguintes comandos como raiz no nó onde o ASCS está em funcionamento.

    
    anftstsapcl2:~ # pgrep -fl ASCS00.*sapstartsrv
    #67625 sapstartsrv
    
    anftstsapcl2:~ # kill -9 67625
    

    O processo de sapstartsrv deve ser sempre reiniciado pelo agente de recursos Pacemaker. Estado de recursos após o teste:

    
     Resource Group: g-QAS_ASCS
         fs_QAS_ASCS        (ocf::heartbeat:Filesystem):    Started anftstsapcl2
         nc_QAS_ASCS        (ocf::heartbeat:azure-lb):      Started anftstsapcl2
         vip_QAS_ASCS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl2
         rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance):   Started anftstsapcl2
    stonith-sbd     (stonith:external/sbd): Started anftstsapcl1
     Resource Group: g-QAS_ERS
         fs_QAS_ERS (ocf::heartbeat:Filesystem):    Started anftstsapcl1
         nc_QAS_ERS (ocf::heartbeat:azure-lb):      Started anftstsapcl1
         vip_QAS_ERS        (ocf::heartbeat:IPaddr2):       Started anftstsapcl1
         rsc_sap_QAS_ERS01  (ocf::heartbeat:SAPInstance):   Started anftstsapcl1
    

Passos seguintes