Esta solução demonstra como obter o dimensionamento entre clusters de cargas de trabalho implantadas em uma infraestrutura híbrida. Essa solução é obtida aplicando os recursos de escalabilidade e gerenciamento dos serviços habilitados para Azure Arc em clusters HCI do Azure Stack.
Arquitetura
A arquitetura mostra a implantação de soluções híbridas usando serviços habilitados para Arco do Azure no Azure Stack HCI, Azure Pipelines e a integração de um balanceador de carga global e um Aplicativo de Função do Azure.
Transfira um ficheiro do Visio desta arquitetura.
Fluxo de Trabalho
A arquitetura consiste nas seguintes etapas:
Dois clusters HCI do Azure Stack são configurados em dois locais diferentes: o Azure Stack HCI (HCI1) serve como infraestrutura local primária e o Azure Stack HCI (HCI2) como infraestrutura local secundária para executar cargas de trabalho.
Os clusters HCI do Azure Stack se conectam ao Azure via SD-WAN e são gerenciados por meio do Azure Arc e do Windows Admin Center. Como resultado, você pode estender os recursos do Azure para a infraestrutura local e usar as ferramentas e os serviços de gerenciamento do Azure para gerenciar e monitorar a infraestrutura local e a carga de trabalho.
O Serviço Kubernetes do Azure (AKS), implantado no Azure Stack HCI, é composto pelo cluster de gerenciamento (host AKS) e clusters de carga de trabalho (também conhecidos como clusters de destino) onde os aplicativos em contêineres são implantados. Consulte Arquitetura de linha de base do Serviço Kubernetes do Azure (AKS) para AKS no Azure Stack HCI.
O host do Serviço Kubernetes do Azure no Azure Stack HCI e cluster de carga de trabalho é implantado usando módulos AksHci PowerShell. Consulte Usar o PowerShell para configurar o Kubernetes em clusters HCI e Windows Server do Azure Stack.
A virtualização de recursos de rede é implementada aplicando recursos SDN do cluster HCI do Azure Stack. Ele implanta os recursos de infraestrutura de rede SDN necessários, como VMs Mux do Balanceador de Carga de Software, VMs de Gateway RAS e Controladores de Rede para maior disponibilidade de rede. Consulte Rede definida por software (SDN) no Azure Stack HCI e no Windows Server.
A infraestrutura AKS e as VMs de carga de trabalho são implantadas em uma rede virtual SDN com balanceamento de carga híbrido obtido por meio do SDN Software Load Balancer (SLB). Consulte Implantar o Microsoft Software Defined Networking (SDN) com o AKS no Azure Stack HCI.
O Azure Pipelines implanta os aplicativos front-end com as mesmas versões dos aplicativos em contêineres implantados em ambos os ambientes locais do Azure Stack HCI.
Os bancos de dados são hospedados em instâncias gerenciadas SQL habilitadas para Arc implantadas no AKS híbrido.
Um desenvolvedor empacota seus aplicativos como um contêiner a ser implantado em clusters AKS Hybrid usando Manifestos Kubernetes e Módulos AksHci PowerShell e automatiza tarefas de implantação por meio de Pipelines do Azure.
Uma solicitação de cliente para o aplicativo é direcionada por um serviço de balanceador de carga global, como o Azure Front Door ou o Azure Traffic Manager, que roteia a solicitação para o ponto de extremidade de serviço apropriado usando um método de roteamento de tráfego ponderado. Com base na porcentagem ponderada atribuída, o tráfego é distribuído para serviços implantados nos dois clusters híbridos AKS no Stack HCI.
O Traffic Manager e o Azure Front Door são opções viáveis para lidar com recursos globais de balanceamento de carga devido à presença de clusters em várias regiões. A seleção entre o Azure Front Door e o Traffic Manager depende de vários fatores, e a decisão de recomendar um em detrimento do outro requer uma consideração cuidadosa. Aqui estão alguns motivos para considerar diferentes serviços de balanceamento de carga:
- Se seus aplicativos voltados para a Internet usam HTTPS, o Azure Front Door é a opção preferível. Geralmente, o Gerenciador de Tráfego não é a principal escolha nesses casos. Embora possa haver exceções, cenários específicos estão além do escopo desta discussão.
- Se o seu objetivo principal for o balanceamento de carga global eficiente, o Gerenciador de Tráfego pode ser suficiente. Se você também precisar de otimização de entrega de conteúdo, segurança na camada de aplicativo e recursos de roteamento mais avançados, o Azure Front Door pode ser uma opção melhor.
- O Traffic Manager é mais simples de configurar e concentra-se principalmente no balanceamento de carga. O Azure Front Door oferece mais recursos, mas pode ter uma curva de aprendizado mais íngreme.
- Considere o seu tipo de aplicação. Se for mais centrado na Web e você precisar de otimizações como cache e terminação SSL, o Azure Front Door pode ser benéfico.
- Em relação ao roteamento baseado em DNS, a complexidade reduz ao lidar com o balanceamento de carga no nível do aplicativo. No entanto, é crucial observar que depender apenas do roteamento baseado em DNS pode levar a um aumento do tempo de inatividade durante uma falha, o que pode afetar negativamente os SLAs (Service Level Agreements, contratos de nível de serviço) de seus aplicativos. A decisão entre o Azure Front Door e o Traffic Manager deve considerar o SLA da sua solução DNS e se o seu aplicativo pode acomodar os diferentes tempos de failover entre as duas opções.
Os aplicativos de carga de trabalho implantados são monitorados para carregamento usando os serviços Azure Arc-Enabled, Azure Monitor e Log Analytic Workspace.
Em condições normais de carregamento, a solicitação do cliente é roteada para a instância do aplicativo hospedado localmente no ambiente HCI-1 do Azure Stack (ambiente de cluster primário).
As cargas de trabalho de cluster AKS habilitadas para Arc são projetadas para serem dimensionadas horizontalmente para várias instâncias usando o autoscaler integrado, que aumenta ou diminui automaticamente o número de nós no cluster AKS implantado com base na demanda.
O Container Insights está habilitado para capturar diagnósticos e monitorar o desempenho da carga de trabalho no cluster Kubernetes hospedado no Azure Stack HCIs.
Quando há um aumento no tráfego e o cluster de carga de trabalho no Azure Stack HCI-1 atinge sua contagem máxima de nós sem mais opções de dimensionamento de pod, ele gera um alerta para acionar um aplicativo Azure Function.
Uma regra de Alerta é configurada para monitorar o resultado de uma consulta Kusto personalizada, que verifica a contagem máxima de nós e a porcentagem de prontidão do pod das tabelas KubeNodeInventory e KubePodInventory Azure Monitor. Consulte Criar alertas de log a partir do Container insights.
O monitoramento do Kubernetes também pode ser executado usando regras de alerta pré-configuradas do Kubernetes Container insights. Você também pode aplicar as regras de métricas KubePodNotReady ou KubeHpaMaxedOut do Container insights para configurar as condições da regra de alerta. Consulte Regras de alerta de métricas em Insights de contêiner (visualização) e invoque o Aplicativo de Função do Azure por meio do Grupo de Ação do Alerta.
O Aplicativo Azure Function gerencia dinamicamente regras de roteamento de tráfego ponderado com base na condição do cluster primário e redireciona o tráfego para o cluster HCI-2 do Azure Stack.
- Você pode usar o Azure Function para calcular a porcentagem de tráfego que deve ser redirecionada com base nos limites de limite predefinidos de preparação do cluster e condições de tráfego. Isso pode ajudá-lo a se adaptar às mudanças rapidamente, automatizar tarefas, dimensionar recursos de forma eficiente e economizar dinheiro.
- O Azure Function ajuda a gerenciar regras de roteamento de tráfego dinamicamente. Essa funcionalidade garante alta disponibilidade, escalabilidade e desempenho, além de proporcionar uma experiência de usuário perfeita, mesmo durante picos de tráfego e cenários de failover. Por exemplo, a Distribuição de Tráfego inicial começa direcionando 100% do tráfego para o cluster primário quando ele está funcionando bem e é capaz de lidar com a carga. Quando o cluster primário está quase cheio ou sofre degradação de desempenho, você pode ajustar as regras de roteamento de tráfego no Azure Function. Isso redireciona parte do tráfego somente leitura para o cluster secundário.
As instâncias de aplicativo executadas em ambos os ambientes de cluster se conectam aos serviços de dados, como Instâncias Gerenciadas SQL habilitadas para arco, localmente dentro de seus respetivos clusters.
A sincronização de dados entre os clusters para Instâncias Gerenciadas do Arc SQL é governada pelo Grupo de Failover do Azure, que, por sua vez, usa os Grupos de Disponibilidade Distribuída. A sincronização entre clusters pode ser sincronizada ou assíncrona. Consulte Instância gerenciada SQL habilitada para Azure Arc.
No geral, esse fluxo de trabalho envolve a criação e implantação de aplicativos, balanceamento de carga, gerenciamento de tráfego, dimensionamento automático e sincronização de dados em vários ambientes de cluster. Essa configuração permite dimensionar a infraestrutura horizontalmente entre clusters em dois data centers ou locais diferentes, oferecendo segurança, redundância, flexibilidade e utilização eficiente de recursos.
Componentes
O Azure Front Door é um balanceador de carga de camada 7. Nessa arquitetura, ele roteia solicitações HTTP para os aplicativos Web implantados no Stack HCI Cluster. Você também pode usar um firewall de aplicativo Web (WAF) com o Azure Front Door, que protege o aplicativo contra explorações e vulnerabilidades comuns, e uma solução de Rede de Distribuição de Conteúdo (CDN) nesse design para reduzir a latência e melhorar o tempo de carregamento do conteúdo armazenando em cache o conteúdo nos pontos de presença.
O Traffic Manager é um balanceador de carga de tráfego baseado em DNS e uma opção viável de balanceamento de carga. Use-o para controlar a distribuição do tráfego de aplicativos para pontos de extremidade de serviço em diferentes data centers. Veja como funciona a configuração do Gerenciador de Tráfego:
- Configure o Gerenciador de Tráfego, uma solução global de balanceamento de carga no Azure, para distribuir o tráfego de entrada entre seus clusters HCI do Azure Stack. O Gerenciador de Tráfego pode ser configurado para usar diferentes métodos de balanceamento de carga, como desempenho, failover ou round-robin ponderado, dependendo dos requisitos.
- Crie pontos de extremidade do Gerenciador de Tráfego que correspondam aos pontos de extremidade de cargas de trabalho implantadas em clusters HCI do Azure Stack. Isso permite que o Gerenciador de Tráfego direcione o tráfego para o ponto de extremidade apropriado. Nesse cenário, o tráfego direto com base no método de balanceamento de carga de roteamento ponderado.
- Com base nas políticas de dimensionamento calculadas por meio de uma função do Azure, quando há necessidade de capacidade extra ou alta disponibilidade, o Gerenciador de Tráfego pode rotear dinamicamente o tráfego para outras instâncias com base nas regras de roteamento e suas porcentagens ponderadas.
O Application Insights coleta dados de telemetria de vários componentes implantados nessa solução híbrida. Ele fornece insights e análises que podem ser usados para identificar problemas, otimizar o desempenho e melhorar a experiência do usuário.
O Azure Functions atua como um orquestrador para a distribuição de tráfego. Ele monitora as condições de prontidão de cada cluster, avaliando fatores como utilização de recursos, latência e integridade. Com base nessa avaliação, o aplicativo de função decide para onde direcionar o tráfego de entrada.
O Azure Stack HCI é uma solução de cluster de infraestrutura hiperconvergente (HCI) que hospeda cargas de trabalho virtualizadas do Windows e Linux e seu armazenamento em um ambiente híbrido que combina infraestrutura local com serviços do Azure.
- A solução usa o Serviço Kubernetes do Azure habilitado para Arc no Azure Stack HCI (AKS-HCI) para hospedar o aplicativo Web ou APIs, Servidores Azure habilitados para Arc e Serviços de Dados habilitados para Arc em ambos os ambientes.
Os Serviços de DevOps do Azure servem como a espinha dorsal dessa estratégia de implantação de solução híbrida, fornecendo a automação e a orquestração necessárias para simplificar todo o ciclo de vida de entrega de software. Ele permite que as equipes de desenvolvimento se concentrem no fornecimento de código de alta qualidade enquanto o pipeline cuida da criação, teste e implantação de aplicativos.
Para implantar um cluster AKS no Azure Stack HCI, você pode configurar um servidor de compilação no Azure Pipelines. O servidor de compilação é responsável pela execução do processo de implantação.
a. Crie uma máquina virtual (VM) no Azure ou uma VM a partir do ambiente Stack HCI. Ou use uma VM local existente como seu servidor de compilação se ela tiver conectividade de rede com as infraestruturas híbridas.
b. Instale as ferramentas necessárias no servidor de compilação, como os módulos Git, CLI do Azure e Azure PowerShell.
c. Configure a autenticação para o Azure configurando entidades de serviço ou usando identidades gerenciadas.
O Azure Pipelines é um serviço que fornece CI/CD e gerencia agentes e definições de compilação e lançamento hospedados. O pipeline de desenvolvimento pode usar vários repositórios de código, incluindo GitHub, Bitbucket, Dropbox, OneDrive e Azure Repos.
O Azure Monitor coleta dados de telemetria e monitora o desempenho de clusters e cargas de trabalho. Ele também permite configurar alertas para acionar uma Função do Azure ou notificar um administrador se algum cluster não estiver íntegro ou se os limites predefinidos forem excedidos. Você pode usar a Automação do Azure ou os Aplicativos Lógicos do Azure para automatizar ações de dimensionamento com base nos dados de monitoramento.
A Política do Azure atua como um aplicador de governança e conformidade, garantindo que os clusters Stack HCI e os recursos SDN associados operem dentro das diretrizes e padrões definidos. Eis alguns exemplos para melhorar a segurança do ambiente através da Política do Azure:
- Impondo o Addon do Container Insight
- Instalação de extensões essenciais dentro de clusters Stack HCI
- Impondo a marcação de recursos
- Controle de acesso baseado em políticas
- Políticas relacionadas com a ligação em rede e a monitorização
O Registro de Contêiner do Azure é um serviço de registro do Docker gerenciado e privado no Azure. Use o Registro de Contêiner para armazenar imagens privadas do Docker, que são implantadas no cluster.
O Azure Arc estende os serviços do Azure para ambientes locais, permitindo que as organizações se beneficiem dos recursos de nuvem enquanto mantêm dados confidenciais em sua própria infraestrutura.
O Container insights é uma solução de monitoramento e observabilidade fornecida pelo Azure Monitor que permite obter informações sobre o desempenho e a integridade de contêineres executados em clusters AKS. Com o Azure Arc habilitado para AKS, você pode estender os recursos do Container insights para monitorar e gerenciar seus clusters AKS que estão sendo executados fora do Azure, como para ambientes locais ou multicloud.
Arc-Enabled SQL Managed Instances é um serviço de dados SQL do Azure que pode ser criado na infraestrutura Stack HCI e gerenciado usando o Azure Arc.
O Azure Key Vault permite-lhe armazenar e gerir chaves criptográficas, segredos e certificados de forma segura. Embora o Azure Key Vault seja principalmente um serviço de nuvem, ele também pode ser usado com implantações do Azure Stack HCI para armazenar e gerenciar informações confidenciais com segurança no local.
Infraestrutura SDN. Em uma implantação híbrida do AKS no Azure Stack HCI, o balanceamento de carga é obtido por meio do SDN do SLB (Software Load Balancer). O SLB gerencia a infraestrutura e os aplicativos AKS-HCI dentro da Rede Virtual SDN (Software-Defined Networking), incluindo os recursos de infraestrutura de rede SDN necessários, como VMs de balanceador de carga Mux, VMs de Gateway e Controladores de Rede.
Aqui está um detalhamento dos componentes envolvidos:
- Software Load Balancer (SLB): O SLB é um componente chave da infraestrutura AKS-HCI que fornece recursos de balanceamento de carga para distribuir o tráfego de rede para os aplicativos em execução no cluster. Ele opera na camada de transporte (Camada 4) e direciona o tráfego com base em regras configuradas.
- VMs Mux Load Balancer: As VMs Mux load balancer são máquinas virtuais que lidam com o tráfego de rede de entrada de fontes externas e o distribuem para os pods ou serviços de back-end apropriados dentro do cluster AKS-HCI. Eles trabalham com SLB para executar o balanceamento de carga.
- VMs de gateway: as VMs de gateway fornecem conectividade entre o cluster AKS-HCI e redes externas. Eles atuam como uma ponte entre a Rede Virtual SDN interna e as redes externas, permitindo que o tráfego de entrada e saída flua com segurança.
- Controladores de rede: Os controladores de rede são responsáveis pelo gerenciamento da infraestrutura SDN dentro do cluster AKS-HCI. Eles lidam com tarefas como imposição de diretiva de rede, configuração de rede e configuração de balanceador de carga.
Usando SLB, VMs de balanceador de carga Mux, VMs de gateway e controladores de rede, o AKS-HCI alcança o balanceamento de carga para implantações híbridas. Ele garante que o tráfego de rede de entrada seja distribuído de forma eficiente entre os aplicativos em execução no cluster, fornecendo alta disponibilidade e escalabilidade.
Nota
Esses componentes são gerenciados e configurados pelo AKS-HCI, permitindo que você se concentre na implantação e gerenciamento de seus aplicativos enquanto usa os recursos internos de balanceamento de carga da plataforma.
Alternativas
Para Aplicativo Web e serviços baseados em eventos, você pode executar o Serviço de Aplicativo, Funções e Aplicativos Lógicos em um cluster Kubernetes habilitado para Azure Arc hospedado no Azure Stack HCI. Para o banco de dados, você pode usar outra opção de armazenamento, como o servidor PostgreSQL habilitado para Azure Arc.
Para aplicativos Web, você pode usar o Azure Front Door. O Azure Front Door funciona na Camada 7, a camada HTTP/HTTPS. Ele usa o protocolo anycast com TCP dividido e a rede global da Microsoft para melhorar a conectividade global. Seu método de roteamento pode garantir que o Azure Front Door roteie suas solicitações de cliente para o back-end de aplicativo mais rápido e disponível.
Você pode usar o Azure ExpressRoute para conectar sua rede local diretamente aos recursos do Azure usando uma conexão de rede privada dedicada.
Se o repositório estiver no GitHub, você poderá usar as Ações do GitHub em vez dos Pipelines do Azure.
Detalhes do cenário
O objetivo principal é facilitar o dimensionamento entre clusters distribuindo efetivamente cargas de trabalho entre clusters situados em dois data centers ou locais diferentes. Essa abordagem evita a sobrecarga de qualquer cluster único e otimiza a utilização de recursos em todos os clusters. O Aplicativo de Função do Azure desempenha um papel fundamental na distribuição inteligente do tráfego com base nas condições de preparação do cluster, aprimorando assim a eficiência, a escalabilidade, a disponibilidade e o desempenho.
Esse cenário é aplicável para organizações que lidam com um conjunto rigoroso de restrições, regulamentos de soberania de dados ou necessidades cruciais de resiliência e continuidade de negócios ou que lidam com cargas de trabalho críticas em ambientes altamente restritos e regulamentados, como bancos, finanças, defesa e governo. Devido às políticas regulatórias e de conformidade das organizações, os aplicativos e bancos de dados são executados no local para evitar a exposição de dados confidenciais ou confidenciais na nuvem pública. Esta solução é útil quando:
Os aplicativos locais experimentam picos de uso durante a alta temporada e o dimensionamento automático dentro do cluster, mas o cluster principal atinge 100% de capacidade e deseja desviar o tráfego de estouro para outro cluster de data center sem interromper nenhuma execução de serviço.
Você deseja resolver o redirecionamento do tráfego do aplicativo/API automaticamente para o ambiente local disponível mais próximo.
Você deseja simplificar a governança e o gerenciamento da configuração local e acessar serviços de nuvem relevantes que são filtrados por meio de um firewall ou servidor proxy de forma consistente e segura por meio dos serviços habilitados para Azure Arc implantados no Azure Stack HCI.
Potenciais casos de utilização
- Você deseja implementar cargas de trabalho altamente disponíveis, escaláveis, seguras e restritas em um ambiente de cluster HCI do Azure Stack local.
- Você deseja dimensionamento dinâmico de aplicativos em execução entre os datacenters sempre que os aplicativos locais experimentarem picos em seus usos.
- Você deseja aplicar a automação baseada em nuvem com gerenciamento, governança e monitoramento centralizados.
- Você tem componentes locais e deseja usar outra configuração local para dimensioná-los.
- Você deseja que a escalabilidade dinâmica entre clusters execute seus aplicativos no local até o momento em que possa estender o dimensionamento de suas cargas de trabalho para instâncias de nuvem.
Considerações
Essas considerações implementam os pilares do Azure Well-Architected Framework, que é um conjunto de princípios orientadores que podem ser usados para melhorar a qualidade de uma carga de trabalho. Para obter mais informações, consulte Microsoft Azure Well-Architected Framework.
Fiabilidade
A confiabilidade garante que seu aplicativo possa atender aos compromissos que você assume com seus clientes. Para obter mais informações, consulte Visão geral do pilar de confiabilidade.
Uma empresa pode adotar uma abordagem híbrida para manter seus sistemas, mantendo aplicativos e recursos no local por motivos regulatórios e de desempenho. Se quiserem aplicar os recursos de nuvem do Azure, eles podem implantar a mesma versão de aplicativos hospedados no Cluster HCI do Azure em várias regiões. Ao fazê-lo, cumpre a sua conformidade de serviços altamente disponíveis e escaláveis.
Segurança
A segurança oferece garantias contra ataques deliberados e o abuso de seus valiosos dados e sistemas. Para obter mais informações, consulte Visão geral do pilar de segurança.
Ao implantar o AKS-HCI, é essencial considerar as práticas de segurança para ajudar a proteger seus aplicativos e infraestrutura. Aqui estão algumas considerações de segurança importantes para o AKS-HCI:
Acesso seguro ao cluster
- Limite o acesso ao cluster AKS-HCI seguindo o princípio do menor privilégio. Conceda apenas as permissões necessárias a usuários, grupos ou contas de serviço.
- Use mecanismos de autenticação forte, como integração do Microsoft Entra, Microsoft Entra Pod Identity ou controle de acesso baseado em função do Kubernetes (Kubernetes RBAC) para controlar o acesso ao cluster e seus recursos.
- Considere a implementação da autenticação multifator (MFA) para acesso ao cluster para adicionar uma camada extra de segurança.
Segurança de rede
- Implemente segmentação e isolamento de rede no cluster AKS-HCI usando políticas de rede do Kubernetes ou grupos de segurança de rede do Azure.
- Controle o tráfego de entrada e saída com firewalls de nível de rede, como o Firewall do Azure, e restrinja o acesso com base na lista de permissões de IP ou no emparelhamento de rede virtual.
- Criptografe o tráfego de rede entre serviços usando a autenticação TLS (Transport Layer Security) ou TLS mútua (mTLS).
Segurança de imagem de contêiner
- Use imagens de contêiner seguras de fontes confiáveis e atualize-as regularmente com os patches de segurança e correções de vulnerabilidade mais recentes.
- Implemente ferramentas de verificação de imagens e avaliação de vulnerabilidades para identificar e corrigir quaisquer problemas de segurança em imagens de contêiner.
- Use mecanismos de assinatura e verificação de imagens de contêiner para garantir a integridade e autenticidade das imagens.
Gestão de segredos
- Evite codificar informações confidenciais (como senhas, chaves de API ou cadeias de conexão) no código do aplicativo ou nos arquivos de configuração.
- Use o Azure Key Vault ou uma solução segura de gerenciamento de segredos para armazenar e recuperar informações confidenciais com segurança.
- Use os segredos do Kubernetes ou a integração do Azure Key Vault para injetar segredos com segurança em seus contêineres de aplicativos.
Registos e monitorização
- Implemente o registo e monitorização centralizados para clusters AKS-HCI utilizando o Azure Monitor ou soluções de terceiros.
- Configure logs de auditoria, logs de contêiner e logs do sistema para capturar eventos críticos de segurança.
- Configure mecanismos de alerta e notificação para detetar e responder proativamente a incidentes ou anomalias de segurança.
Atualizações regulares e aplicação de patches
- Mantenha os nós de cluster AKS-HCI e a infraestrutura subjacente atualizados com os patches e atualizações de segurança mais recentes.
- Estabeleça um processo de gerenciamento de patches para garantir a aplicação oportuna de correções de segurança.
Considerações regulatórias e de conformidade
- Compreenda e cumpra as regulamentações de segurança e conformidade relevantes específicas do setor (como HIPAA ou PCI DSS) com base nos requisitos da sua organização.
- Implemente controles e práticas de segurança para atender aos padrões de conformidade aplicáveis ao seu setor.
Otimização de custos
A otimização de custos consiste em procurar formas de reduzir despesas desnecessárias e melhorar a eficiência operacional. Para obter mais informações, consulte Visão geral do pilar de otimização de custos.
Algumas considerações de otimização de custo para implantar serviços habilitados para Arc no Azure Stack HCI:
- Dimensione corretamente os nós do cluster AKS-HCI com base nos requisitos reais da carga de trabalho para evitar o provisionamento excessivo ou a subutilização.
- O AKS-HCI Autoscaling ajuda a otimizar a alocação de recursos e reduz os custos durante períodos de baixa demanda. Configure o dimensionamento automático de pods horizontal (HPA) com base em padrões de demanda e carga de trabalho para dimensionar automaticamente o número de pods em seu cluster AKS-HCI.
- Otimização do armazenamento:
- Escolha as opções de armazenamento apropriadas com base nos requisitos da carga de trabalho e nas necessidades de desempenho.
- Considere usar o Armazenamento em Disco do Azure para volumes persistentes ou Arquivos do Azure para armazenamento de arquivos compartilhados.
- Otimize as configurações de armazenamento, como ajustar o tamanho e o tipo de discos com base nas demandas de carga de trabalho.
- Marcação e gestão de grupos de recursos:
- Implemente a marcação de recursos consistente para controlar e categorizar recursos.
- Use grupos de recursos para organizar logicamente os recursos, facilitando o gerenciamento e o controle de custos.
- Monitorização e otimização contínua de custos:
- Analise regularmente os relatórios de custos e painéis fornecidos pelo Microsoft Cost Management para identificar oportunidades de economia de custos e otimizar os gastos.
- Use ferramentas como o Azure Advisor para receber recomendações para otimizar a utilização de recursos, melhorar a segurança e reduzir custos.
- Reduza os esforços de implantação e manutenção com os Serviços de DevOps do Azure.
Excelência operacional
A excelência operacional abrange os processos operacionais que implantam um aplicativo e o mantêm em execução na produção. Para obter mais informações, consulte Visão geral do pilar de excelência operacional.
Eficiência de desempenho
Eficiência de desempenho é a capacidade da sua carga de trabalho para dimensionar para satisfazer as exigências que os utilizadores lhe colocam de forma eficiente. Para obter mais informações, consulte Visão geral do pilar de eficiência de desempenho.
O principal benefício do dimensionamento entre clusters é a capacidade de fornecer dimensionamento sob demanda com ambientes locais, juntamente com controle total sobre a configuração dentro da rede segura da sua organização.
Contribuidores
Este artigo é mantido pela Microsoft. Foi originalmente escrito pelos seguintes contribuidores.
Principais autores:
Mayuri Bhavsar - Brasil | Arquiteto de Soluções Cloud Sênior
Vidya Narasimhan - Brasil | Arquiteto Principal de Soluções na Nuvem
Outros contribuidores:
Himanshu Amodwala - Brasil | Arquiteto de Soluções Cloud Sênior
Nakul Joshi - Brasil | Gerente Principal de Engenharia de Software
Vineeth Marar - Brasil | Arquiteto de Soluções Cloud Sênior
Para ver perfis não públicos do LinkedIn, inicie sessão no LinkedIn.
Próximos passos
- Padrão Kubernetes de alta disponibilidade usando o Azure e o Azure Stack Hub
- Documentação do Serviço Kubernetes do Azure (AKS)