Configuration requise pour Azure Stack HCI

S’applique à : Azure Stack HCI, versions 22H2 et 21H2

Cet article décrit la configuration système requise pour les serveurs, le stockage et la mise en réseau pour Azure Stack HCI. Notez que si vous achetez du matériel de solution système intégré Azure Stack HCI à partir du catalogue Azure Stack HCI, vous pouvez passer aux exigences de mise en réseau , car le matériel respecte déjà les exigences de serveur et de stockage.

Conditions requises pour Azure

Voici les exigences Azure pour votre cluster Azure Stack HCI :

  • Abonnement Azure : si vous n’avez pas encore de compte Azure, créez-en un. Vous pouvez utiliser un abonnement existant de n’importe quel type :

  • Autorisations Azure : assurez-vous que les rôles suivants vous sont attribués dans votre abonnement Azure : Administrateur de l’accès utilisateur et Contributeur. Pour plus d’informations sur l’attribution d’autorisations, consultez Attribuer des autorisations Azure pour l’inscription.

  • Régions Azure

    Le service Azure Stack HCI est utilisé pour l’inscription, la facturation et la gestion. Il est actuellement pris en charge dans les régions suivantes :

    Ces régions publiques prennent en charge les emplacements géographiques du monde entier pour les clusters déployés n’importe où dans le monde :

    • USA Est
    • États-Unis - partie centrale méridionale
    • Centre du Canada
    • Europe Ouest
    • Asie Sud-Est
    • Inde centrale
    • Japon Est
    • Australie Est

Régions prises en charge pour les fonctionnalités supplémentaires d’Azure Stack HCI :

Actuellement, la gestion des machines virtuelles Azure Arc prend uniquement en charge les régions suivantes pour l’inscription Azure Stack HCI :

  • USA Est
  • Europe Ouest

Configuration requise au niveau du serveur

Un cluster Azure Stack HCI standard nécessite au minimum un serveur et un maximum de 16 serveurs.

Tenez compte de ce qui suit pour les différents types de déploiements Azure Stack HCI :

  • Il est nécessaire que tous les serveurs soient le même fabricant et le même modèle, à l’aide de processeurs Intel Nehalem 64 bits, AMD EPYC ou compatibles avec des processeurs compatibles avec la traduction d’adresses (SLAT) de second niveau. Un processeur Intel Xeon évolutif de 2e génération est nécessaire pour prendre en charge la mémoire persistante Intel Optane DC. Les processeurs doivent avoir au moins 1,4 GHz et être compatibles avec le jeu d’instructions x64.

  • Veillez à ce que les serveurs disposent d’au moins 32 Go de RAM par nœud pour s’adapter au système d’exploitation du serveur, aux machines virtuelles et à d’autres applications ou charges de travail. En outre, autorisez 4 Go de RAM par téraoctet (To) de capacité de lecteur de cache sur chaque serveur pour les métadonnées des espaces de stockage direct.

  • Vérifiez que la prise en charge de la virtualisation est activée dans le BIOS ou l’UEFI :

    • Assistance matérielle à la virtualisation. Cette virtualisation est disponible avec les processeurs qui incluent une option de virtualisation, plus spécifiquement les processeurs dotés de la technologie Intel VT (Intel Virtualization Technology) ou AMD-V (AMD Virtualization).
    • La prévention de l’exécution des données (DEP) appliquée par le matériel doit être disponible et activée. Pour les systèmes Intel, il s’agit du composant XD Bit (Execute Disable Bit). Pour les systèmes AMD, il s’agit du composant NX Bit (No Execute Bit).
  • Vérifiez que tous les serveurs se trouvent dans le même fuseau horaire que votre contrôleur de domaine local.

  • Vous pouvez utiliser n’importe quel périphérique de démarrage pris en charge par Windows Server, qui contient à présent SATADOM. Raid 1 miroir n’est pas obligatoire, mais est pris en charge pour le démarrage. Une taille minimale de 200 Go est recommandée.

  • Pour obtenir des spécifications supplémentaires relatives aux fonctionnalités pour Hyper-V, consultez Configuration système requise pour Hyper-V sur Windows Server.

Exigences de stockage

Azure Stack HCI fonctionne avec les lecteurs SATA, SAS, NVMe ou à mémoire persistante en attachement direct qui sont physiquement attachés à un seul serveur chacun.

Pour obtenir les meilleurs résultats, respectez ce qui suit :

  • Chaque serveur de cluster doit présenter les mêmes types de lecteurs et le même nombre de chaque type. Il est également recommandé (mais pas obligatoire) d’opter pour des lecteurs de même taille et de même modèle. Les lecteurs peuvent être internes au serveur ou dans un boîtier externe connecté à un seul serveur. Pour plus d’informations, consultez la page sur les Considérations relatives à la symétrie de lecteur.

  • Chaque serveur du cluster doit avoir des volumes dédiés pour les journaux, avec un stockage de journal au moins aussi rapide que le stockage de données. Les clusters étendus nécessitent au moins deux volumes : un pour les données répliquées et un pour les données de journal.

  • SCSI Enclosure Services (SES) est requis pour le mappage et l’identification des emplacements. Chaque boîtier externe doit présenter un identificateur unique (ID unique).

    Important

    NON PRIS EN CHARGE : Les cartes de contrôleur RAID ou le stockage SAN (Fibre Channel, iSCSI, FCoE), les boîtiers SAS partagés connectés à plusieurs serveurs, ou toute forme de MPIO (Multipath IO) où les lecteurs sont accessibles par plusieurs chemins d’accès. Les cartes de bus hôte (HBA) doivent implémenter un mode Pass-through simple pour tous les dispositifs de stockage utilisés pour les espaces de stockage direct.

Configuration requise du réseau

Un cluster Azure Stack HCI requiert une connexion réseau fiable à bande passante élevée et à faible latence entre chaque nœud serveur.

  • Vérifiez qu’au moins une carte réseau est disponible et dédiée à la gestion du cluster.
  • Vérifiez que les commutateurs physiques de votre réseau sont configurés pour autoriser le trafic sur tous les réseaux locaux virtuels que vous allez utiliser.

Pour connaître la configuration requise et les éléments à prendre en compte pour les réseaux physiques, consultez Configuration requise des réseaux virtuels.

Pour plus d’informations sur la mise en réseau d’hôtes et les exigences associées, consultez Exigences liées aux réseaux d’hôtes.

Les clusters étendus nécessitent le déploiement de serveurs sur deux sites distincts. Les sites peuvent se trouver dans différents pays/régions, différentes villes, différents étages ou différentes salles. Pour la réplication synchrone, vous devez disposer d’un réseau entre les serveurs avec suffisamment de bande passante pour contenir votre charge de travail d’écriture d’E/S et une latence d’aller-retour moyenne de 5 ms ou moins. La réplication asynchrone n’a pas de recommandation de latence.

  • Un cluster étendu nécessite un minimum de 4 serveurs (2 par site) et un maximum de 16 serveurs (8 par site). Vous ne pouvez pas créer un cluster étendu avec deux serveurs uniques.
  • Chaque site doit avoir le même nombre de serveurs et de lecteurs.
  • SDN n’est pas pris en charge sur les clusters étendus.

Pour plus d’informations sur la configuration réseau des clusters étendus, consultez Configuration requise pour le réseau hôte.

Configuration requise pour la mise en réseau SDN (Software Defined Networking)

Lorsque vous créez un cluster Azure Stack HCI à l'aide de Windows Admin Center, vous avez la possibilité de déployer le contrôleur de réseau pour activer la mise en réseau SDN (Software Defined Networking). Si vous envisagez d’utiliser SDN sur Azure Stack HCI :

  • Assurez-vous que les serveurs hôtes disposent d’au moins 50-100 Go d’espace libre pour créer les machines virtuelles du contrôleur de réseau.

  • Vous devez télécharger un disque dur virtuel du système d’exploitation Azure Stack HCI à utiliser pour les machines virtuelles de l’infrastructure SDN (contrôleur de réseau, logiciel Load Balancer, passerelle). Pour obtenir des instructions de téléchargement, consultez Télécharger le fichier VHDX.

Pour plus d’informations sur la préparation de l’utilisation de SDN dans Azure Stack HCI, consultez Planifier une infrastructure réseau à définition logicielle et Planifier le déploiement de contrôleur de réseau.

Notes

SDN n’est pas pris en charge sur les clusters étirés (sur plusieurs sites).

domaine Active Directory conditions requises

Vous devez disposer d’un domaine services de domaine Active Directory (AD DS) disponible pour que le système Azure Stack HCI soit joint. Il n’existe aucune exigence spéciale au niveau fonctionnel du domaine. Si vous ne l’avez pas déjà fait, nous vous recommandons d’activer la fonctionnalité de Corbeille Active Directory. Pour plus d’informations, consultez services de domaine Active Directory Vue d’ensemble.

Impératifs liés à Windows Admin Center

Si vous utilisez Windows Admin Center pour créer ou gérer votre cluster Azure Stack HCI, veillez à remplir les conditions suivantes :

  • Installez la dernière version de Windows Admin Center sur un PC ou un serveur pour la gestion. Consultez Installer Windows Admin Center.

  • Vérifiez que Windows Admin Center et votre contrôleur de domaine ne sont pas installés sur la même instance. Vérifiez également que le contrôleur de domaine n’est pas hébergé sur le cluster Azure Stack HCI ou sur l’un des nœuds du cluster.

  • Si vous exécutez le Windows Admin Center sur un serveur (au lieu d’un ordinateur local), utilisez un compte qui est membre du groupe d’administrateurs de passerelles ou le groupe d’administrateurs local sur le serveur Windows Admin Center.

  • Vérifiez que votre ordinateur de gestion Windows Admin Center est joint au même domaine Active Directory dans lequel vous allez créer le cluster, ou joint à un domaine entièrement approuvé. Les serveurs que vous allez utiliser au sein d’une batterie n’ont pas besoin d’appartenir au domaine tout de suite. Ils pourront être ajoutés au domaine lors de la création du cluster.

Spécifications matérielles maximales prises en charge

Les déploiements Azure Stack HCI qui dépassent les spécifications suivantes ne sont pas pris en charge :

Ressource Maximale
Serveurs physiques par cluster 16
Machines virtuelles par hôte 1 024
Disques par machine virtuelle (SCSI) 256
Stockage par cluster 4 Po
Stockage par serveur 400 To
Volumes par cluster 64
Taille du volume 64 To
Processeurs logiques par hôte 512
RAM par hôte 24 To
RAM par machine virtuelle 12 To (machine virtuelle de 2e génération) ou 1 To (1e génération)
Processeurs virtuels par hôte 2 048
Processeurs virtuels par machine virtuelle 240 (machine virtuelle de 2e génération) ou 64 (1e génération)

Étapes suivantes

Pour consulter des informations connexes, reportez-vous également à :