Notes
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Les espaces de stockage direct dans Windows Server vous permettent de créer des solutions de stockage hautement disponibles et évolutives à l’aide de serveurs standard avec un stockage local. Avant de déployer, il est important de s’assurer que votre matériel répond à la configuration minimale requise pour la fiabilité et les performances. Cet article décrit les configurations matérielles prises en charge, les pratiques recommandées et les principales considérations relatives aux déploiements physiques et virtuels des espaces de stockage direct dans Windows Server. Utilisez ces conseils pour planifier et valider votre environnement pour obtenir des résultats optimaux.
Avec du matériel physique, Microsoft recommande d’acheter une solution matérielle/logicielle validée auprès de nos partenaires, qui inclut des outils de déploiement et des procédures. Ces solutions sont conçues, assemblées et validées dans le respect de notre architecture de référence pour garantir compatibilité et fiabilité, ce qui vous permet d’être opérationnel rapidement.
Conseil / Astuce
Les espaces de stockage direct sont également utilisés dans Azure Local, notre système d’exploitation conçu pour les déploiements hyperconvergés avec une connexion au cloud. Pour connaître la configuration matérielle requise spécifique à Azure Local, consultez Configuration système requise pour Azure Local. Pour les solutions matérielles disponibles et un outil de dimensionnement, visitez le site web des solutions locales Azure.
Vous pouvez également utiliser des espaces de stockage direct dans Hyper-V ou des machines virtuelles Azure, comme décrit dans Utilisation des espaces de stockage direct dans les clusters de machines virtuelles invitées.
Configuration de base requise
Les systèmes, composants, appareils et pilotes doivent être certifiés pour le système d’exploitation que vous utilisez dans le catalogue Windows Server. En outre, nous vous recommandons que les serveurs et les cartes réseau disposent également des qualifications Software-Defined Centre de données (SDDC) Standard et/ou Software-Defined Centre de données (SDDC) Premium (AQs), comme montré dans l'image suivante. Il existe plus de 1 000 composants avec les qualifications supplémentaires SDDC.
Le cluster entièrement configuré (serveurs, mise en réseau et stockage) doit passer tous les tests de validation de cluster, soit via l’Assistant dans le Gestionnaire du cluster de basculement, soit avec le Test-Cluster
cmdlet PowerShell.
Important
Dans les scénarios où les nœuds de cluster sont implémentés, les adaptateurs de carte réseau, les pilotes et le microprogramme doivent correspondre exactement à l’association SET pour un fonctionnement approprié.
Configuration requise au niveau du serveur
Voici la configuration minimale requise pour le serveur :
- Minimum de deux serveurs, maximum de 16 serveurs.
- Recommandé que tous les serveurs soient le même fabricant et le même modèle.
CPU (Unité centrale de traitement)
Voici les exigences minimales du processeur :
- Nehalem d’Intel ou un processeur plus récent et compatible ; ou
- Processeur AMD EPYC ou version ultérieure compatible.
Mémoire
Voici la configuration minimale requise pour la mémoire :
- Mémoire pour Windows Server, machines virtuelles et autres applications ou charges de travail ; plus
- 4 Go de RAM par téraoctet (To) de capacité de lecteur de cache sur chaque serveur, pour les métadonnées des espaces de stockage direct.
Démarrage
Voici la configuration minimale requise pour le démarrage :
- Tout appareil de démarrage pris en charge par Windows Server, qui inclut désormais SATADOM.
- Le miroir RAID 1 n’est pas obligatoire, mais il est supporté pour le démarrage.
- Recommandé : taille minimale de 200 Go.
Réseau
Les espaces de stockage direct nécessitent une bande passante élevée fiable, une connexion réseau à faible latence entre chaque nœud.
Voici la configuration réseau minimale requise :
Pour une interconnexion minimale pour un cluster à petite échelle de 2 à 3 nœuds :
- Carte d’interface réseau de 10 Gbits/s ou plus rapide.
- Deux ou plusieurs connexions réseau à partir de chaque nœud sont recommandées pour la redondance et les performances.
Interconnexion recommandée pour des performances élevées, à l'échelle ou pour des déploiements d'un cluster de 4 nœuds ou plus :
- Cartes réseau qui sont compatibles avec l’accès à la mémoire directe à distance (RDMA), iWARP (recommandé) ou RoCE.
- Deux ou plusieurs connexions réseau à partir de chaque nœud sont recommandées pour la redondance et les performances.
- Carte réseau de 25 Gbits/s ou plus rapide.
Interconnexions de nœuds commutés ou sans commutateur :
- Basculement : les commutateurs réseau doivent être correctement configurés pour gérer la bande passante et le type de réseau. Si vous utilisez RDMA qui implémente le protocole RoCE, la configuration de l’appareil réseau et du commutateur est encore plus importante.
- Sans changement : les nœuds peuvent être interconnectés à l’aide de connexions directes, évitant l’utilisation d’un commutateur. Chaque nœud doit avoir une connexion directe avec chaque autre nœud du cluster.
Lecteurs
Les espaces de stockage direct fonctionnent avec des lecteurs en attachement direct SATA, SAS, NVMe ou mémoire persistante (PMem) qui sont physiquement attachés à un seul serveur chacun. Pour plus d’aide sur le choix des lecteurs, consultez les articles Choix de lecteurset Comprendre et déployer la mémoire persistante.
- Les lecteurs SATA, SAS, mémoire persistante et NVMe (M.2, U.2 et carte de complément) sont tous pris en charge.
- Les lecteurs natifs 512n, 512e et 4K sont tous pris en charge.
- Les disques SSD doivent fournir une protection contre la perte d’alimentation.
- Même nombre et types de lecteurs dans chaque serveur : consultez les considérations relatives à la symétrie du lecteur.
- Les appareils de cache doivent être de 32 Go ou plus.
- Les périphériques de mémoire persistante sont utilisés en mode de stockage de bloc.
- Lorsque vous utilisez des périphériques de mémoire persistante en tant qu’appareils de cache, vous devez utiliser des périphériques de capacité NVMe ou SSD (vous ne pouvez pas utiliser de disques DURS).
- Si vous utilisez des disques durs pour fournir une capacité de stockage, vous devez utiliser la mise en cache de bus de stockage. La mise en cache du bus de stockage n’est pas nécessaire lors de l’utilisation de déploiements flash.
- Le pilote NVMe est celui fourni par Microsoft inclus dans Windows (le nom de fichier du pilote est
stornvme.sys
). - Recommandé : le nombre de lecteurs de capacité est un multiple entier du nombre de lecteurs de cache.
- Recommandé : les lecteurs de cache doivent avoir une grande endurance en écriture : au moins 3 écritures par disque par jour (DWPD) ou au moins 4 téraoctets écrits par jour – voir Comprendre les écritures de lecteur par jour (DWPD), les téraoctets écrits par jour (TBW) et le minimum recommandé pour les espaces de stockage direct.
Remarque
Lorsque vous utilisez tous les lecteurs flash pour la capacité de stockage, les avantages de la mise en cache du pool de stockage sont limités. En savoir plus sur le cache du pool de stockage.
Voici comment les lecteurs peuvent être connectés pour les espaces de stockage direct :
- Lecteurs SATA attachés directement.
- Lecteurs NVMe attachés directement.
- Adaptateur de bus hôte SAS (HBA) avec lecteurs SAS.
- Adaptateur de bus hôte SAS (HBA) avec lecteurs SATA.
- Cartes de contrôleur RAID passant directement via des périphériques de stockage physique SAS uniquement.
Important
NON SUPPORTÉ : Les cartes de contrôleur RAID qui ne supportent pas le pass-through direct des périphériques de stockage physique SAS ou du stockage SAN (Fibre Channel, iSCSI, FCoE). Les cartes de bus hôte (HBA) doivent implémenter un mode Pass-through simple pour tout dispositif de stockage utilisé pour Storage Spaces Direct.
Les lecteurs peuvent être les suivants :
- Interne au serveur
- Dans un boîtier externe (« JBOD ») connecté à un serveur. SCSI Enclosure Services (SES) est requis pour le mappage et l’identification des emplacements. Chaque boîtier externe doit présenter un identificateur unique (ID unique).
Important
NON PRIS EN CHARGE : les boîtiers SAS partagés connectés à plusieurs serveurs, ou toute forme de MPIO (Multipath IO) où les lecteurs sont accessibles par plusieurs chemins d’accès.
Nombre minimal de lecteurs (exclut le lecteur de démarrage)
Le nombre minimal de lecteurs de capacité dont vous avez besoin varie selon votre scénario de déploiement. Si vous envisagez d’utiliser le cache du pool de stockage, il doit y avoir au moins deux appareils de cache par serveur.
Vous pouvez déployer les espaces de stockage direct sur un cluster de serveurs physiques ou sur des clusters d’invités de machine virtuelle. Vous pouvez configurer votre conception des espaces de stockage direct pour les performances, la capacité ou les scénarios équilibrés en fonction de la sélection d’appareils de stockage physique ou virtuel. Les déploiements virtualisés tirent parti des performances et de la résilience du stockage sous-jacent du cloud privé ou public. Les espaces de stockage direct déployé sur des clusters invités de machine virtuelle vous permettent d’utiliser des solutions de haute disponibilité dans l’environnement virtuel.
Les sections suivantes décrivent les conditions minimales requises pour les déploiements physiques et virtuels.
Déploiements physiques
Ce tableau indique le nombre minimal de lecteurs de capacité par type pour les déploiements matériels à l’aide de Windows Server ou d’Azure Local.
Type de lecteur (capacité uniquement) | Lecteurs minimum requis (Windows Server) | Lecteurs minimum requis (Azure Local) |
---|---|---|
Toutes les mémoires persistantes (même modèle) | 4 mémoire persistantes | 2 mémoires persistantes |
Tous NVMe (même modèle) | 4 NVMe | 2 NVMe |
Tous SSD (même modèle) | 4 SSD | 2 SSD |
Si vous utilisez le cache du pool de stockage, il doit y avoir au moins 2 lecteurs supplémentaires configurés pour le cache. Le tableau indique le nombre minimal de lecteurs requis pour les déploiements Windows Server et Azure Local à l’aide de deux nœuds ou plus.
Type de lecteur présent | Disques minimaux requis |
---|---|
Mémoire persistante + NVMe ou SSD | 2 mémoires persistantes + 4 NVMe ou SSD |
NVMe + SSD | 2 NVMe + 4 SSD |
NVMe + HDD | 2 NVMe + 4 HDD |
SSD + HDD | 2 SSD + 4 HDD |
Important
Le cache du pool de stockage ne peut pas être utilisé avec Azure Local dans un déploiement à nœud unique.
Déploiement virtuel
Ce tableau indique le nombre minimal de lecteurs par type pour les déploiements virtuels tels que les machines virtuelles invitées Windows Server ou Windows Server Azure Edition.
Type de lecteur (capacité uniquement) | Disques minimaux requis |
---|---|
Disque dur virtuel | 2 |
Conseil / Astuce
Pour améliorer les performances des machines virtuelles invitées lors de l’exécution sur Azure Local ou Windows Server, envisagez d’utiliser le cache de lecture en mémoire CSV pour mettre en cache les opérations de lecture non chiffrées.
Si vous utilisez les espaces de stockage direct dans un environnement virtuel, vous devez prendre en compte les éléments suivants :
- Les disques virtuels ne sont pas sensibles aux défaillances telles que les lecteurs physiques, mais vous dépendez des performances et de la fiabilité du cloud public ou privé.
- Nous vous recommandons d’utiliser un seul niveau de faible latence/ stockage hautes performances.
- Les disques virtuels doivent être utilisés uniquement pour la capacité.
En savoir plus sur le déploiement d’espaces de stockage direct dans les clusters de machines virtuelles invitées.
Capacité maximale
Le nombre de serveurs dans le cluster et le type de lecteurs utilisés déterminent la capacité maximale des espaces de stockage direct. Le tableau suivant présente les maximums pour Windows Server 2019 ou version ultérieure et Windows Server 2016.
Nombre maximal | Windows Server 2019 ou version ultérieure | Windows Server 2016 |
---|---|---|
Capacité brute par serveur | 400 To | 100 To |
Capacité du pool | 4 PB (4 000 TO) | 1 Po |