Partager via


Choisir des lecteurs pour les clusters Azure Stack HCI et Windows Server

S’applique à : Azure Stack HCI, versions 22H2 et 21H2 ; Windows Server 2022, Windows Server 2019

Cet article fournit des conseils sur la façon de choisir des lecteurs pour répondre à vos exigences en matière de performances et de capacité.

Types de lecteurs

Les espaces de stockage direct, la technologie de virtualisation de stockage sous-jacente derrière Azure Stack HCI et Windows Server fonctionnent actuellement avec quatre types de lecteurs :

Type de lecteur Descriptif
PMem PMem fait référence à la mémoire persistante, un nouveau type de stockage à faible latence et hautes performances.
NVMe NVMe (Mémoire Express non volatile) fait référence aux lecteurs à état solide qui se trouvent directement sur le bus PCIe. Les facteurs de forme courants sont 2,5" U.2, PCIe Add-In-Card (AIC) et M.2. NVMe offre des IOPS et un débit d'E/S plus élevés avec une latence plus faible que n'importe quel autre type de disque pris en charge aujourd'hui, à l'exception de PMem.
SSD SSD fait référence aux disques SSD, qui se connectent via SATA ou SAS conventionnel.
Disque dur HDD fait référence aux disques durs magnétiques rotationnels, qui offrent une grande capacité de stockage.

Remarque

Cet article traite du choix des configurations de lecteur avec NVMe, SSD et HDD. Pour plus d’informations sur PMem, consultez Comprendre et déployer la mémoire persistante.

Remarque

Le cache SBL (Storage Bus Layer) n’est pas pris en charge dans la configuration serveur unique. Toutes les configurations de type de stockage unique plat (par exemple all-NVMe ou all-SSD) sont le seul type de stockage pris en charge pour un serveur unique.

Cache intégré

Les espaces de stockage direct disposent d’un cache intégré côté serveur. Il s’agit d’un cache de lecture et d’écriture en temps réel volumineux et persistant. Dans les déploiements avec plusieurs types de lecteurs, il est configuré automatiquement pour utiliser tous les lecteurs du type « le plus rapide ». Les lecteurs restants sont utilisés pour augmenter la capacité de stockage.

Pour plus d’informations, consultez Présentation du cache du pool de stockage.

Option 1 : optimisation des performances

Pour obtenir une latence de sous-milliseconde prévisible et uniforme entre les lectures aléatoires et les écritures dans toutes les données, ou pour atteindre des E/S par seconde extrêmement élevées (nous avons effectué plus de 13 millions !) ou un débit d’E/S extrêmement élevé (nous avons effectué plus de 500 Go/s en lecture), vous devez opter pour le « tout-flash ».

Il existe plusieurs façons de procéder :

Le diagramme montre les options de déploiement, notamment tout NVMe pour la capacité, NVMe pour le cache avec SSD pour la capacité, et tout SSD pour la capacité.

  1. NVMe uniquement. L’utilisation de NVMe uniquement offre des performances inégalées, y compris la latence la plus prévisible. Si tous vos lecteurs sont le même modèle, il n’y a pas de cache. Vous pouvez également combiner des modèles NVMe à haute endurance et à faible endurance, et configurer le premier pour mettre en cache les écritures du second (nécessite la configuration).

  2. NVMe + SSD. En utilisant NVMe avec des disques SSD, le NVMe met automatiquement en cache les écritures sur les SSD. Cela permet aux écritures de fusionner dans le cache et d’être libérées uniquement lorsque nécessaire, afin de réduire l’usure sur les SSD. Cela fournit des caractéristiques d’écriture similaires à NVMe, tandis que les lectures sont traitées directement à partir des DISQUES SSD rapides.

  3. Tous les disques SSD. Comme avec All-NVMe, il n’existe aucun cache si tous vos lecteurs sont le même modèle. Si vous mélangez des modèles d’endurance supérieure et d’endurance inférieure, vous pouvez configurer l’ancien pour mettre en cache les écritures pour ce dernier (nécessite une configuration).

    Remarque

    Un avantage pour utiliser all-NVMe ou all-SSD sans cache est que vous obtenez une capacité de stockage utilisable à partir de chaque lecteur. Aucune capacité n'est consommée par la mise en cache, ce qui peut être attrayant pour des projets de plus petite envergure.

Option 2 : équilibrage des performances et de la capacité

Pour les environnements avec une variété d’applications et de charges de travail, certains avec des exigences de performances strictes et d’autres nécessitant une capacité de stockage considérable, il est recommandé de passer au « hybride » avec la mise en cache NVMe ou SSD pour les disques durs plus volumineux.

Le diagramme montre les possibilités de déploiement, notamment NVMe pour le cache avec HDD pour la capacité, SSD pour le cache avec HDD pour la capacité, et NVMe pour le cache avec SSD mixte et HDD pour la capacité.

  1. NVMe + disque dur. Les lecteurs NVMe accélèrent les lectures et les écritures en mettant en cache les deux. La mise en cache des lectures permet aux HDD de se concentrer sur les écritures. La mise en cache des écritures absorbe les rafales et leur permet d’être regroupées et différées uniquement si cela est nécessaire, de manière sérialisée artificiellement pour optimiser les E/S des disques durs (HDD) et le débit d’E/S. Cela fournit également des caractéristiques d’écriture de type NVMe et, pour des données fréquemment ou récemment lues, des caractéristiques de lecture similaires à NVMe.

  2. SSD + disque dur. Comme dans ce qui précède, les disques SSD accélèrent les lectures et les écritures en mettant en cache les deux. Cela fournit des caractéristiques d’écriture de type SSD et des caractéristiques de lecture de type SSD pour les données fréquemment lues ou récemment.

    Il y a une option supplémentaire, plutôt exotique : utiliser des lecteurs des trois types.

  3. NVMe + SSD + disque dur. Avec les trois types de lecteurs, les lecteurs NVMe servent de cache pour les disques SSD et les disques durs. L'avantage est que vous pouvez créer des volumes sur les disques SSD et des volumes sur les disques durs, côte à côte dans le même cluster, tous accélérés par NVMe. Les premiers sont exactement comme dans un déploiement « all-flash », et ceux-ci sont exactement comme dans les déploiements « hybrides » décrits ci-dessus. Cela est conceptuellement comme avoir deux pools, avec une gestion de capacité largement indépendante, des cycles de défaillance et de réparation, et ainsi de suite.

    Important

    Nous vous recommandons d’utiliser le niveau SSD pour placer vos charges de travail les plus critiques en termes de performances sur des unités entièrement SSD.

Option 3 : optimisation de la capacité

Pour les charges de travail nécessitant une grande capacité et une écriture peu fréquentes, telles que l’archivage, les cibles de sauvegarde, les entrepôts de données ou le stockage « froid », vous devez combiner quelques DISQUES SSD pour la mise en cache avec de nombreux disques DURS plus volumineux pour la capacité.

Options de déploiement pour optimiser la capacité.

  1. SSD + disque dur. Les disques SSD mettent en cache les lectures et les écritures, pour absorber les rafales et offrir des performances d'écriture similaires à celles des SSD, avec un transfert optimisé ultérieur vers les disques durs.

Important

La configuration uniquement avec des HDD n’est pas prise en charge. La mise en cache des DISQUES SSD d’endurance élevée vers des DISQUES SSD à faible endurance n’est pas conseillée.

Considérations relatives au dimensionnement

Cache

Chaque serveur doit avoir au minimum deux lecteurs de cache pour assurer la redondance. Nous vous recommandons de faire en sorte que le nombre de lecteurs de capacité soit un multiple du nombre de lecteurs de cache. Par exemple, si vous avez 4 lecteurs de cache, vous obtiendrez des performances plus cohérentes avec 8 lecteurs de capacité (ratio 1:2) que avec 7 ou 9.

Le cache doit être dimensionné pour prendre en charge l’ensemble de travail de vos applications et charges de travail, c’est-à-dire toutes les données qu’ils lisent activement et écrivent à tout moment. Il n’y a aucune exigence de taille de cache au-delà de cela. Pour les déploiements avec hdD, un bon point de départ est de 10 % de la capacité ( par exemple, si chaque serveur a 4 x 4 To hdD = 16 To de capacité, puis 2 x 800 Go SSD = 1,6 To de cache par serveur. Pour les déploiements flash uniquement, en particulier avec des SSD à endurance élevée, il peut être judicieux de commencer vers 5 % de la capacité. Par exemple, Si chaque serveur a 24 x 1,2 To de SSD = 28,8 To de capacité, 2 x 750 Go de NVMe = 1,5 To de cache par serveur. Vous pouvez toujours ajouter ou supprimer des lecteurs de cache ultérieurement pour ajuster.

Généralités

Nous vous recommandons de limiter la capacité de stockage totale par serveur à environ 400 téraoctets (To). Plus la capacité de stockage par serveur est importante, plus le temps nécessaire pour resynchroniser les données après un temps d’arrêt ou un redémarrage, par exemple lors de l’application de mises à jour logicielles. La taille maximale actuelle par pool de stockage est de 4 pétaoctets (PB) (4 000 To) (1 Pb pour Windows Server 2016).

Étapes suivantes

Pour plus d’informations, consultez également :