Condividi tramite


Requisiti hardware di Spazi di archiviazione diretta

Questo articolo descrive i requisiti hardware minimi per Spazi di archiviazione diretta. Per i requisiti hardware in Azure Stack HCI, il sistema operativo progettato per le distribuzioni iperconvergenti con una connessione al cloud, vedere Prima di distribuire Azure Stack HCI: Determinare i requisiti hardware.

Per la produzione, Microsoft consiglia di acquistare una soluzione hardware/software convalidata dai partner, che includono strumenti e procedure di distribuzione. Queste soluzioni sono progettate, assemblate e convalidate in base all'architettura di riferimento per garantire la compatibilità e l'affidabilità, in modo da essere operativi rapidamente. Per le soluzioni hardware, visitare il sito Web soluzioni Azure Stack HCI.

Suggerimento

Si vuole valutare Spazi di archiviazione diretta ma non si dispone di hardware? Usare macchine virtuali Hyper-V o Azure come descritto in Uso di Spazi di archiviazione diretta nei cluster di macchine virtuali guest.

Requisiti di base

Importante

Negli scenari in cui vengono implementati i nodi del cluster, schede di interfaccia di rete, driver e firmware devono essere una corrispondenza esatta per il corretto funzionamento del raggruppamento SET.

I sistemi, i componenti, i dispositivi e i driver devono essere certificati per il sistema operativo usato nel Catalogo di Windows Server. Inoltre, è consigliabile che i server e le schede di rete abbiano le qualifiche aggiuntive SDDC (Software-Defined Data Center) Standard e/o Software-Defined Data Center (SDDC) Premium, come illustrato di seguito. Sono presenti più di 1.000 componenti con le domande frequenti su SDDC.

Screenshot del catalogo di Windows Server che mostra un sistema che include la certificazione Software-Defined Data Center (SDDC) Premium

Il cluster completamente configurato (server, rete e archiviazione) deve superare tutti i test di convalida del cluster in Base alla procedura guidata in Gestione cluster di failover o con il Test-Cluster cmdlet in PowerShell.

Inoltre, si applicano i requisiti seguenti:

Server

  • Minimo 2 server, massimo 16 server
  • È consigliabile che tutti i server siano dello stesso produttore e modello

CPU

  • Processore compatibile Intel Nehalem o versione successiva; oppure
  • Processore compatibile con AMD EPYC o versione successiva

Memoria

  • Memoria per Windows Server, macchine virtuali e altri carichi di lavoro o app; più
  • 4 GB di RAM per terabyte (TB) di capacità dell'unità cache in ogni server, per i metadati di Spazi di archiviazione diretta

Avvio

  • Qualsiasi dispositivo di avvio supportato da Windows Server, che ora include SATADOM
  • Il mirror RAID 1 non è obbligatorio, ma è supportato per l'avvio
  • Consigliato: dimensioni minime di 200 GB

Rete

Spazi di archiviazione diretta richiede una connessione di rete a bassa latenza e larghezza di banda elevata affidabile tra ogni nodo.

Interconnessione minima per un nodo su scala ridotta 2-3

  • Scheda di interfaccia di rete (NIC) da 10 Gbps o superiore
  • Due o più connessioni di rete da ogni nodo consigliate per ridondanza e prestazioni

Interconnessione consigliata per prestazioni elevate, su larga scala o distribuzioni di 4+

  • Schede di interfaccia di rete che supportano l'accesso remoto diretto alla memoria (RDMA), iWARP (scelta consigliata) o RoCE
  • Due o più connessioni di rete da ogni nodo consigliate per ridondanza e prestazioni
  • Scheda di interfaccia di rete da 25 Gbps o superiore

Interconnessioni di nodi commutati o commutatori

  • Commutato: i commutatori di rete devono essere configurati correttamente per gestire la larghezza di banda e il tipo di rete. Se si utilizza RDMA che implementa il protocollo RoCE, la configurazione del dispositivo di rete e del commutatore assume un'importanza ancora maggiore.
  • Switchless: i nodi possono essere interconnessi tramite connessioni dirette, evitando l'uso di un commutatore. È necessario che ogni nodo abbia una connessione diretta con ogni altro nodo del cluster.

Unità

Spazi di archiviazione diretta funziona con unità SATA, SAS, NVMe o memoria persistente collegate fisicamente a un solo server. Per altre informazioni sulla scelta delle unità, vedere gli articoli Scelta delle unità e Informazioni e distribuzione della memoria persistente.

  • Le unità SATA, SAS, memoria persistente e NVMe (M.2, U.2 e Add-In-Card) sono tutte supportate
  • Tutte le unità native 512n, 512e e 4K sono supportate
  • Le unità SSD devono fornire protezione per la perdita di energia
  • Lo stesso numero e tipi di unità in ogni server – visualizza Considerazioni sulla simmetria delle unità
  • I dispositivi cache devono essere di 32 GB o superiori
  • I dispositivi di memoria persistente vengono usati in modalità di archiviazione a blocchi
  • Quando si usano dispositivi di memoria persistente come dispositivi cache, è necessario usare dispositivi di capacità NVMe o SSD (non è possibile usare dischi RIGIDI)
  • Se si usano unità HDD per fornire capacità di archiviazione, è necessario usare la memorizzazione nella cache del bus di archiviazione. La memorizzazione nella cache del bus di archiviazione non è necessaria quando si usano distribuzioni all-flash
  • Il driver NVMe è quello fornito da Microsoft incluso in Windows (stornvme.sys)
  • Consigliato: il numero di unità di capacità è un multiplo intero del numero di unità della cache
  • Consigliato: le unità cache devono avere una resistenza elevata per la scrittura: almeno 3 scritture di unità al giorno (DWPD) o almeno 4 terabyte scritti (TBW) al giorno. Vedere Informazioni sulle scritture di unità al giorno (DWPD), terabyte scritti (TBW) e il minimo consigliato per Spazi di archiviazione diretta

Nota

Quando si usano tutte le unità flash per la capacità di archiviazione, i vantaggi della memorizzazione nella cache del pool di archiviazione saranno limitati. Altre informazioni sulla cache del pool di archiviazione.

Ecco come connettere le unità per Spazi di archiviazione diretta:

  • Unità SATA collegate direttamente
  • Unità NVMe collegate direttamente
  • Adattatore host-bus di firma di accesso condiviso (HBA) con unità SAS
  • Adattatore host-bus di firma di accesso condiviso (HBA) con unità SATA
  • Solo le schede controller RAID che passano direttamente tramite dispositivi di archiviazione fisica SAS
  • NON SUPPORTATO: schede controller RAID che non supportano il pass-through diretto di dispositivi di archiviazione fisici SAS o archiviazione SAN (Fibre Channel, iSCSI, FCoE). Le schede HBA (Host-Bus Adapter) devono implementare la modalità pass-through semplice per tutti i dispositivi di archiviazione usati per Spazi di archiviazione diretta

Diagramma che mostra le interconnessioni di unità supportate e non supportate

Le unità possono essere interne al server o in un enclosure esterno connesso a un solo server. Per il mapping e l'identificazione degli slot è necessario SCSI Enclosure Services (SES) per il mapping e l'identificazione degli slot. Ogni enclosure esterno deve presentare un identificatore univoco (ID univoco).

  • Unità interne al server
  • Unità in un enclosure esterno ("JBOD") connesse a un server
  • NON SUPPORTATO: gli enclosure SAS condivisi connessi a più server o qualsiasi forma di I/O (MPIO) multi-percorso in cui le unità sono accessibili da più percorsi.

Diagramma che mostra come sono supportate le unità interne ed esterne connesse direttamente a un server, ma la firma di accesso condiviso non è

Numero minimo di unità (esclude l'unità di avvio)

Il numero minimo di unità di capacità necessarie varia in base allo scenario di distribuzione. Se si prevede di usare la cache del pool di archiviazione, devono essere presenti almeno 2 dispositivi cache per server.

È possibile distribuire Spazi di archiviazione diretta in un cluster di server fisici o in cluster guest di macchine virtuali (VM). È possibile configurare la progettazione di Spazi di archiviazione diretta per scenari di prestazioni, capacità o bilanciati in base alla selezione di dispositivi di archiviazione fisici o virtuali. Le distribuzioni virtualizzate sfruttano le prestazioni e la resilienza sottostanti del cloud privato o pubblico. Spazi di archiviazione diretta distribuiti nei cluster guest delle macchine virtuali consente di usare soluzioni a disponibilità elevata all'interno dell'ambiente virtuale.

Le sezioni seguenti descrivono i requisiti minimi delle unità per le distribuzioni fisiche e virtuali.

Distribuzioni fisiche

Questa tabella mostra il numero minimo di unità di capacità per tipo per le distribuzioni hardware, ad esempio Azure Stack HCI versione 21H2 o successiva e Windows Server.

Tipo di unità presente (solo capacità) Unità minime necessarie (Windows Server) Unità minime necessarie (Azure Stack HCI)
Tutta la memoria persistente (stesso modello) 4 unità memoria persistente 2 unità memoria persistente
Tutti i NVMe (stesso modello) 4 NVMe 2 NVMe
Tutte le unità SSD (stesso modello) 4 UNITÀ SSD 2 UNITÀ SSD

Se si usa la cache del pool di archiviazione, per la cache devono essere configurate almeno 2 unità. La tabella mostra il numero minimo di unità necessarie per le distribuzioni di Windows Server e Azure Stack HCI usando 2 o più nodi.

Tipo di unità presente Unità minime necessarie
Memoria persistente + NVMe o SSD 2 unità memoria persistente + 4 NVMe o SSD
NVMe + SSD 2 NVMe + 4 SSD
NVMe + HDD 2 NVMe + 4 HDD
SSD + HDD 2 unità SSD + 4 HDD

Importante

La cache del pool di archiviazione non può essere usata con Azure Stack HCI in una distribuzione a nodo singolo.

Distribuzione virtuale

Questa tabella mostra il numero minimo di unità per tipo per le distribuzioni virtuali, ad esempio macchine virtuali guest di Windows Server o Windows Server Azure Edition.

Tipo di unità presente (solo capacità) Unità minime necessarie
Dischi rigidi virtuali 2

Suggerimento

Per migliorare le prestazioni per le macchine virtuali guest durante l'esecuzione in Azure Stack HCI o Windows Server, è consigliabile usare la cache di lettura in memoria CSV per memorizzare nella cache le operazioni di lettura non memorizzate nella cache.

Se si usa Spazi di archiviazione diretta in un ambiente virtuale, è necessario prendere in considerazione:

  • I dischi virtuali non sono soggetti a errori come le unità fisiche, ma si dipende dalle prestazioni e dall'affidabilità del cloud pubblico o privato
  • È consigliabile usare un singolo livello di bassa latenza/archiviazione ad alte prestazioni
  • I dischi virtuali devono essere usati solo per la capacità

Altre informazioni sulla distribuzione di spazi di archiviazione diretta tramite macchine virtuali e archiviazione virtualizzata.

Capacità massima

Massimi Windows Server 2019 o versione successiva Windows Server 2016
Capacità non elaborata per server 400 TB 100 TB
Capacità del pool 4 PB (4,000 TB) 1 PB