Offrire archiviazione conveniente per carichi di lavoro Hyper-V mediante Windows Server: guida alla pianificazione e alla progettazione
Articolo
Si applica a: System Center 2012, Windows Server 2012 R2
Questa guida descrive come pianificare e progettare una particolare soluzione di archiviazione per cluster di calcolo che ospitano macchine virtuali in esecuzione su Windows Server e Hyper-V come parte di una piattaforma di servizi cloud. Questa soluzione di archiviazione definita dal software usa un cluster di file server Windows Server facilmente gestiti insieme a enclosure JBOD (Just-a-Bunch-Of-Disks) e Spazi di archiviazione per un'archiviazione conveniente e con prestazioni elevate, ovviando alla necessità di costosi dispositivi SAN quando si implementa una piattaforma cloud.
Per ottenere un elenco delle modifiche apportate di recente a questo argomento, vedere la sezione Cronologia delle modifiche di questo argomento.
Si presuppone che si voglia eseguire una distribuzione iniziale di circa 100 tenant (con otto macchine virtuali per tenant), con la possibilità di espandere man mano la soluzione fino a circa 500 tenant. Per indicazioni di progettazione più flessibili e complete, vedere Guida alle considerazioni di progettazione dell'archiviazione definita dal software.
Usare i seguenti passaggi e decisioni relative al progetto per pianificare l'implementazione dell'archiviazione basata su Windows Server per i carichi di lavoro Hyper-V.
In questa guida:
Passaggio 1: Progettare il cluster di file server
Passaggio 2: Progettare il cluster di gestione
Passaggio 3: Progettare il cluster di calcolo
Passaggi successivi
Passaggio 1: Progettare il cluster di file server
In questo passaggio, si progetta il cluster di file server usato per fornire l'archiviazione alle macchine virtuali in questa soluzione.
1.1. Progettare l'hardware del cluster di file server
Ecco i componenti hardware consigliati per i cluster di file server. Si noti che è consigliabile acquistare tutti i componenti hardware di produzione da un fornitore che verifica e supporta l'hardware come soluzione integrata con Spazi di archiviazione.
Componente
Linee guida
Enclosure di archiviazione
Quattro enclosure di archiviazione identiche (240 dischi totali in quattro enclosure)
Con quattro enclosure, anche se un intero enclosure si danneggia, gli spazi di archiviazione resteranno online (presumendo che non ci siano troppi dischi danneggiati negli altri enclosure).
Enclosure di archiviazione di 60 dischi connessi a SAS
Ogni enclosure di archiviazione deve essere connessa tramite due connessioni a SAS tramite HBA a tutti i nodi dei cluster di file server
Questo ottimizza le prestazioni ed elimina un singolo punto di errore. Per supportare questo requisito, l'ideale è che ogni enclosure di archiviazione e ogni nodo server abbia il doppio delle porte SAS dei nodi (8 porte nell'enclosure e 8 porte in ogni nodo).
Dischi fisici
48 HDD da 7200 rpm per enclosure di archiviazione (192 HDD totali in quattro enclosure)
I dischi HDD a 7200 rpm forniscono una grande capacità pur consumando meno corrente e a un costo inferiore dei dischi HDD con una velocità di rotazione maggiore, ma offrono valide prestazioni in questa soluzione se abbinati a un numero sufficiente di SSD.
Quando si usano HDD da 4 TB e SSD da 800 GB in quattro enclosure da 60 alloggiamenti, questa soluzione fornisce circa 804 TB di capacità del pool di archiviazione di base per ogni cluster di file server. Dopo l'inclusione della resilienza, dell'archiviazione per i backup e dello spazio libero per la riparazione degli spazi di archiviazione, si creano circa 164 TiB di spazio per le macchine virtuali di calcolo e di gestione (il TiB è un terabyte calcolato usando la notazione binaria - in base 2 - anziché la notazione decimale - in base 10).
12 HDD per enclosure di archiviazione (48 SSD totali in quattro enclosure di archiviazione)
Spazi di archiviazione usa gli SSD per creare un livello di archiviazione più rapido per i dati a cui si accede di frequente. Usa gli SSD anche per una cache write-back persistente che riduce la latenza delle scritture casuali.
Tutti i dischi devono essere dischi SAS a porta doppia
In questo modo, ogni disco può essere connesso a tutti i nodi del cluster di failover con gli espansori SAS inclusi nelle enclosure di archiviazione.
Cluster di file server
Un cluster di file server a quattro nodi
Con quattro nodi, tutte le enclosure di archiviazione sono connesse a tutti i nodi ed è possibile mantenere prestazioni valide anche se in due nodi si verificano errori, riducendo così l'urgenza della manutenzione.
Un cluster di file server ospita la memoria per un cluster di calcolo
Se si aggiunge un cluster di calcolo, aggiungere anche un altro cluster di file server a quattro nodi. È possibile aggiungere fino a quattro cluster di file server e quattro cluster di calcolo per ogni cluster di gestione. Il primo cluster di file server ospita anche la memoria per il cluster di gestione
Cluster aggiuntivi (chiamati anche unità di scala) consentono di aumentare la scalabilità dell'ambiente per poter supportare altre macchine virtuali e altri tenant.
Nodi cluster
Due CPU da sei core
Per il cluster di file server non sono necessarie le CPU più potenti perché la maggior parte del traffico è gestita da scheda di rete RDMA, che elaborano direttamente il traffico di rete.
64 GB di RAM
Non è necessaria molta RAM perché il cluster di file server usa i livelli di archiviazione, che impediscono di utilizzare una cache CSV (in genere una delle più grandi fonti di consumo di RAM in un file server in cluster).
Due HDD installati in un RAID-1 (mirror) con un controller RAID di base
È qui che Windows Server viene installato in ogni nodo. Se si vuole, è possibile usare uno o più SSD. Gli SSD costano di più, ma usano meno corrente e hanno tempi di avvio, installazione e ripristino più veloci oltre a una maggiore affidabilità. È possibile usare una singola unità SSD per ridurre i costi se non è un problema reinstallare Windows Server nel nodo in caso di guasto dell'unità SSD.
HBA dei nodi del cluster
Due HBA SAS identiche da 6 Gbps e 4 porte
Ogni HBA dispone di una connessione a ogni enclosure di archiviazione, quindi in totale sono presenti due connessioni a ogni enclosure di archiviazione. Questo ottimizza la velocità effettiva e fornisce percorsi ridondanti e non può avere la funzionalità RAID integrata.
Schede di interfaccia di rete dei nodi del cluster
Una scheda di interfaccia di rete Dual Port 10 Gigabit Ethernet con supporto RDMA
Questa scheda svolge la funzione di interfaccia di rete di archiviazione tra il cluster di file server e i cluster di calcolo e di gestione, ognuno dei quali archivia i file del disco rigido virtuale nel cluster di file server.
La scheda richiede il supporto RDMA per ottimizzare le prestazioni e iWARP per usare i router compresi tra rack di cluster, che possono essere importanti quando si aggiungono altri cluster di calcolo e di file server alla soluzione. Questa scheda usa SMB 3 e SMB diretto per offrire la tolleranza di errore, con ogni porta connessa a una subnet distinta.
Per un elenco di schede di interfaccia di rete certificate con supporto RDMA, vedere la pagina relativa al catalogo di Windows Server.
Una scheda di interfaccia di rete Dual Port Gigabit o 10 Gigabit Ethernet senza supporto RDMA
Questa scheda mette in comunicazione il cluster di gestione e il cluster di file server, con ogni porta connessa a una subnet distinta. Non ha bisogno del supporto RDMA perché comunica con i commutatori virtuali Hyper-V nei cluster di calcolo e di gestione, che non possono usare la comunicazione RDMA.
Per un elenco di schede di interfaccia di rete certificate, vedere la pagina relativa al catalogo di Windows Server.
Un'interfaccia di rete Gigabit Ethernet per la gestione remota
Questa scheda di rete di caricamento, ILO (Integrated Lights-Out) o BMC (Baseboard Management Controller) si connette alla rete di gestione.
1.2. Progettare la configurazione software del cluster di file server
Ecco i componenti software consigliati per i cluster di file server:
Tecnologia
Linee guida
Sistema operativo
Windows Server 2012 R2 Standard con opzione di installazione dei componenti di base del server
L'uso di Windows Server 2012 R2 Standard consente un risparmio maggiore rispetto a un'edizione più costosa e l'opzione di installazione dei componenti di base del server mantiene basso il footprint di sicurezza, che a sua volta limita la quantità di aggiornamenti software da installare nel cluster di file server.
Clustering di failover
File server con scalabilità orizzontale
Questo file server in cluster consente di ospitare condivisioni file sempre disponibili, contemporaneamente accessibili in più nodi.
MPIO
Abilitare MPIO (Multipath I/O) in ogni nodo
Combina i percorsi multipli ai dischi fisici nelle enclosure di archiviazione, fornendo resilienza e bilanciamento del carico nei percorsi fisici.
Pool di archiviazione
Tre pool di archiviazione in cluster per cluster di file server
Aiutano a ridurre il tempo necessario per il failover del pool di archiviazione in un altro nodo.
5 unità SSD e 16 HDD da ciascuna delle quattro enclosure di archiviazione per pool di carico di lavoro, per un totale di 84 dischi per pool per i carichi di lavoro principali.
Ciò fornisce un numero sufficiente di SSD per creare gli spazi di archiviazione appropriati, con i dati distribuiti nelle enclosure di archiviazione in modo che, anche in caso di guasto in una delle enclosure di archiviazione, non si verifichino tempi di inattività per i tenant (purché non ci siano troppi dischi danneggiati nelle altre enclosure di archiviazione).
2 unità SSD e 16 HDD da ciascuna delle quattro enclosure di archiviazione per pool di backup, per un totale di 72 dischi nel pool.
Le unità SSD nel pool di backup vengono designate come dischi journal per migliorare le prestazioni di scrittura dei dischi virtuali, che usano il tipo di resilienza a doppia parità.
Nessun disco di riserva a caldo
Mantenere sempre almeno 21,9 TiB di spazio libero su HDD in ogni pool di archiviazione, oltre a 1,5 TiB di spazio libero su unità SSD in ogni pool di carico di lavoro. Ciò consente a Spazi di archiviazione di ricreare automaticamente gli spazi di archiviazione anche con una unità SSD e 3 HDD danneggiati copiando i dati in più dischi nel pool, riducendo così considerevolmente il tempo necessario per il ripristino dal disco danneggiato rispetto all'uso dei dischi di riserva a caldo.
In questa soluzione con HDD da 4 TB e SSD da 800 GB rimangono 23,4 TB di spazio disponibile per ogni pool di carico di lavoro.
Otto spazi di archiviazione per pool di archiviazione di carico di lavoro
Questo distribuisce il carico tra ogni nodo del cluster (due spazi di archiviazione per nodo, per pool).
Usare spazi mirror a tre vie per i dati del carico di lavoro
Gli spazi mirror offrono le migliori prestazioni e resilienza dei dati per ospitare macchine virtuali. Gli spazi mirror a tre vie garantiscono che ci siano almeno tre copie dei dati, evitando la perdita di dati anche in caso di guasto di due dischi. Gli spazi di parità non sono consigliati per l'hosting di macchine virtuali a causa delle caratteristiche delle prestazioni.
Usare le impostazioni seguenti per costruire gli spazi mirror a tre vie con livelli di archiviazione, la dimensione della cache write-back predefinita e il riconoscimento di enclosure. Si consiglia di usare quattro colonne per questa configurazione per ottenere un buon bilanciamento tra velocità effettiva elevata e latenza minima.
SSD: .54 TiB; HDD: 8.79 TiB (presupponendo unità SSD da 800 GB e unità HDD da 4 TB)
IsEnclosureAware
$true
Tutti gli spazi di archiviazione usano il provisioning fisso
Il provisioning fisso consente di usare i livelli di archiviazione e il clustering di failover, nessuno dei quali si serve del thin provisioning.
Creare un altro spazio mirror a due vie da 4 GB senza livelli di archiviazione
Questo spazio di archiviazione viene usato come disco di controllo del cluster di file server e per il controllo di condivisione file dei cluster di gestione e di calcolo. In questo modo il cluster di file server conserva l'integrità (quorum) anche in caso di due nodi danneggiati o di problemi di rete tra i nodi.
Per il pool di backup, usare le impostazioni seguenti per creare 16 dischi virtuali tramite il tipo di resilienza a doppia parità e 7 colonne.
Impostazione
Valore
ResiliencySettingName
Parity
NumberOfDataCopies
3
Size
7.53 TiB
NumberOfColumns
7
IsEnclosureAware
$true
Partizioni
Una partizione GPT per spazio di archiviazione
La soluzione risulta così più semplice.
Volumi
Un volume formattato con il file system NTFS per partizione/spazio di archiviazione
ReFS non è consigliato per questa soluzione in questa versione di Windows Server.
Abilitare la deduplicazione dei dati nei dischi virtuali usati per archiviare i backup.
CSV
Un volume CSV per volume (con un volume e una partizione per spazio di archiviazione)
In questo modo il carico può essere distribuito in tutti nodi del cluster di file server. Non creare un volume CSV nello spazio di archiviazione da 4 GB usato per mantenere il quorum del cluster.
Crittografia unità BitLocker
Testare le prestazioni di Crittografia unità BitLocker prima di usarla largamente
È possibile usare Crittografia unità BitLocker per crittografare tutti i dati nella memoria in ogni volume CSV, migliorando la sicurezza fisica, anche se le prestazioni della soluzione possono risultare notevolmente compromesse.
Condivisioni file sempre disponibili
Una condivisione file SMB sempre disponibile per volume CSV/volume/partizione/spazio di archiviazione
Ciò semplifica la gestione (una condivisione per ogni spazio di archiviazione sottostante) e consente di distribuire il carico in tutti i nodi del cluster di file server.
Testare le prestazioni dell'accesso ai dati crittografati (crittografia SMB 3) nelle condivisioni file prima della distribuzione su larga scala
È possibile usare la crittografia SMB 3 per proteggere i dati nelle condivisioni file che richiedono protezione contro le violazioni fisiche in cui un autore di un attacco ha accesso alla rete del data center, ma in questo modo si perde la maggior parte dei vantaggi a livello di prestazioni derivanti dall'uso di schede di rete RDMA.
Aggiornamenti
Usare Windows Server Update Services insieme a Virtual Machine Manager
Creare tre o quattro gruppi di computer in Windows Server Update Services (WSUS) per i nodi del file server, aggiungendone uno o due a ogni gruppo. Con questa configurazione, è possibile aggiornare prima un server e monitorarne la funzionalità, quindi aggiornare gli altri server uno alla volta per poter continuare a bilanciare il carico tra i server rimanenti.
Usare Aggiornamento compatibile con cluster per gli aggiornamenti UEFI e del firmware
Usare Aggiornamento compatibile con cluster per aggiornare tutto ciò che non può essere distribuito con WSUS. Probabilmente si tratterà del BIOS (UEFI) per i nodi del cluster, nonché del firmware per schede di rete, HBA SAS, unità e delle enclosure di archiviazione.
Data Protection Manager
È possibile usare Data Protection Manager (DPM) per fornire backup coerenti con gli arresti anomali del cluster di file server. È anche possibile usare DPM e la replica Hyper-V per il ripristino di emergenza delle macchine virtuali nel cluster di calcolo.
Passaggio 2: Progettare il cluster di gestione
In questo passaggio, si progetta il cluster di gestione che esegue tutti i servizi di gestione e dell'infrastruttura per i cluster di file server e di calcolo.
Nota
In questa soluzione si suppone che si voglia usare la suite di prodotti System Center, che fornisce strumenti avanzati per semplificare la configurazione, la gestione e il monitoraggio della soluzione. Tuttavia, in alternativa è possibile eseguire tutte le attività con Windows PowerShell e Server Manager. Windows PowerShell risulterà probabilmente più appropriato vista la scalabilità di questa soluzione. Se si sceglie di non usare System Center, è probabile che non sia necessario un cluster di gestione avanzato come quello descritto qui e dovrebbe essere possibile usare i server o i cluster esistenti.
2.1. Progettare l'hardware del cluster di gestione
Ecco i componenti hardware consigliati per il cluster che esegue tutti i servizi di gestione e dell'infrastruttura per i cluster di file server e di calcolo.
Componente
Linee guida
Cluster di gestione
Un cluster di failover a 4 nodi
Usando quattro nodi è possibile tollerare un nodo del cluster in caso di errori nel cluster di gestione. Usare sei nodi per la resilienza agli errori di due nodi. Un cluster di gestione che usa Virtual Machine Manager può supportare fino a 8.192 macchine virtuali.
Nodi cluster
Due CPU da otto core
Le macchine virtuali in questo cluster elaborano una notevole quantità di dati e pertanto necessitano di un po' più di potenza per la CPU rispetto al cluster di file server.
128 GB di RAM
Per eseguire le macchine virtuali di gestione, è necessaria più RAM che per il cluster di file server.
Due HDD installati in un RAID-1 (mirror) con un controller RAID di base
È qui che Windows Server viene installato in ogni nodo. Se si vuole, è possibile usare uno o più SSD. Gli SSD costano di più, ma usano meno corrente e hanno tempi di avvio, installazione e ripristino più veloci oltre a una maggiore affidabilità. È possibile usare una singola unità SSD per ridurre i costi se non è un problema reinstallare Windows Server nel nodo in caso di guasto dell'unità SSD.
Schede di interfaccia di rete
Una scheda di interfaccia di rete Dual Port 10 Gigabit Ethernet con supporto RDMA
Questa scheda mette in comunicazione il cluster di gestione e il cluster di file server per l'accesso ai file con estensione vhdx usati dalle macchine virtuali di gestione. La scheda richiede il supporto RDMA per ottimizzare le prestazioni e iWARP per usare i router compresi tra rack di cluster di file server e di gestione, che possono essere importanti quando si aggiungono altri cluster di calcolo e di file server alla soluzione. Questa scheda usa SMB 3 e SMB diretto per offrire la tolleranza di errore, con ogni porta connessa a una subnet distinta.
Per un elenco di schede di interfaccia di rete certificate con supporto RDMA, vedere la pagina relativa al catalogo di Windows Server.
Una scheda di interfaccia di rete Dual Port Gigabit o 10 Gigabit Ethernet senza supporto RDMA
Questa scheda elabora il traffico di gestione tra tutti i cluster. La scheda richiede il supporto per Coda macchine virtuali (VMQ), Dynamic VMQ, la codifica VLAN 802.1Q e l'offload GRE (NVGRE). La scheda usa Gruppo NIC per creare le due porte, ciascuna connessa a una subnet distinta e con tolleranza di errore.
La scheda non può usare RDMA perché RDMA richiede l'accesso diretto alla scheda di rete e questa scheda deve comunicare con i commutatori virtuali Hyper-V (che nascondono l'accesso diretto alla scheda di rete). Usa la tecnologia di Gruppo NIC per la tolleranza di errore invece di SMB diretto per consentire ai protocolli diversi da SMB di usare le connessioni di rete ridondanti. È consigliabile usare le regole di Qualità del servizio (QoS) per classificare in ordine di priorità il traffico su questa connessione.
Per un elenco di schede di interfaccia di rete certificate con supporto NVGRE, vedere la pagina relativa al catalogo di Windows Server.
Un'interfaccia di rete Gigabit Ethernet per la gestione remota
Questa scheda di rete di caricamento, ILO (Integrated Lights-Out) o BMC (Baseboard Management Controller) si connette alla rete di gestione.
2.2. Progettare la configurazione software del cluster di gestione
Nell'elenco seguente vengono descritti in generale i componenti software consigliati per il cluster di gestione:
Windows Server 2012 R2 Datacenter
Clustering di failover
Aggiornamento compatibile con cluster
Hyper-V
Nell'elenco seguente vengono descritti in generale i servizi da eseguire nelle macchine virtuali sul cluster di gestione:
Server DNS, Server DHCP e Servizi di dominio Active Directory.
Windows Server Update Services
Servizi di distribuzione Windows
Microsoft SQL Server
System Center Virtual Machine Manager
Server di libreria System Center Virtual Machine Manager
System Center Operations Manager
System Center Data Protection Manager
Una console di gestione (Windows Server con l'opzione di installazione GUI)
Altre macchine virtuali sono necessarie a seconda dei servizi in uso, ad esempio Windows Azure Pack e System Center Configuration Manager.
Nota
Creare commutatori virtuali identici in tutti i nodi in modo che ogni macchina virtuale possa eseguire il failover in qualsiasi nodo e mantenere la connessione alla rete.
Passaggio 3: Progettare il cluster di calcolo
In questo passaggio, si progetta il cluster di calcolo che esegue le macchine virtuali che forniscono i servizi ai tenant.
2.1. Progettare l'hardware del cluster di calcolo
Ecco i componenti hardware consigliati per i cluster di calcolo. Questi cluster ospitano le macchine virtuali tenant.
Componente
Linee guida
Cluster di calcolo Hyper-V
Ogni cluster di calcolo contiene 32 nodi e ospita fino a 2.048 macchine virtuali Hyper-V. Quando si è pronti ad aumentare la capacità, è possibile aggiungere fino a tre cluster di calcolo (e cluster di file server associati) per un totale di 128 nodi che ospitano 8.192 macchine virtuali per 512 tenant (presumendo 8 macchine virtuali per tenant).
Due CPU da otto core sono sufficienti per generici carichi di lavoro misti, ma, se si vuole eseguire una grande quantità di calcoli con carichi di lavoro notevoli nelle macchine virtuali tenant, selezionare CPU con prestazioni più elevate.
128 GB di RAM
L'esecuzione di un numero così elevato di macchine virtuali (probabilmente 64 per nodo mentre tutti i nodi del cluster sono in esecuzione) richiede più RAM che per il cluster di file server. Usare più RAM se si vuole fornire una media di più di 2 GB per macchina virtuale.
Due HDD installati in un RAID-1 (mirror) con un controller RAID di base
È qui che Windows Server viene installato in ogni nodo. Se si vuole, è possibile usare uno o più SSD. Gli SSD costano di più, ma usano meno corrente e hanno tempi di avvio, installazione e ripristino più veloci oltre a una maggiore affidabilità. È possibile usare una singola unità SSD per ridurre i costi se non è un problema reinstallare Windows Server nel nodo in caso di guasto dell'unità SSD.
Schede di interfaccia di rete
Una scheda di interfaccia di rete Dual Port 10 Gigabit Ethernet con supporto RDMA
Questa scheda comunica con il cluster di file server per l'accesso ai file con estensione vhdx usati dalle macchine virtuali. La scheda richiede il supporto RDMA per ottimizzare le prestazioni e iWARP per usare i router compresi tra rack di cluster di file server e di gestione, che possono essere importanti quando si aggiungono altri cluster di calcolo e di file server alla soluzione. Questa scheda usa SMB 3 e SMB diretto per offrire la tolleranza di errore, con ogni porta connessa a una subnet distinta.
Per un elenco di schede di interfaccia di rete certificate con supporto RDMA, vedere la pagina relativa al catalogo di Windows Server.
Una scheda di interfaccia di rete Dual Port Gigabit o 10 Gigabit Ethernet senza supporto RDMA
Questa scheda elabora il traffico di gestione e tenant. La scheda richiede il supporto per Coda macchine virtuali (VMQ), Dynamic VMQ, la codifica VLAN 802.1Q e l'offload GRE (NVGRE). La scheda usa Gruppo NIC per creare le due porte, ciascuna connessa a una subnet distinta e con tolleranza di errore.
La scheda non può usare RDMA perché RDMA richiede l'accesso diretto alla scheda di rete e questa scheda deve comunicare con i commutatori virtuali Hyper-V (che nascondono l'accesso diretto alla scheda di rete). Usa la tecnologia di Gruppo NIC per la tolleranza di errore invece di SMB diretto per consentire ai protocolli diversi da SMB di usare le connessioni di rete ridondanti. È consigliabile usare le regole di Qualità del servizio (QoS) per classificare in ordine di priorità il traffico su questa connessione.
Per un elenco di schede di interfaccia di rete certificate con supporto NVGRE, vedere la pagina relativa al catalogo di Windows Server.
Un'interfaccia di rete Gigabit Ethernet per la gestione remota
Questa scheda di rete di caricamento, ILO (Integrated Lights-Out) o BMC (Baseboard Management Controller) si connette alla rete di gestione e consente di usare System Center Virtual Machine Manager per configurare il nodo del cluster dall'hardware bare metal. L'interfaccia deve avere il supporto per Interfaccia di gestione piattaforma intelligente (IPMI) o Architettura di gestione dei sistemi per l'hardware dei server (SMASH).
2.2. Progettare la configurazione software del cluster di calcolo
Nell'elenco seguente vengono descritti in generale i componenti software consigliati per il cluster di calcolo:
Aggiornamento delle informazioni aggiuntive sulla quantità di spazio disponibile da riservare in ogni pool per ricreare gli spazi di archiviazione e aggiornamento delle dimensioni dei dischi virtuali e di conseguenza di altri numeri
2 aprile 2014
Rimozione dei collegamenti del Catalogo di Windows ai dischi SAS e alle schede HBA SAS perché i collegamenti causavano confusione