Utöka lagring till Azure Stack Hub
Den här artikeln innehåller information om Azure Stack Hub-lagringsinfrastruktur som hjälper dig att bestämma hur du ska integrera Azure Stack Hub i din befintliga nätverksmiljö. När du har gett en allmän diskussion om hur du utökar ditt datacenter presenteras två olika scenarier i artikeln. Du kan ansluta till en Windows-fillagringsserver. Du kan också ansluta till en Windows iSCSI-server.
Översikt över att utöka lagringen till Azure Stack Hub
Det finns scenarier där det inte räcker att ha dina data i det offentliga molnet. Du kanske har en beräkningsintensiv virtualiserad databasarbetsbelastning som är känslig för svarstider och tur och retur-tiden till det offentliga molnet kan påverka databasarbetsbelastningens prestanda. Det kanske finns data lokalt som lagras på en filserver, NAS eller iSCSI-lagringsmatris, som måste nås av lokala arbetsbelastningar och som måste finnas lokalt för att uppfylla regel- eller efterlevnadsmålen. Det här är bara två av de scenarier där data finns lokalt, som fortfarande är viktiga för många organisationer.
Så varför inte bara vara värd för dessa data i lagringskonton på Azure Stack Hub, eller inuti virtualiserade filservrar, som körs på Azure Stack Hub-systemet? Till skillnad från i Azure är Azure Stack Hub-lagring ändligt. Den kapacitet som du har tillgänglig för din användning beror helt och hållet på den kapacitet per nod som du valde att köpa, utöver antalet noder som du har. Och eftersom Azure Stack Hub är en Hyper-Converged lösning, om du vill utöka din lagringskapacitet för att uppfylla användningskraven, måste du också öka ditt beräkningsfotavtryck genom att lägga till noder. Detta kan vara potentiellt kostsamt, särskilt om behovet av extra kapacitet är för kall arkivlagring som kan läggas till för låg kostnad utanför Azure Stack Hub-systemet.
Vilket leder dig till scenariot som du kommer att ta upp nedan. Hur kan du ansluta Azure Stack Hub-system, virtualiserade arbetsbelastningar som körs på Azure Stack Hub, enkelt och effektivt, till lagringssystem utanför Azure Stack Hub, som är tillgängliga via nätverket.
Design för att utöka lagring
Diagrammet visar ett scenario där en enda virtuell dator, som kör en arbetsbelastning, ansluter till och använder extern lagring (till den virtuella datorn och Själva Azure Stack Hub) för dataläsning/skrivning osv. I den här artikeln fokuserar du på enkel hämtning av filer, men du kan expandera det här exemplet för mer komplexa scenarier, till exempel fjärrlagring av databasfiler.
I diagrammet ser du att den virtuella datorn i Azure Stack Hub-systemet har distribuerats med flera nätverkskort. Från både en redundans, men även en metod för lagring, är det viktigt att ha flera sökvägar mellan mål och mål. Där saker och ting blir mer komplexa är där virtuella datorer i Azure Stack Hub har både offentliga och privata IP-adresser, precis som i Azure. Om den externa lagringen behövs för att nå den virtuella datorn kan den bara göra det via den offentliga IP-adressen, eftersom de privata IP-adresserna främst används i Azure Stack Hub-systemen, i virtuella nätverk och undernät. Den externa lagringen skulle inte kunna kommunicera med den virtuella datorns privata IP-utrymme, såvida den inte passerar genom en plats-till-plats-VPN, för att slå in själva det virtuella nätverket. I det här exemplet fokuserar vi därför på kommunikation via det offentliga IP-utrymmet. En sak att märka med det offentliga IP-utrymmet i diagrammet är att det finns två olika offentliga IP-poolundernät. Som standard kräver Azure Stack Hub bara en pool för offentliga IP-adressändamål, men något att tänka på för redundant routning kan vara att lägga till en andra. För närvarande går det dock inte att välja en IP-adress från en specifik pool, så du kan faktiskt få virtuella datorer med offentliga IP-adresser från samma pool över flera virtuella nätverkskort.
I den här diskussionen förutsätter vi att routningen mellan gränsenheterna och den externa lagringen hanteras och att trafiken kan passera nätverket på rätt sätt. I det här exemplet spelar det ingen roll om ryggraden är 1GbE, 10GbE, 25 GbE eller ännu snabbare, men det skulle vara viktigt att tänka på när du planerar för din integrering, för att tillgodose prestandabehoven för alla program som har åtkomst till den här externa lagringen.
Ansluta till ett Windows Server iSCSI-mål
I det här scenariot distribuerar och konfigurerar vi en virtuell Windows Server 2019-dator på Azure Stack Hub och förbereder den för att ansluta till ett externt iSCSI-mål, som också kommer att köra Windows Server 2019. Där det är lämpligt aktiverar vi viktiga funktioner som MPIO för att optimera prestanda och anslutning mellan den virtuella datorn och den externa lagringen.
Distribuera den virtuella Windows Server 2019-datorn på Azure Stack Hub
Från Azure Stack Hub-administrationsportalen, förutsatt att det här systemet har registrerats korrekt och är anslutet till marknadsplatsen, väljer du Marketplace Management. Om du inte redan har en Windows Server 2019-avbildning väljer du Lägg till från Azure och söker sedan efter Windows Server 2019 och lägger till Windows Server 2019 Datacenter-avbildningen .
Det kan ta lite tid att ladda ned en Windows Server 2019-avbildning.
När du har en Windows Server 2019-avbildning i din Azure Stack Hub-miljö loggar du in på Azure Stack Hub-användarportalen.
När du har loggat in på Azure Stack Hub-användarportalen kontrollerar du att du har en prenumeration på ett erbjudande som gör att du kan etablera IaaS-resurser (beräkning, lagring och nätverk).
När du har en tillgänglig prenumeration går du tillbaka till instrumentpanelen i Azure Stack Hub-användarportalen, väljer Skapa en resurs, väljer Beräkning och sedan galleriobjektet Windows Server 2019 Datacenter.
På bladet Grundläggande fyller du i informationen på följande sätt:
a. Namn: VM001
b. Användarnamn: localadmin
c. Lösenord och bekräfta lösenord: <valfritt lösenord>
d. Prenumeration: <valfri prenumeration med beräknings-/lagrings-/nätverksresurser>.
e. Resursgrupp: lagringstestning (skapa ny)
f. Välj OK
På bladet Välj en storlek väljer du en Standard_F8s_v2 och väljer Välj.
På bladet Inställningar väljer du Det virtuella nätverket och på bladet Skapa virtuellt nätverk justerar du adressutrymmet till 10.10.10.0/23 och uppdaterar adressintervallet för undernätet till 10.10.10.0/24 och väljer sedan OK.
Välj den offentliga IP-adressen och välj knappen Statisk alternativ på bladet Skapa offentlig IP-adress.
I listrutan Välj offentliga inkommande portar väljer du RDP (3389).
Lämna de andra standardvärdena och välj OK.
Läs sammanfattningen, vänta på validering och välj sedan OK för att påbörja distributionen. Distributionen bör slutföras om cirka 10 minuter.
När distributionen har slutförts går du till Resurs och väljer namnet på den virtuella datorn , VM001 för att öppna Översikt.
Under DNS-namn väljer du Konfigurera och anger en DNS-namnetikett, vm001 och väljer Spara och sedan VM001.
Till höger på översiktsbladet väljer du storagetesting-vnet/default under texten Virtuellt nätverk/undernät.
På bladet storagetesting-vnet väljer du Undernät och sedan +Undernät. På det nya bladet Lägg till undernät anger du följande information och väljer sedan OK:
a. Namn: undernät2
b. Adressintervall (CIDR-block): 10.10.11.0/24
c. Nätverkssäkerhetsgrupp: Ingen
d. Routningstabell: Ingen
När du har sparat väljer du VM001.
Välj Nätverk på vänster sida av översiktsbladet.
Välj Anslut nätverksgränssnitt och välj sedan Skapa nätverksgränssnitt.
På bladet Skapa nätverksgränssnitt anger du följande information.
a. Namn: vm001nic2
b. Undernät: Kontrollera att undernätet är 10.10.11.0/24
c. Nätverkssäkerhetsgrupp: VM001-nsg
d. Resursgrupp: lagringstestning
När du har anslutit väljer du VM001 och väljer Stoppa för att stänga av den virtuella datorn.
När den virtuella datorn har stoppats (frigjorts) till vänster på översiktsbladet väljer du Nätverk, Anslut nätverksgränssnitt och sedan vm001nic2 och sedan OK. Det extra nätverkskortet läggs till i den virtuella datorn om en liten stund.
Välj fliken vm001nic2 på bladet Nätverk och välj sedan Nätverksgränssnitt:vm001nic2.
På bladet vm001nic-gränssnitt väljer du IP-konfigurationer och i mitten av bladet väljer du ipconfig1.
På bladet ipconfig1-inställningar väljer du Aktiverad för offentlig IP-adress och väljer Konfigurera nödvändiga inställningar, Skapa ny och anger vm001nic2pip som namn, väljer Statisk och väljer OK och sedan Spara.
När du har sparat det går du tillbaka till bladet VM001-översikt och väljer Starta för att starta den konfigurerade virtuella Windows Server 2019-datorn.
När du har startat upprättar du en RDP-session i VM001.
När du är ansluten på den virtuella datorn öppnar du CMD (som administratör) och anger värdnamn för att hämta datornamnet för operativsystemet. Den ska matcha VM001. Anteckna detta för senare.
Konfigurera det andra nätverkskortet på en virtuell Windows Server 2019-dator på Azure Stack Hub
Som standard tilldelar Azure Stack Hub en standardgateway till det första (primära) nätverksgränssnittet som är kopplat till den virtuella datorn. Azure Stack Hub tilldelar inte en standardgateway till ytterligare (sekundära) nätverksgränssnitt som är kopplade till en virtuell dator. Du kan därför som standard inte kommunicera med resurser utanför det undernät som är ett sekundärt nätverksgränssnitt befinner sig i. Sekundära nätverksgränssnitt kan dock kommunicera med resurser utanför undernätet, även om stegen för att aktivera kommunikation skiljer sig åt för olika operativsystem.
Om du inte redan har en öppen anslutning upprättar du en RDP-anslutning till VM001.
Öppna CMD som administratör och kör routningsutskrift som ska returnera de två gränssnitten (Hyper-V-nätverkskort) på den här virtuella datorn.
Kör nu ipconfig för att se vilken IP-adress som har tilldelats till det sekundära nätverksgränssnittet. I det här exemplet tilldelas gränssnittet 6 10.10.11.4. Ingen standardgatewayadress returneras för det sekundära nätverksgränssnittet.
Om du vill dirigera all trafik till adresser utanför undernätet i det sekundära nätverksgränssnittet till gatewayen för undernätet kör du följande kommando från CMD:.
route add -p 0.0.0.0 MASK 0.0.0.0 <ipaddress> METRIC 5015 IF <interface>
<ipaddress>
är .1-adressen för det aktuella undernätet och<interface>
är gränssnittsnumret.Bekräfta att den tillagda vägen finns i routningstabellen genom att ange kommandot route print .
Du kan också verifiera utgående kommunikation genom att köra ett pingkommando:
ping 8.8.8.8 -S 10.10.11.4
Med-S
flaggan kan du ange en källadress, i det här fallet är 10.10.11.4 IP-adressen för det nätverkskort som nu har en standardgateway.Stäng CMD.
Konfigurera Windows Server 2019 iSCSI-målet
I det här scenariot verifierar du en konfiguration där Windows Server 2019 iSCSI Target är en virtuell dator som körs på Hyper-V, utanför Azure Stack Hub-miljön. Den här virtuella datorn konfigureras med åtta virtuella processorer, en enda VHDX-fil och framför allt två virtuella nätverkskort. I ett idealiskt scenario har dessa nätverkskort olika dirigerbara undernät, men i den här valideringen har de nätverkskort i samma undernät.
För din iSCSI-målserver kan den vara Windows Server 2016 eller 2019, fysisk eller virtuell, som körs på Hyper-V, VMware eller en alternativ installation som du väljer, till exempel ett dedikerat fysiskt iSCSI SAN. Det viktigaste fokuset här är anslutningen till och från Azure Stack Hub-systemet, men att ha flera sökvägar mellan källan och målet är att föredra, eftersom det ger ytterligare redundans och tillåter användning av mer avancerade funktioner för att öka prestanda, till exempel MPIO.
Jag rekommenderar att du uppdaterar iSCSI Target för Windows Server 2019 med de senaste kumulativa uppdateringarna och korrigeringarna, startar om vid behov innan du fortsätter med konfigurationen av filresurser.
När den har uppdaterats och startats om kan du nu konfigurera den här servern som ett iSCSI-mål.
Öppna Serverhanteraren och välj Hantera och sedan Lägg till roller och funktioner.
När du har öppnat väljer du Nästa, väljer Rollbaserad eller funktionsbaserad installation och fortsätter med valen tills du kommer till sidan Välj serverroller .
Expandera Fil- och lagringstjänster, expandera Arkiv & iSCSI-tjänster och markera rutan iSCSI-målserver , acceptera eventuella popup-meddelanden om att lägga till nya funktioner och fortsätt sedan till slutförande.
När du är klar stänger du Serverhanteraren.
Öppna Utforskaren, navigera till C:\ och skapa en ny mapp med namnet iSCSI.
Öppna Serverhanteraren igen och välj Fil- och lagringstjänster på den vänstra menyn.
Välj iSCSI och välj länken "Starta guiden Ny virtuell iSCSI-disk" i den högra rutan för att skapa en virtuell iSCSI-disk. välj den. En guide öppnas.
På sidan Välj plats för virtuell iSCSI-disk väljer du alternativknappen för Ange en anpassad sökväg och bläddrar till din C:\iSCSI och väljer Nästa.
Ge den virtuella iSCSI-disken namnet iSCSIdisk1 och en beskrivning om du vill och välj sedan Nästa.
Ange storleken på den virtuella disken till 10 GB och välj Fast storlek och välj Nästa.
Eftersom det här är ett nytt mål väljer du Nytt iSCSI-mål och sedan Nästa.
På sidan Ange målnamn anger du TARGET1 och väljer Nästa.
På sidan Ange åtkomstservrar väljer du Lägg till. Då öppnas en dialogruta för att ange specifika initierare som ska ha behörighet att ansluta till iSCSI-målet.
I fönstret Lägg till initierar-ID väljer du Ange ett värde för den valda typen och under Typ kontrollerar du att IQN är markerat i den nedrullningsbara menyn. Ange iqn.1991-05.com.microsoft:<computername> där <datornamnet> är datornamnetVM001 och välj sedan Nästa.
På sidan Aktivera autentisering lämnar du rutorna tomma och väljer sedan Nästa.
Bekräfta dina val och välj Skapa och stäng sedan. Du bör se din virtuella iSCSI-disk som skapats i Serverhanteraren.
Konfigurera Windows Server 2019 iSCSI-initieraren och MPIO
Om du vill konfigurera iSCSI-initieraren loggar du först tillbaka till Azure Stack Hub-användarportalen i Ditt Azure Stack Hub-system och går till översiktsbladet för VM001.
Upprätta en RDP-anslutning till VM001. När du är ansluten öppnar du Serverhanteraren.
Välj Lägg till roller och funktioner och acceptera standardinställningarna tills du når sidan Funktioner .
På sidan Funktioner lägger du till Multipath I/O och väljer Nästa.
Markera rutan Starta om målservern automatiskt om det behövs och välj Installera och välj sedan Stäng. En omstart krävs troligen, så när den är klar återansluter du till VM001.
När du är tillbaka i Serverhanteraren väntar du tills MPIO-installationen har slutförts, väljer Stäng och sedan Verktyg och väljer MPIO.
Välj fliken Identifiera flera sökvägar och markera kryssrutan för att Lägga till stöd för iSCSI-enheter och välj Lägg till och välj sedan Ja för att starta om VM001. Om du inte får något fönster väljer du OK och startar sedan om manuellt.
När du har startat om upprättar du en ny RDP-anslutning till VM001.
När du är ansluten öppnar du Serverhanteraren, väljer Verktyg och väljer iSCSI-initierare.
När ett Microsoft iSCSI-fönster öppnas väljer du Ja för att tillåta att iSCSI-tjänsten körs som standard.
I egenskapsfönstret för iSCSI-initieraren väljer du fliken Identifiering .
Nu ska du lägga till 2 mål, så välj först knappen Identifiera portal .
Ange den första IP-adressen för din iSCSI-målserver och välj Avancerat.
I fönstret Avancerade inställningar väljer du följande och sedan OK.
a. Lokalt kort: Microsoft iSCSI-initierare.
b. Initierarens IP-adress: 10.10.10.4.
I fönstret Identifiera målportal väljer du OK.
Upprepa processen med följande:
a. IP-adress: Din andra IP-adress för iSCSI-mål.
b. Lokalt kort: Microsoft iSCSI-initierare.
c. Initierarens IP-adress: 10.10.11.4.
Målportalerna bör se ut så här, med dina egna iSCSI-mål-IP-adresser under kolumnen Adress .
På fliken Mål väljer du ditt iSCSI-mål i mitten av fönstret och väljer Anslut.
I fönstret Anslut till mål väljer du kryssrutan Aktivera flera sökvägar och väljer Avancerat.
Ange följande information och välj OK. I fönstret Anslut till mål väljer du OK.
a. Lokalt kort: Microsoft iSCSI-initierare.
b. Initierarens IP-adress: 10.10.10.4.
c. Ip-adress för målportalen: <din första iSCSI-mål-IP/3260>.
Upprepa processen för den andra kombinationen av initierare/mål.
a. Lokalt kort: Microsoft iSCSI-initierare.
b. Initierar-IP: 10.10.11.4.
c. Ip-adress för målportalen: <din andra iSCSI-mål-IP/3260>.
Välj fliken Volymer och enheter och välj sedan Konfigurera automatiskt – du bör se en MPIO-volym som visas:
På fliken Mål väljer du Enheter och du bör se 2 anslutningar till den enda iSCSI VHD som du skapade tidigare.
Välj MPIO-knappen för att se mer information om belastningsutjämningsprincipen och sökvägarna.
Välj OK tre gånger för att avsluta fönstren och iSCSI-initieraren.
Öppna Diskhantering (diskmgmt.msc) och du bör uppmanas att använda fönstret Initiera disk .
Välj OK för att acceptera standardinställningarna, rulla sedan ned till den nya disken, högerklicka och välj Ny enkel volym
Gå igenom guiden och acceptera standardinställningarna. Ändra volymetiketten till iSCSIdisk1 och välj sedan Slutför.
Enheten ska sedan formateras och presenteras med en enhetsbeteckning.
Öppna Utforskaren och välj Den här datorn för att se den nya enheten som är ansluten till VM001.
Testa extern lagringsanslutning
Om du vill verifiera kommunikationen och köra ett rudimentärt filkopieringstest loggar du först tillbaka till Azure Stack Hub-användarportalen i ditt Azure Stack Hub-system och navigerar till översiktsbladet för VM001
Välj Anslut för att upprätta en RDP-anslutning till VM001
Öppna Aktivitetshanteraren och välj fliken Prestanda och fäst sedan fönstret till höger i RDP-sessionen.
Öppna Windows PowerShell ISE som administratör och fäst den till vänster i RDP-sessionen. På höger sida av ISE stänger du fönstret Kommandon och väljer knappen Skript för att expandera det vita skriptfönstret överst i ISE-fönstret.
På den här virtuella datorn finns det inga inbyggda PowerShell-moduler för att skapa en virtuell hårddisk, som vi använder som en stor fil för att testa filöverföringen till iSCSI-målet. I det här fallet kör vi DiskPart för att skapa en VHD-fil. Kör följande i ISE:
Start-Process Diskpart
Ett nytt CMD-fönster öppnas och anger sedan:
**Create vdisk file="c:\\test.vhd" type=fixed maximum=5120**
- Det tar en stund att skapa. När du har skapat, för att verifiera skapandet, öppnar du Utforskaren och navigerar till C:\ – du bör se den nya test.vhd som finns och en storlek på 5 GB.
Stäng CMD-fönstret och återgå till ISE och ange sedan följande kommando i skriptfönstret. Ersätt F:\ med enhetsbeteckningen iSCSI Target som tillämpades tidigare.
Copy-Item "C:\\test.vhd" -Destination "F:\\"
Välj raden i skriptfönstret och tryck på F8 för att köra.
När kommandot körs observerar du de två nätverkskorten och ser hur data överförs mellan båda nätverkskorten i VM001. Du bör också märka att varje nätverkskort bör dela belastningen jämnt.
Det här scenariot har utformats för att markera anslutningen mellan en arbetsbelastning som körs på Azure Stack Hub och en extern lagringsmatris, i det här fallet ett Windows Server-baserat iSCSI-mål. Detta har inte utformats för att vara ett prestandatest och återspeglar inte heller de steg som du skulle behöva utföra om du använde en alternativ iSCSI-baserad installation, men den belyser några av de viktigaste övervägandena du skulle göra när du distribuerar arbetsbelastningar på Azure Stack Hub och ansluter dem till lagringssystem utanför Azure Stack Hub-miljön.