Delen via


Opslag voor HPC-energieomgevingen

Grootschalige HPC-workloads hebben behoefte aan gegevensopslag en -toegang die de mogelijkheden van traditionele cloudbestandssystemen overschrijden.

Hieronder vindt u de factoren die u moet overwegen en identificeren over uw toepassingsvereiste om te bepalen welke opslagoplossing moet worden gebruikt

  • Latency
  • IOPS,
  • Doorvoer
  • Bestandsgrootten en aantal,
  • Taakuitvoertijd
  • Kosten gekoppeld
  • Affiniteit voor opslaglocatie : on-premises versus Azure

Zie 'Inzicht in factoren die invloed hebben op de hpc-opslagselectie in Azure' voor meer informatie over de factoren die invloed hebben op HPC-opslagselectie in Azure.

Beslissingsstructuur voor specifieke HPC-opslagsysteemkeuze.

Diagram met een beslissingsstructuur met overwegingen bij het kiezen van een opslagoplossing.

Overwegingen voor HPC-ontwerp

Olie- en gasbedrijven moeten exabytes aan seismische gegevens, brongegevens, kaarten, leases en meer effectief kunnen beheren en opslaan. Om deze gegevens te kunnen gebruiken, hebben ze een hoogwaardige infrastructuur nodig die realtime analyses kan verwerken en leveren om productie te optimaliseren, milieurisico's te verminderen en operationele veiligheid te verbeteren.

De behoeften voor gegevensopslag en -toegang variëren sterk, afhankelijk van de schaal van de werkbelasting. ondersteuning voor Azure verschillende benaderingen voor het beheren van de snelheid en capaciteit van HPC-toepassingen.

Grootschalige Batch- en HPC-workloads in de energiesector hebben behoefte aan gegevensopslag en -toegang die de mogelijkheden van traditionele cloudbestandssystemen overschrijden. De I/O-vereisten met hoge prestaties en enorme schaalbaarheidsbehoeften van HPC (High Performance Computing) bieden unieke uitdagingen voor gegevensopslag en -toegang.

HPC wordt gebruikt om complexe problemen op te lossen, zoals Seismic- en Reservoirsimulatie en -modellering, die niet praktisch of rendabel zijn om te verwerken met traditionele computingtechnieken. Dit doet u door middel van een combinatie van parallelle verwerking en enorme schaalbaarheid om snel, efficiënt en betrouwbaar grote en gecompliceerde rekentaken uit te voeren.

Daarnaast zijn rekenknooppunten in Azure HPC-clusters virtuele machines die indien nodig kunnen worden uitgerold om taken uit te voeren die aan het cluster zijn toegewezen. Deze knooppunten spreiden rekentaken over het cluster om de krachtige parallelle verwerking te bereiken die nodig is om de complexe problemen op te lossen waarvoor HPC wordt toegepast. Rekenknooppunten moeten lees-/schrijfbewerkingen uitvoeren op gedeelde werkopslag tijdens het uitvoeren van taken. De manier waarop knooppunten toegang krijgen tot deze opslag valt op een continuum tussen deze twee scenario's:

  • Eén set gegevens op veel rekenknooppunten: in dit scenario is er één gegevensbron in het netwerk waartoe alle rekenknooppunten toegang hebben voor werkende gegevens. Hoewel het structureel eenvoudig is, worden alle I/O-bewerkingen beperkt door de I/O-capaciteit van de opslaglocatie.
  • Veel gegevenssets naar veel rekenknooppunten: in dit scenario is er één gegevensbron in het netwerk waartoe alle rekenknooppunten toegang hebben voor werkende gegevens. Hoewel het structureel eenvoudig is, worden alle I/O-bewerkingen beperkt door de I/O-capaciteit van de opslaglocatie.

HPC-ontwerp Aanbevelingen

Kies de oplossing die het meest geschikt is voor uw unieke I/O- en capaciteitsvereisten.

Netwerkbestandssysteem (NFS)

NFS wordt vaak gebruikt om toegang te bieden tot gedeelde opslaglocaties. Met NFS deelt een server-VM het lokale bestandssysteem, dat in het geval van Azure wordt opgeslagen op een of meer virtuele harde schijven (VHD) die worden gehost in Azure Storage. Clients kunnen vervolgens de gedeelde bestanden van de server koppelen en rechtstreeks toegang krijgen tot de gedeelde locatie.

Het Network File System (NFS) wordt vaak gebruikt voor basismappen en projectruimte die op alle knooppunten is gekoppeld. Het kan ook vaak ruimte bieden voor onderzoeksgroepen die gegevens delen. Over het algemeen zijn de doorvoerworkloads horizontaal schaalbaar met weinig afhankelijkheid tussen afzonderlijke taken. Jobplanners verdelen het werk over knooppunten en coördineren de activiteit. NFS is de gebruikelijke gedeelde opslag op de knooppunten die toegankelijk zijn via TCP/IP-netwerken.

NFS heeft het voordeel dat u eenvoudig kunt instellen en onderhouden en wordt ondersteund op linux- en Windows-besturingssystemen. Meerdere NFS-servers kunnen worden gebruikt om opslag over een netwerk te verdelen, maar afzonderlijke bestanden zijn alleen toegankelijk via één server.

Voor workloads met lage schaal kunt u NFS uitvoeren op het hoofdknooppunt, met behulp van een voor opslag geoptimaliseerde VM met grote kortstondige schijven of VM's uit de D-serie met Azure Premium Storage, afhankelijk van uw vereisten. Deze oplossing past bij workloads met 500 kernen of minder.

In HPC-scenario's kan de bestandsserver vaak fungeren als een knelpunt, wat de algehele prestaties beperkt. Pogingen om toegang te krijgen tot niet-opgeslagen gegevens van één NFS-server met een snelheid die hoger is dan de gedocumenteerde IOPS per VM en doorvoer leidt tot beperking.

In een scenario waarin tientallen clients proberen te werken aan gegevens die zijn opgeslagen op één NFS-server, kunnen deze limieten eenvoudig worden bereikt, waardoor de prestaties van uw hele toepassing te lijden hebben. Hoe dichter bij een puur een-op-veel-scenario uw HPC-toepassing gebruikt, hoe sneller u tegen deze beperkingen aanloopt.

Parallelle bestandssystemen in Azure

Parallelle bestandssystemen verdelen opslag op blokniveau over meerdere netwerkknooppunten. Bestandsgegevens worden verdeeld over deze knooppunten, wat betekent dat bestandsgegevens worden verspreid over meerdere opslagapparaten. Hiermee worden alle afzonderlijke I/O-aanvragen voor opslag gegroepeerd op meerdere opslagknooppunten die toegankelijk zijn via een algemene naamruimte.

Meerdere opslagapparaten en meerdere paden naar gegevens worden gebruikt om een hoge mate van parallelle uitvoering te bieden, waardoor knelpunten worden verminderd die worden opgelegd door slechts één knooppunt tegelijk te openen. Parallelle I/O kan echter moeilijk te coördineren en optimaliseren zijn als u rechtstreeks werkt op het niveau van API- of POSIX I/O-interface. Door tussenliggende gegevenstoegang en coördinatielagen te introduceren, bieden parallelle bestandssystemen toepassingsontwikkelaars een interface op hoog niveau tussen de toepassingslaag en de I/O-laag.

MpI-workloads voor energie hebben unieke vereisten met de behoefte aan communicatie met lage latentie tussen knooppunten. De knooppunten zijn verbonden via snelle interconnect en zijn niet bereikbaar voor delen met andere workloads. MPI-toepassingen maken gebruik van de volledige high-performance interconnects met behulp van de Pass-Through-modus in gevirtualiseerde omgevingen. Opslag voor MPI-knooppunten is meestal een parallel bestandssysteem zoals Lustre dat ook toegankelijk is via de snelle interconnect. Lustre/BeeGFS wordt doorgaans gebruikt voor het afhandelen van de grote doorvoervereisten van voornamelijk seismische verwerking (maar ook reservoirsimulatie).

Parallelle bestandssystemen zoals Lustre worden gebruikt voor HPC-energieworkloads die toegang nodig hebben tot grote bestanden, gelijktijdige toegang vanaf meerdere rekenknooppunten en enorme hoeveelheden gegevens. De implementatie van parallelle bestandssystemen maakt het eenvoudig om te schalen in termen van mogelijkheden en prestaties. Dergelijke bestandssystemen profiteren van RDMA-overdrachten met grote bandbreedte en verminderd CPU-gebruik. Het parallelle bestandssysteem wordt meestal gebruikt als scratchruimte en is bedoeld voor werk waarvoor geoptimaliseerde I/O is vereist. Voorbeelden hiervan zijn het instellen van werkbelastingen, voorverwerking, uitvoering en naverwerking.

Het gebruik van een georganiseerde parallelle bestandsservice, zoals Azure Managed Lustre, werkt voor 50.000 of meer kernen, met lees-/schrijfsnelheden tot 500 GB/s en 2,5 PB-opslag.

Zie Parallel Virtual File Systems in Microsoft Azure - Deel 1: Overzicht - Microsoft Tech Community voor meer informatie over het parallelle virtuele bestandssysteem in Azure.

  • Azure NetApp Files en lokale schijven worden doorgaans gebruikt voor het verwerken van de meer latentie/IOPS-gevoelige workloads, zoals seismische interpretatie, modelvoorbereiding en visualisatie. Overweeg het gebruik voor workloads van maximaal 4.000 kernen, met een doorvoer tot 6,5 GiB/s en workloads die profiteren van onze vereiste multiprotocoltoegang (NFS/SMB) tot dezelfde gegevensset.
  • Azure Managed Lustre biedt snellere en hogere capaciteitsopslag voor HPC-workloads. Deze oplossing werkt voor middelgrote tot zeer grote workloads en biedt ondersteuning voor 50.000 of meer kernen, met doorvoer tot 500 GB/s en opslagcapaciteit tot 2,5 PiB.
  • Standard of Premium Blob is een rendabele oplossing voor de cloud met de laagste kosten. Deze service biedt waar nodig exabyteschaal, hoge doorvoer, lage latentietoegang, vertrouwde bestandssysteem- en multiprotocoltoegang (REST, HDFS, NFS). U kunt gebruikmaken van de NFS v3.0 op het blob-service-eindpunt voor hoge doorvoer en zware werkbelastingen lezen. U kunt kosten optimaliseren door over te stappen op koeler lagen met de mogelijkheid om levenscyclusbeheer uit te voeren met de laatste update/laatste toegangstijd, intelligente lagen met aanpasbare beleidsregels.
  • De olie- en gasbelastingen kunnen ook een mechanisme voor grote gegevensgrootte en volumesoverdracht van on-premises naar de cloud vereisen en vice versa dat kan worden bereikt door
    • Offline - migratie op basis van apparaten (DataBox)
    • Online: via de migratie op basis van het netwerk (ExpressRoute).

Volgende stappen

De volgende lijst met artikelen leidt u naar richtlijnen die zijn gevonden op specifieke punten in het cloudacceptatietraject om u te helpen succesvol te zijn in het scenario voor cloudimplementatie voor energie-HPC-omgevingen.