Vilka är standard- och rekommenderade nodkonfigurationer för Azure HDInsight?
I den här artikeln beskrivs standardkonfigurationer och rekommenderade nodkonfigurationer för Azure HDInsight-kluster.
Standard och minsta rekommenderade nodkonfiguration och storlekar på virtuella datorer för kluster
I följande tabeller visas standardstorlekar och rekommenderade storlekar för virtuella datorer (VM) för HDInsight-kluster. Den här informationen är nödvändig för att förstå de VM-storlekar som ska användas när du skapar PowerShell- eller Azure CLI-skript för att distribuera HDInsight-kluster.
Om du behöver fler än 32 arbetsnoder i ett kluster väljer du en huvudnodstorlek med minst 8 kärnor och 14 GB RAM-minne.
De enda klustertyperna som har datadiskar är Kafka- och HBase-kluster med funktionen Accelererad skrivning aktiverad. HDInsight har stöd för P30- och S30-diskstorlekar i dessa scenarier. För alla andra klustertyper tillhandahåller HDInsight hanterat diskutrymme med klustret. Från och med 2019-07-11 är den hanterade diskstorleken för varje nod i det nyligen skapade klustret 128 GB. Detta kan inte ändras.
Specifikationerna för alla rekommenderade typer av virtuella datorer som används i det här dokumentet sammanfattas i följande tabell.
Storlek | vCPU | Minne: GiB | Temporär lagring (SSD) GiB | Maximalt genomflöde för temporär lagring: IOPS / Mbit/s för läsning / M/bit/s för skrivning | Maximalt antal datadiskar/dataflöde: IOPS | Maximal nätverkskort/Förväntad nätverksbandbredd (Mbit/s) |
---|---|---|---|---|---|---|
Standard_D3_v2 | 4 | 14 | 200 | 12 000 / 187 / 93 | 16 / 16 x 500 | 4/3 000 |
Standard_D4_v2 | 8 | 28 | 400 | 24 000 / 375 / 187 | 32 / 32 x 500 | 8/6 000 |
Standard_D5_v2 | 16 | 56 | 800 | 48 000 / 750 / 375 | 64 /64x500 | 8 / 12000 |
Standard_D12_v2 | 4 | 28 | 200 | 12 000 / 187 / 93 | 16 / 16 x 500 | 4/3 000 |
Standard_D13_v2 | 8 | 56 | 400 | 24 000 / 375 / 187 | 32 / 32 x 500 | 8/6 000 |
Standard_D14_v2 | 16 | 112 | 800 | 48 000 / 750 / 375 | 64 /64x500 | 8 / 12000 |
Standard_A1_v2 | 1 | 2 | 10 | 1000 / 20 / 10 | 2/2x500 | 2 / 250 |
Standard_A2_v2 | 2 | 4 | 20 | 2 000 / 40 / 20 | 4 / 4 x 500 | 2/500 |
Standard_A4_v2 | 4 | 8 | 40 | 4 000 / 80 / 40 | 8 / 8 x 500 | 4/1 000 |
Mer information om specifikationerna för varje typ av virtuell dator finns i följande dokument:
- Storlekar på virtuella datorer för generell användning:
Dv2
serie 1–5 - Minnesoptimerade storlekar för virtuella datorer:
Dv2
serie 11–15 - Storlekar på virtuella datorer för generell användning:
Av2
serie 1–8
Alla regioner som stöds
Kommentar
Om du vill hämta SKU-identifieraren för användning i PowerShell och andra skript lägger du till Standard_
i början av alla VM-SKU:er i tabellerna nedan. Till exempel D12_v2
skulle bli Standard_D12_v2
.
Klustertyp | Hadoop | HBase | Interaktiv fråga | Spark | Kafka |
---|---|---|---|---|---|
Huvud: standardstorlek för virtuell dator | E4_v3 | E4_v3 | D13_v2 | E8_v3, D13_v2* |
E4_v3 |
Huvud: minsta rekommenderade VM-storlekar | D5_v2 | D3_v2 | D13_v2 | D12_v2, D13_v2* |
D3_v2 |
Worker: standardstorlek för virtuell dator | E8_v3 | E4_v3 | D14_v2 | E8_v3 | 4 E4_v3 med 2 S30 diskar per asynkron meddelandekö |
Worker: minsta rekommenderade VM-storlekar | D5_v2 | D3_v2 | D13_v2 | D12_v2 | D3_v2 |
ZooKeeper: standardstorlek för virtuell dator | A4_v2 | A4_v2 | A4_v2 | ||
ZooKeeper: minsta rekommenderade VM-storlekar | A4_v2 | A4_v2 | A4_v2 |
* = VM-storlekar för Spark Enterprise Security Package-kluster (ESP)
Kommentar
- Worker kallas Region för HBase-klustertypen.