適用於 Linux 的 Azure NetApp Files 效能基準測試
此文章說明適用於 Linux 的效能基準Azure NetApp Files。
Linux 向外延展
本節說明 Linux 工作負載輸送量和工作負載 IOPS 的效能基準。
Linux 工作負載輸送量
下圖代表 64 kibibyte (KiB) 循序工作負載和 1 TiB 工作集。 這會顯示單一 Azure NetApp Files 磁碟區可以處理 ~1,600 MiB/s 的純循序寫入,以及 ~4,500 MiB/s 的純循序讀取。
圖表說明一次減少 10%,從純讀取到純寫入。 它示範使用不同讀取/寫入比率時 (100%:0%:0%、90%:10%、80%:20%,等) 時,您可以預期的情況。
Linux 工作負載 IOPS
下圖代表 4 kibibyte (KiB) 隨機工作負載和 1 TiB 工作集。 此圖表顯示 Azure NetApp Files 磁碟區可以在 ~130,000 個純隨機寫入和 ~460,000 個純隨機讀取之間處理。
圖表說明一次減少 10%,從純讀取到純寫入。 它示範使用不同讀取/寫入比率時 (100%:0%:0%、90%:10%、80%:20%,等) 時,您可以預期的情況。
Linux 向上擴充
本節中的圖表顯示具有 NFSv3 的用戶端掛接選項所達到的驗證測試結果。 如需詳細資訊,請參閱nconnect
Linux 掛接選項一節。
圖表會將 nconnect
的優點與非 connected
掛接的磁碟區進行比較。 在圖表中,FIO 使用 64-KiB 循序工作負載,從 us-west2 Azure 區域中的單一 D32s_v4 執行個體產生工作負載 – 此處所代表測試時,Azure NetApp Files 支援的最大 I/O 大小。 Azure NetApp Files 現在支援較大的 I/O 大小。 如需詳細資訊,請參閱 Linux 掛接選項的 rsize
和 wsize
一節。
Linux 讀取輸送量
下圖顯示 nconnect
進行 ~3,500 MiB/s 讀取的 64-KiB 連續讀取,大約是非 nconnect
的 2.3 倍。
Linux 寫入輸送量
下圖顯示循序寫入。 這些表示 nconnect
循序寫入沒有明顯的優點。 1,500 MiB/秒大致上是循序寫入磁碟區上限和 D32s_v4 執行個體輸出限制。
Linux 讀取 IOPS
下圖顯示 nconnect
進行 ~200,000 讀取 IOPS 的 4-KiB 隨機讀取,大約是非 nconnect
的 3 倍。
Linux 寫入 IOPS
下圖顯示 nconnect
進行 ~135,000 寫入 IOPS 的 4-KiB 隨機寫入,大約是非 nconnect
的 3 倍。