共用方式為


適用於 Linux 的 Azure NetApp Files 效能基準測試

此文章說明適用於 Linux 的效能基準Azure NetApp Files。

Linux 向外延展

本節說明 Linux 工作負載輸送量和工作負載 IOPS 的效能基準。

Linux 工作負載輸送量

下圖代表 64 kibibyte (KiB) 循序工作負載和 1 TiB 工作集。 這會顯示單一 Azure NetApp Files 磁碟區可以處理 ~1,600 MiB/s 的純循序寫入,以及 ~4,500 MiB/s 的純循序讀取。

圖表說明一次減少 10%,從純讀取到純寫入。 它示範使用不同讀取/寫入比率時 (100%:0%:0%、90%:10%、80%:20%,等) 時,您可以預期的情況。

Linux workload throughput

Linux 工作負載 IOPS

下圖代表 4 kibibyte (KiB) 隨機工作負載和 1 TiB 工作集。 此圖表顯示 Azure NetApp Files 磁碟區可以在 ~130,000 個純隨機寫入和 ~460,000 個純隨機讀取之間處理。

圖表說明一次減少 10%,從純讀取到純寫入。 它示範使用不同讀取/寫入比率時 (100%:0%:0%、90%:10%、80%:20%,等) 時,您可以預期的情況。

Linux workload IOPS

Linux 向上擴充

本節中的圖表顯示具有 NFSv3 的用戶端掛接選項所達到的驗證測試結果。 如需詳細資訊,請參閱nconnect Linux 掛接選項一節

圖表會將 nconnect 的優點與非 connected 掛接的磁碟區進行比較。 在圖表中,FIO 使用 64-KiB 循序工作負載,從 us-west2 Azure 區域中的單一 D32s_v4 執行個體產生工作負載 – 此處所代表測試時,Azure NetApp Files 支援的最大 I/O 大小。 Azure NetApp Files 現在支援較大的 I/O 大小。 如需詳細資訊,請參閱 Linux 掛接選項的 rsizewsize 一節

Linux 讀取輸送量

下圖顯示 nconnect 進行 ~3,500 MiB/s 讀取的 64-KiB 連續讀取,大約是非 nconnect 的 2.3 倍。

Linux read throughput

Linux 寫入輸送量

下圖顯示循序寫入。 這些表示 nconnect 循序寫入沒有明顯的優點。 1,500 MiB/秒大致上是循序寫入磁碟區上限和 D32s_v4 執行個體輸出限制。

Linux write throughput

Linux 讀取 IOPS

下圖顯示 nconnect 進行 ~200,000 讀取 IOPS 的 4-KiB 隨機讀取,大約是非 nconnect 的 3 倍。

Linux read IOPS

Linux 寫入 IOPS

下圖顯示 nconnect 進行 ~135,000 寫入 IOPS 的 4-KiB 隨機寫入,大約是非 nconnect 的 3 倍。

Linux write IOPS

下一步