Bagikan melalui


Fitur dan teknologi terintegrasi perangkat lunak dan perangkat keras (SH)

Berlaku untuk: Windows Server 2022, Windows Server 2019, Azure Stack HCI, versi 21H2 dan 20H2

Fitur-fitur ini memiliki komponen perangkat lunak dan perangkat keras. Perangkat lunak ini terkait secara intim dengan kemampuan perangkat keras yang diperlukan agar fitur berfungsi. Contohnya termasuk VMMQ, VMQ, Offload Checksum IPv4 sisi-kirim, dan RSS. Untuk mempelajari selengkapnya, lihat Persyaratan jaringan host untuk Azure Stack HCI.

Tip

Fitur SH dan HO tersedia jika NIC yang diinstal mendukungnya. Deskripsi fitur di bawah ini akan mencakup cara mengetahui apakah NIC Anda mendukung fitur tersebut.

NIC konvergen

Converged NIC adalah teknologi yang memungkinkan NIC virtual di host Hyper-V mengekspos layanan RDMA ke proses host. Windows Server 2016 tidak lagi memerlukan NIC terpisah untuk RDMA. Fitur Converged NIC memungkinkan NIC Virtual di partisi Host (vNIC) untuk mengekspos RDMA ke partisi host dan berbagi bandwidth NIC antara lalu lintas RDMA dan VM dan lalu lintas TCP/UDP lainnya dengan cara yang adil dan dapat dikelola.

Converged NIC with SDN

Anda dapat mengelola operasi NIC yang terkonvergen melalui VMM atau Windows PowerShell. Cmdlet PowerShell adalah cmdlet yang sama yang digunakan untuk RDMA (lihat di bawah).

Untuk menggunakan kemampuan NIC yang terkonvergen:

  1. Pastikan untuk mengatur host untuk DCB.

  2. Pastikan untuk mengaktifkan RDMA pada NIC, atau dalam kasus tim SET, NIC terikat ke sakelar Hyper-V.

  3. Pastikan untuk mengaktifkan RDMA pada vNIC yang ditunjuk untuk RDMA di host.

Untuk detail selengkapnya tentang RDMA dan SET, lihat Akses Memori Langsung Jarak Jauh (RDMA) dan Switch Embedded Teaming (SET).

Bridging Pusat Data (DCB)

DCB adalah rangkaian standar Institute of Electrical and Electronics Engineers (IEEE) yang memungkinkan Converged Fabrics di pusat data. DCB menyediakan manajemen bandwidth berbasis antrean perangkat keras di host dengan kerja sama dari sakelar yang berdekatan. Semua lalu lintas untuk penyimpanan, jaringan data, Komunikasi Antar Proses kluster (IPC), dan manajemen berbagi infrastruktur jaringan Ethernet yang sama. Di Windows Server 2016, DCB dapat diterapkan ke NIC satu per satu dan NIC yang terikat ke sakelar Hyper-V.

Untuk DCB, Windows Server menggunakan Kontrol Alur berbasis Prioritas (PFC), yang distandarkan dalam IEEE 802.1Qbb. PFC membuat (hampir) fabric jaringan tanpa kehilangan dengan mencegah luapan dalam kelas lalu lintas. Windows Server juga menggunakan Enhanced Transmission Selection (ETS), yang distandarkan dalam IEEE 802.1Qaz. ETS memungkinkan pembagian bandwidth menjadi bagian yang dipesan hingga delapan kelas lalu lintas. Setiap kelas lalu lintas memiliki antrean transmisi sendiri dan, melalui penggunaan PFC, dapat memulai dan menghentikan transmisi dalam kelas.

Virtualisasi Jaringan Hyper-V

Versi Deskripsi
v1 (HNVv1) Diperkenalkan di Windows Server 2012, Hyper-V Network Virtualization (HNV) memungkinkan virtualisasi jaringan pelanggan di atas infrastruktur jaringan fisik bersama. Dengan perubahan minimal yang diperlukan pada fabric jaringan fisik, HNV memberi penyedia layanan kelincahan untuk menyebarkan dan memigrasikan beban kerja penyewa di mana saja di tiga cloud: cloud penyedia layanan, cloud privat, atau cloud publik Microsoft Azure.
v2 NVGRE (HNVv2 NVGRE) Di Windows Server 2016 dan System Center Virtual Machine Manager, Microsoft menyediakan solusi virtualisasi jaringan end-to-end yang mencakup RAS Gateway, Software Load Balancing, Network Controller, dan banyak lagi. Untuk informasi selengkapnya, lihat Gambaran Umum Virtualisasi Jaringan Hyper-V di Windows Server 2016.
v2 VxLAN (HNVv2 VxLAN) Di Windows Server 2016, adalah bagian dari ekstensi SDN, yang Anda kelola melalui Pengontrol Jaringan.

Offload Tugas IPsec (IPsecTO)

Offload tugas IPsec adalah fitur NIC yang memungkinkan sistem operasi menggunakan prosesor pada NIC untuk pekerjaan enkripsi IPsec.

Penting

Offload Tugas IPsec adalah teknologi warisan yang tidak didukung oleh sebagian besar adaptor jaringan, dan di mana itu ada, itu dinonaktifkan secara default.

Jaringan Area Lokal virtual privat (PVLAN).

PVLAN hanya memungkinkan komunikasi antara komputer virtual pada server virtualisasi yang sama. Jaringan virtual privat tidak terikat ke adaptor jaringan fisik. Jaringan virtual privat diisolasi dari semua lalu lintas jaringan eksternal di server virtualisasi, serta lalu lintas jaringan apa pun antara sistem operasi manajemen dan jaringan eksternal. Jenis jaringan ini berguna ketika Anda perlu membuat lingkungan jaringan yang terisolasi, seperti domain pengujian terisolasi. Tumpukan Hyper-V dan SDN hanya mendukung mode Port Terisolasi PVLAN.

Untuk detail tentang isolasi PVLAN, lihat Pusat Sistem: Blog Teknik Manajer Mesin Virtual.

Akses Memori Langsung Jarak Jauh (RDMA)

RDMA adalah teknologi jaringan yang menyediakan komunikasi dengan throughput tinggi dan latensi rendah yang meminimalkan penggunaan CPU. RDMA mendukung jaringan tanpa penyalinan dengan mengaktifkan adaptor jaringan untuk mentransfer data langsung ke atau dari memori aplikasi. Berkemampuan RDMA berarti NIC (fisik atau virtual) mampu mengekspos RDMA ke klien RDMA. Dengan dukungan RDMA, di sisi lain, berarti NIC berkemampu RDMA mengekspos antarmuka RDMA ke atas tumpukan.

Untuk detail selengkapnya tentang RDMA, lihat Akses Memori Langsung Jarak Jauh (RDMA) dan Switch Embedded Teaming (SET).

Terima Penskalakan Sisi (RSS)

RSS adalah fitur NIC yang memisahkan set aliran yang berbeda dan mengirimkannya ke prosesor yang berbeda untuk diproses. RSS menyejajarkan pemrosesan jaringan, memungkinkan host untuk menskalakan ke tingkat data yang sangat tinggi.

Untuk detail selengkapnya, lihat Terima Penskalaan Sisi (RSS).

Virtualisasi Input-Output Akar Tunggal (SR-IOV)

SR-IOV memungkinkan lalu lintas VM untuk berpindah langsung dari NIC ke VM tanpa melewati host Hyper-V. SR-IOV adalah peningkatan performa yang luar biasa untuk VM tetapi tidak memiliki kemampuan bagi host untuk mengelola pipa tersebut. Hanya gunakan SR-IOV ketika beban kerja berperilaku baik, tepercaya, dan umumnya satu-satunya VM di host.

Lalu lintas yang menggunakan SR-IOV melewati sakelar Hyper-V, yang berarti bahwa kebijakan apa pun, misalnya, ACL, atau manajemen bandwidth tidak akan diterapkan. Lalu lintas SR-IOV juga tidak dapat diteruskan melalui kemampuan virtualisasi jaringan apa pun, sehingga enkapsulasi NV-GRE atau VxLAN tidak dapat diterapkan. Hanya gunakan SR-IOV untuk beban kerja tepercaya dengan baik dalam situasi tertentu. Selain itu, Anda tidak dapat menggunakan kebijakan host, manajemen bandwidth, dan teknologi virtualisasi.

Di masa depan, dua teknologi akan memungkinkan SR-IOV: Generic Flow Tables (GFT) dan Hardware QoS Offload (manajemen bandwidth dalam NIC) - setelah NIC dalam ekosistem kami mendukungnya. Kombinasi kedua teknologi ini akan membuat SR-IOV berguna untuk semua VM, akan memungkinkan kebijakan, virtualisasi, dan aturan manajemen bandwidth diterapkan, dan dapat mengakibatkan lompatan besar ke depan dalam aplikasi umum SR-IOV.

Untuk detail selengkapnya, lihat Gambaran Umum Virtualisasi I/O Akar Tunggal (SR-IOV).

TCP Chimney Offload

TCP Chimney Offload, juga dikenal sebagai TCP Engine Offload (TOE), adalah teknologi yang memungkinkan host untuk membongkar semua pemrosesan TCP ke NIC. Karena tumpukan TCP Windows Server hampir selalu lebih efisien daripada mesin TOE, menggunakan TCP Chimney Offload tidak disarankan.

Penting

TCP Chimney Offload adalah teknologi yang tidak digunakan lagi. Kami sarankan Anda tidak menggunakan TCP Chimney Offload karena Microsoft mungkin berhenti mendukungnya di masa mendatang.

Virtual Local Area Network (VLAN)

VLAN adalah ekstensi ke header bingkai Ethernet untuk mengaktifkan partisi LAN ke dalam beberapa VLAN, masing-masing menggunakan ruang alamatnya sendiri. Di Windows Server 2016, VLAN diatur pada port sakelar Hyper-V atau dengan mengatur antarmuka tim pada tim NIC Teaming.

Antrean Mesin Virtual (VMQ)

VMQ adalah fitur NIC yang mengalokasikan antrean untuk setiap VM. Kapan saja Anda mengaktifkan Hyper-V; Anda juga harus mengaktifkan VMQ. Di Windows Server 2016, VMQ menggunakan NIC Switch vPorts dengan satu antrean yang ditetapkan ke vPort untuk menyediakan fungsionalitas yang sama.

Virtual Machine Multi-Queue (VMMQ)

VMMQ adalah fitur NIC yang memungkinkan lalu lintas untuk VM tersebar di beberapa antrean, masing-masing diproses oleh prosesor fisik yang berbeda. Lalu lintas kemudian diteruskan ke beberapa IP di VM seperti yang akan ada di vRSS, yang memungkinkan pengiriman bandwidth jaringan yang substansial ke VM.