Memperluas penyimpanan ke Azure Stack Hub

Artikel ini menyediakan informasi infrastruktur penyimpanan Azure Stack Hub untuk membantu Anda memutuskan cara mengintegrasikan Azure Stack Hub ke lingkungan jaringan yang ada. Setelah memberikan diskusi umum tentang memperluas pusat data Anda, artikel ini menyajikan dua skenario yang berbeda. Anda dapat tersambung ke server penyimpanan file Windows. Anda juga dapat tersambung ke server iSCSI Windows.

Ringkasan perluasan penyimpanan ke Azure Stack Hub

Ada skenario bahwa data Anda berada di cloud publik tidaklah cukup. Mungkin Anda memiliki beban kerja database tervirtualisasi yang intensif komputasi, sensitif terhadap latensi, dan waktu bolak-balik ke cloud publik dapat memengaruhi performa beban kerja database. Mungkin ada data di lingkungan lokal, disimpan di server file, NAS, atau array penyimpanan iSCSI, yang perlu diakses oleh beban kerja lokal, dan harus berada di lingkungan lokal untuk memenuhi tujuan peraturan atau kepatuhan. Ini hanyalah dua dari skenario di mana memiliki data di lingkungan lokal, tetap hal yang penting bagi banyak organisasi.

Jadi, mengapa tidak menghosting data itu saja di akun penyimpanan di Azure Stack Hub, atau di dalam server file tervirtualisasi, yang berjalan di sistem Azure Stack Hub? Tidak seperti di Azure, penyimpanan Azure Stack Hub terbatas. Kapasitas yang tersedia untuk penggunaan Anda sepenuhnya bergantung pada kapasitas per node yang Anda pilih untuk dibeli, selain jumlah node yang Anda miliki. Dan karena Azure Stack Hub adalah solusi Hyper-Converged, jika Anda ingin meningkatkan kapasitas penyimpanan untuk memenuhi permintaan penggunaan, Anda juga perlu mengembangkan jejak komputasi Anda melalui penambahan node. Ini dapat berpotensi menjadi mahal, terutama jika kebutuhan akan kapasitas ekstra adalah untuk penyimpanan arsip dingin yang dapat ditambahkan dengan biaya rendah di luar sistem Azure Stack Hub.

Yang akan membawa Anda ke skenario yang akan Anda bahas di bawah ini. Bagaimana Anda dapat menyambungkan sistem Azure Stack Hub, beban kerja tervirtualisasi yang berjalan di Azure Stack Hub, secara sederhana dan efisien, ke sistem penyimpanan di luar Azure Stack Hub, yang dapat diakses melalui jaringan.

Desain untuk memperluas penyimpanan

Diagram ini menggambarkan skenario, di mana satu mesin virtual, menjalankan beban kerja, tersambung ke, dan menggunakan penyimpanan eksternal (ke VM, dan Azure Stack Hub itu sendiri), untuk tujuan membaca/menulis data, dll. Untuk artikel ini, Anda akan fokus pada pengambilan file sederhana, tetapi Anda dapat memperluas contoh ini untuk skenario yang lebih kompleks, seperti penyimpanan jarak jauh file database.

VM beban kerja pada sistem Azure Stack Hub mengakses penyimpanan eksternal. VM memiliki dua NIC, masing-masing dengan alamat IP publik dan privat.

Dalam diagram tersebut, Anda akan melihat bahwa VM pada sistem Azure Stack Hub telah disebarkan dengan beberapa NIC. Selain redundansi, praktik terbaik penyimpanan juga penting untuk memiliki banyak jalur antara target dan tujuan. Saat hal-hal menjadi lebih kompleks, adalah saat VM di Azure Stack Hub memiliki IP publik dan privat, seperti di Azure. Jika penyimpanan eksternal diperlukan untuk mencapai VM, itu hanya dapat dilakukan melalui IP publik, karena IP Privat lebih utama digunakan dalam sistem Azure Stack Hub, dalam vNet dan subnet. Penyimpanan eksternal tidak akan dapat berkomunikasi dengan ruang IP privat VM, kecuali jika melewati VPN Situs ke Situs, untuk masuk ke vNet itu sendiri. Jadi, untuk contoh ini, kami akan fokus pada komunikasi melalui ruang IP publik. Satu hal yang perlu diperhatikan dengan ruang IP publik dalam diagram, adalah bahwa ada 2 subnet kumpulan IP publik yang berbeda. Secara default, Azure Stack Hub hanya memerlukan satu kumpulan untuk tujuan alamat IP publik, tetapi ada sesuatu yang perlu dipertimbangkan, untuk perutean yang berlebihan, mungkin menambahkan kumpulan yang kedua. Namun, saat ini, tidak mungkin untuk memilih alamat IP dari kumpulan tertentu, jadi Anda mungkin memang berakhir dengan VM dengan IP publik dari kumpulan yang sama di beberapa kartu jaringan virtual.

Untuk tujuan diskusi ini, kami akan mengasumsikan bahwa perutean antara perangkat perbatasan dan penyimpanan eksternal telah ditangani, dan lalu lintas dapat melintasi jaringan dengan tepat. Untuk contoh ini, tidak masalah jika tulang punggungnya 1GbE, 10GbE, 25 GbE atau bahkan lebih cepat, namun ini penting untuk dipertimbangkan saat Anda merencanakan integrasi, untuk memenuhi kebutuhan performa aplikasi apa pun yang mengakses penyimpanan eksternal ini.

Sambungkan ke Target iSCSI Windows Server

Dalam skenario ini, kami akan menyebarkan dan mengonfigurasi mesin virtual Windows Server 2019 di Azure Stack Hub dan menyiapkannya untuk tersambung ke Target iSCSI eksternal, yang juga akan menjalankan Windows Server 2019. Jika diperlukan, kami akan mengaktifkan fitur-fitur utama seperti MPIO, untuk mengoptimalkan performa dan konektivitas antara VM dan penyimpanan eksternal.

Menyebarkan VM Windows Server 2019 di Azure Stack Hub

  1. Dari portal administrasi Azure Stack Hub Anda, dengan asumsi sistem ini telah terdaftar dengan benar dan tersambung ke marketplace, pilih Manajemen Marketplace, lalu, dengan asumsi Anda belum memiliki Windows Server Gambar 2019, pilih Tambahkan dari Azure lalu cari Windows Server 2019, tambahkan gambar Pusat Data Windows Server 2019.

    Kotak dialog

    Mengunduh gambar Windows Server 2019 mungkin memerlukan waktu.

  2. Setelah Anda memiliki gambar Windows Server 2019 di lingkungan Azure Stack Hub, masuk ke portal pengguna Azure Stack Hub.

  3. Setelah masuk ke portal pengguna Azure Stack Hub, pastikan Anda memiliki langganan penawaran, yang memungkinkan Anda menyediakan sumber daya IaaS (Komputasi, Penyimpanan, dan Jaringan).

  4. Setelah langganan tersedia, kembali ke dasbor di portal pengguna Azure Stack Hub, pilih Buat sumber daya, pilih Hitung, lalu pilih Item galeri Pusat Data Windows Server 2019.

  5. Pada bilah Dasar-dasar, lengkapi informasi sebagai berikut:

    a. Nama: VM001

    b. Nama pengguna: localadmin

    c. Kata Sandi dan Konfirmasi kata sandi: <kata sandi pilihan Anda>

    d. Langganan: <langganan pilihan Anda, dengan sumber daya komputasi/penyimpanan/jaringan>.

    e. Grup sumber daya: storagetesting (buat baru)

    f. Pilih OK

  6. Pada bilah Pilih ukuran, pilih Standard_F8s_v2 dan pilih Pilih.

  7. Pada bilah Pengaturan, pilih Jaringan virtual dan di bilah Buat jaringan virtual, sesuaikan ruang alamat menjadi 10.10.10.0/23 dan perbarui rentang alamat Subnet menjadi 10.10.10.0/24 lalu pilih OK.

  8. Pilih Alamat IP Publik, dan di bilah Buat alamat IP publik, pilih tombol radio Statis.

  9. Pada dropdown Pilih port masuk publik, pilih RDP (3389).

  10. Biarkan default lainnya dan pilih OK.

    Kotak dialog

  11. Baca ringkasannya, tunggu validasi, lalu pilih Oke untuk memulai penyebaran. Penyebaran harus selesai dalam waktu sekitar 10 menit.

  12. Setelah penyebaran selesai, di bawah Sumber Daya pilih nama mesin virtual, VM001 untuk membuka Ringkasan.

    Layar Gambaran Umum memperlihatkan informasi tentang VM001.

  13. Di bawah nama DNS, pilih Konfigurasi dan berikan label nama DNS, vm001 dan pilih Simpan, lalu pilih VM001.

  14. Di sisi kanan bilah ringksangan, pilih storagetesting-vnet/default di bawah Jaringan virtual/teks subnet.

  15. Dalam bilah storagetesting-vnet, pilih Subnet lalu +Subnet, lalu di bilah Tambahkan Subnet baru, masukkan informasi berikut, lalu pilih OK:

    a. Nama: subnet2

    b. Rentang alamat (blok CIDR): 10.10.11.0/24

    c. Grup Keamanan Jaringan: Tidak ada

    d. Tabel rute: Tidak ada

  16. Setelah disimpan, pilih VM001.

  17. Dari sisi kiri bilah ringkasan, pilih Jaringan.

  18. Pilih Lampirkan antarmuka jaringan lalu pilih Buat antarmuka jaringan.

  19. Pada bilah Buat antarmuka jaringan, masukkan informasi berikut.

    a. Nama: vm001nic2

    b. Subnet: Pastikan subnet adalah 10.10.11.0/24

    c. Grup keamanan jaringan: VM001-nsg

    d. Grup sumber daya: storagetesting

  20. Setelah berhasil dipasang, pilih VM001 dan pilih Berhenti untuk mematikan VM.

  21. Setelah VM dihentikan (dialokasikan), di sisi kiri bilah ringkasan, pilih Jaringan, pilih Lampirkan antarmuka jaringan lalu pilih vm001nic2, lalu pilih OK. NIC tambahan akan ditambahkan ke VM dalam beberapa saat.

  22. Masih pada bilah Jaringan, pilih tab vm001nic2, lalu pilih Antarmuka Jaringan:vm001nic2.

  23. Pada bilah antarmuka vm001nic, pilih Konfigurasi IP, dan di tengah bilah, pilih ipconfig1.

  24. Pada bilah pengaturan ipconfig1, pilih Diaktifkan untuk alamat IP Publik dan pilih Konfigurasi pengaturan yang diperlukan, Buat baru, dan masukkan vm001nic2pip untuk namanya, pilih Statis dan pilih OK lalu Simpan.

  25. Setelah berhasil disimpan, kembali ke bilah ringkasan VM001, dan pilih Mulai untuk memulai VM Windows Server 2019 yang dikonfigurasi.

  26. Setelah dimulai, buat sesi RDP ke dalam VM001.

  27. Setelah tersambung di dalam VM, buka CMD (sebagai administrator) dan masukkan nama host untuk mengambil nama komputer OS. Harus cocok dengan VM001. Catat ini untuk nanti.

Mengonfigurasi adaptor jaringan kedua di Windows Server 2019 VM di Azure Stack Hub

Secara default, Azure Stack Hub menetapkan gateway default ke antarmuka jaringan pertama (utama) yang dilampirkan ke mesin virtual. Azure Stack Hub tidak menetapkan gateway default ke antarmuka jaringan tambahan (sekunder) yang dilampirkan ke mesin virtual. Secara default, Anda tidak dapat berkomunikasi dengan sumber daya di luar subnet tempat antarmuka jaringan sekunder berada. Antarmuka jaringan sekunder dapat, bagaimanapun, berkomunikasi dengan sumber daya di luar subnet mereka, meskipun langkah-langkah untuk mengaktifkan komunikasi berbeda untuk sistem operasi yang berbeda.

  1. Jika Anda belum membuka koneksi, buat koneksi RDP ke VM001.

  2. Buka CMD sebagai administrator dan jalankan cetak rute yang akan mengembalikan dua antarmuka (Adaptor Jaringan Hyper-V) di dalam VM ini.

    Output

  3. Sekarang jalankan ipconfig untuk melihat alamat IP mana yang ditetapkan ke antarmuka jaringan sekunder. Dalam contoh ini, 10.10.11.4 ditetapkan ke antarmuka 6. Tidak ada alamat gateway default yang dikembalikan untuk antarmuka jaringan sekunder.

    Daftar ipconfig parsial menunjukkan bahwa adaptor Ethernet Ethernet 2 memiliki alamat IPv4 10.10.11.4.

  4. Untuk merutekan semua lalu lintas yang ditujukan ke alamat di luar subnet antarmuka jaringan sekunder ke gateway subnet, jalankan perintah berikut dari CMD:.

    route add -p 0.0.0.0 MASK 0.0.0.0 <ipaddress> METRIC 5015 IF <interface>
    

    <ipaddress> adalah alamat .1 dari subnet saat ini, dan <interface> adalah nomor antarmuka.

    Perintah penambahan rute dikeluarkan dengan nilai ipaddress 10.10.11.1, dan nomor antarmuka 6.

  5. Untuk mengonfirmasi bahwa rute yang ditambahkan ada di tabel rute, masukkan perintah cetak rute.

    Rute yang ditambahkan ditampilkan sebagai Rute Persisten dengan Alamat Gateway 10.10.11.1 dan Metrik 5015.

  6. Anda juga dapat memvalidasi komunikasi keluar dengan menjalankan perintah ping:
    ping 8.8.8.8 -S 10.10.11.4
    Bendera -S memungkinkan Anda untuk menentukan alamat sumber, dalam hal ini, 10.10.11.4 adalah alamat IP NIC yang sekarang memiliki gateway default.

  7. Tutup CMD.

Mengonfigurasi Target iSCSI Windows Server 2019

Untuk tujuan skenario ini, Anda akan memvalidasi konfigurasi di mana Target iSCSI Windows Server 2019 adalah mesin virtual yang berjalan di Hyper-V, di luar lingkungan Azure Stack Hub. Mesin virtual ini akan dikonfigurasi dengan delapan prosesor virtual, satu file VHDX, dan yang paling penting, dua adaptor jaringan virtual. Dalam skenario yang ideal, adaptor jaringan ini akan memiliki subnet yang dapat dirutekan yang berbeda, tetapi dalam validasi ini, mereka akan memiliki adaptor jaringan pada subnet yang sama.

Output perintah ipconfig parsial menunjukkan dua adaptor Ethernet pada subnet yang sama; alamat IP adalah 10.33.131.15 dan 10.33.131.16.

Untuk server Target iSCSI Anda, itu bisa berupa Windows Server 2016 atau 2019, fisik atau virtual, berjalan di Hyper-V, VMware, atau appliance alternatif pilihan Anda, seperti iSCSI SAN fisik khusus. Fokus utama di sini, adalah konektivitas masuk dan keluar dari sistem Azure Stack Hub, namun lebih baik memiliki beberapa jalur antara sumber dan tujuan, karena menyediakan redundansi tambahan, dan memungkinkan penggunaan kemampuan yang lebih canggih untuk mendorong peningkatan performa, seperti MPIO.

Saya akan menyarankan Anda untuk memperbarui Target iSCSI Windows Server 2019 Anda dengan pembaruan dan perbaikan kumulatif terbaru, mem-boot ulang jika perlu, sebelum melanjutkan dengan konfigurasi berbagi file.

Setelah diperbarui dan di-boot ulang, Anda sekarang dapat mengonfigurasi server ini sebagai Target iSCSI.

  1. Buka Pengelola Server dan pilih Kelola, lalu Tambahkan Peran dan Fitur.

  2. Setelah dibuka, pilih Berikutnya, pilih Penginstalan berbasis peran atau berbasis fitur, dan lanjutkan melalui pilihan hingga Anda mencapai halaman Pilih peran server.

  3. Perluas Layanan File dan Penyimpanan, perluas File & Layanan iSCSI dan centang kotak Server Target iSCSI , menerima perintah popup apa pun untuk menambahkan fitur baru, lalu lanjutkan hingga selesai.

    Halaman Konfirmasi Wizard Tambahkan Peran dan Fitur berjudul

    Setelah selesai, tutup Pengelola Server.

  4. Buka File Explorer, buka C:\ dan buat folder baru, bernama iSCSI.

  5. Buka kembali Pengelola Server dan pilih Layanan File dan Penyimpanan dari menu sebelah kiri.

  6. Pilih iSCSI dan pilih tautan "Untuk membuat disk virtual iSCSI, mulai Wizard Disk Virtual iSCSI Baru" di panel kanan. Pilihlah itu. Sebuah wizard muncul.

  7. Pada laman Pilih lokasi disk virtual iSCSI, pilih tombol radio untuk Ketik jalur kustom dan jelajahi C:\iSCSI Anda dan pilih Berikutnya.

  8. Beri disk virtual iSCSI nama iSCSIdisk1 atau, beri deskripsi, lalu pilih Berikutnya.

  9. Atur ukuran disk virtual ke 10 GB dan pilih Ukuran tetap dan pilih Berikutnya.

    Halaman Ukuran Disk Virtual iSCSI dari Wizard Disk Virtual iSCSI Baru menentukan ukuran tetap 10GB, dan opsi

  1. Karena ini adalah target baru, pilih Target iSCSI baru dan pilih Berikutnya.

  2. Pada halaman Tentukan nama target, masukkan TARGET1 dan pilih Berikutnya.

  3. Pada halaman Tentukan server akses, pilih Tambahkan. Ini akan membuka dialog untuk memasukkan inisiator tertentu yang akan diotorisasi untuk tersambung ke Target iSCSI.

  4. Di jendela Tambahkan ID inisiator, pilih Masukkan nilai untuk jenis yang dipilih dan di bawah Jenis pastikan IQN dipilih di menu drop-down. Masukkan iqn.1991-05.com.microsoft:<computername> dengan <computername> adalah nama komputer dari VM001 lalu pilih Berikutnya.

    Jendela

  5. Pada halaman Aktifkan Autentikasi, biarkan kotak kosong, lalu pilih Berikutnya.

  6. Konfirmasikan pilihan Anda dan pilih Buat, lalu tutup. Anda akan melihat disk virtual iSCSI Anda dibuat di Pengelola Server.

    Halaman Hasil Wizard Disk Virtual iSCSI Baru menunjukkan bahwa pembuatan disk virtual ISCSI berhasil.

Konfigurasikan Inisiator iSCSI Windows Server 2019 dan MPIO

Untuk menyiapkan Inisiator iSCSI, pertama-tama, masuk kembali ke portal pengguna Azure Stack Hub di sistem Azure Stack Hub Anda dan buka bilah ringkasan untuk VM001.

  1. Buat koneksi RDP ke VM001. Setelah tersambung, buka Pengelola Server.

  2. Pilih Tambahkan peran dan fitur, dan terima defaultnya hingga Anda mencapai halaman Fitur.

  3. Pada halaman Fitur, tambahkan Multijalur I/O dan pilih Berikutnya.

    Halaman Fitur wizard Tambahkan Peran dan Fitur memperlihatkan satu fitur, I/O Multipath, dipilih.

  4. Centang kotak Mulai ulang server tujuan secara otomatis jika diperlukan dan pilih Instal, lalu pilih Tutup. Kemungkinan besar diperlukan boot ulang, jadi setelah selesai, sambungkan kembali ke VM001.

  5. Kembali ke Pengelola Server, tunggu hingga penginstalan MPIO selesai, pilih tutup, lalu pilih Alat dan pilih MPIO.

  6. Pilih tab Temukan Multi-Jalur, dan centang kotak Tambahkan dukungan untuk perangkat iSCSI dan pilih Tambahkan, lalu pilih Ya untuk boot ulang VM001. Jika Anda tidak menerima jendela, pilih Oke, lalu boot ulang secara manual.

    Halaman Temukan Multi-Jalur dari kotak dialog MPIO memperlihatkan bahwa opsi

  7. Setelah di-boot ulang, buat koneksi RDP baru ke VM001.

  8. Setelah tersambung, buka Pengelola Server, pilih Alat dan pilih Inisiator iSCSI.

  9. Saat jendela Microsoft iSCSI muncul, pilih Ya untuk mengizinkan layanan iSCSI berjalan secara default.

    Kotak dialog Microsoft iSCSI melaporkan bahwa layanan iSCSI tidak berjalan; ada tombol Ya untuk memulai layanan.

  10. Di jendela properti Inisiator iSCSI, pilih tab Penemuan.

  11. Sekarang Anda akan menambahkan 2 Target, jadi pertama-tama pilih tombol Temukan Portal.

  12. Masukkan alamat IP pertama server Target iSCSI Anda, dan pilih Tingkat Lanjut.

    Jendela Temukan Portal Target memperlihatkan 10.33.131.15 dalam kotak teks

  13. Di jendela Pengaturan Tingkat Lanjut, pilih yang berikut ini, lalu pilih OK.

    a. Adaptor lokal: Inisiator Microsoft iSCSI.

    b. IP Inisiator: 10.10.10.4.

  14. Kembali ke jendela Temukan Portal Target, pilih OK.

  15. Ulangi proses dengan yang berikut ini:

    a. Alamat IP: Alamat IP Target iSCSI kedua Anda.

    b. Adaptor lokal: Inisiator Microsoft iSCSI.

    c. IP Inisiator: 10.10.11.4.

  16. Portal target Anda akan terlihat seperti ini, dengan IP Target iSCSI Anda sendiri di bawah kolom Alamat.

    Kotak dialog

  17. Kembali ke tab Targets, pilih Target iSCSI Anda dari tengah jendela, dan pilih Sambungkan.

  18. Di jendela Sambungkan ke target, pilih kotak centang Aktifkan multi-jalur, dan pilih Tingkat Lanjut.

    Kotak dialog

  19. Masukkan informasi berikut dan pilih OK, lalu di jendela Sambungkan ke Target, pilih OK.

    a. Adaptor lokal: Inisiator Microsoft iSCSI.

    b. IP Inisiator: 10.10.10.4.

    c. IP portal target: <IP Target iSCSI pertama Anda/3260>.

    Kotak dialog

  20. Ulangi proses untuk kombinasi inisiator/target kedua.

    a. Adaptor lokal: Inisiator Microsoft iSCSI.

    b. IP Inisiator: 10.10.11.4.

    c. IP portal target: <IP Target iSCSI kedua Anda/3260>.

    Kotak dialog

  21. Pilih tab Volume dan Perangkat, lalu pilih Konfigurasi Otomatis - Anda akan melihat volume MPIO yang ditampilkan:

    Jendela Daftar Volume memperlihatkan nama volume, titik pemasangan, dan perangkat untuk satu volume.

  22. Kembali ke tab Target, pilih Perangkat dan Anda akan melihat 2 koneksi ke VHD iSCSI tunggal yang Anda buat sebelumnya.

    Kotak dialog Perangkat memperlihatkan Disk 2 yang tercantum pada dua baris. Targetnya adalah 0 pada baris pertama, 1 pada yang kedua.

  23. Pilih tombol MPIO untuk melihat informasi selengkapnya tentang kebijakan dan jalur penyeimbangan beban.

    Halaman MPIO dari kotak dialog Detail Perangkat memperlihatkan Round Robin untuk

  24. Pilih OK tiga kali untuk keluar dari jendela dan Inisiator iSCSI.

  25. Buka Manajemen Disk (diskmgmt.msc) dan Anda akan diminta dengan jendela Inisialisasi Disk.

    Kotak dialog Inisialisasi Disk memperlihatkan Disk 2 dicentang, dan MBR (Master Boot Record) dipilih sebagai gaya partisi. Ada tombol OK.

  26. Pilih OK untuk menerima default, lalu gulir ke bawah ke disk baru, klik kanan, dan pilih Volume Sederhana Baru

  27. Berjalan melalui wizard, menerima default. Ubah label Volume menjadi iSCSIdisk1 lalu pilih Selesai.

    Kotak dialog Wizard Volume Sederhana Baru menunjukkan bahwa volume adalah NTFS dengan ukuran unit alokasi default dan label volume

  28. Drive kemudian harus diformat dan disajikan dengan huruf kandar.

  29. Buka File Explorer dan pilih PC Ini untuk melihat drive baru Anda terpasang ke VM001.

Menguji konektivitas penyimpanan eksternal

Untuk memvalidasi komunikasi dan menjalankan uji penyalinan file yang belum sempurna, pertama-tama, masuk kembali ke portal pengguna Azure Stack Hub di sistem Azure Stack Hub Anda dan buka ringkasan bilah untuk VM001

  1. Pilih Sambungkan untuk membuat koneksi RDP ke VM001

  2. Buka Pengelola Tugas, pilih tab Performa, lalu pasang jendela ke sisi kanan sesi RDP.

  3. Buka Windows PowerShell ISE sebagai administrator dan pasang ke sisi kiri sesi RDP. Di sisi kanan ISE, tutup panel Perintah, dan pilih tombol Skrip, untuk memperluas panel skrip putih di bagian atas jendela ISE.

  4. Di VM ini, tidak ada modul PowerShell asli untuk membuat VHD, yang akan kami gunakan sebagai file besar untuk menguji transfer file ke Target iSCSI. Dalam hal ini, kami akan menjalankan DiskPart untuk membuat file VHD. Di ISE, jalankan hal berikut:

    1. Start-Process Diskpart

    2. Jendela CMD baru akan terbuka, lalu masukkan:
      **Create vdisk file="c:\\test.vhd" type=fixed maximum=5120**

    Jendela CMD menunjukkan bahwa perintah yang ditentukan dikeluarkan untuk DiskPart yang berhasil menyelesaikannya, membuat file disk virtual.

    1. Ini akan memakan waktu beberapa saat untuk membuatnya. Setelah dibuat, untuk memvalidasi pembuatan, buka File Explorer dan buka C:\ - Anda akan melihat test.vhd yang baru hadir, dan berukuran 5GB.

    File test.vhd muncul dalam C:, seperti yang diharapkan, dan merupakan ukuran yang ditentukan.

    1. Tutup jendela CMD, dan kembali ke ISE, lalu masukkan perintah berikut di Jendela skrip. Ganti F:\ dengan huruf kandar Target iSCSI yang diterapkan sebelumnya.

    2. Copy-Item "C:\\test.vhd" -Destination "F:\\"

    3. Pilih baris di jendela skrip, dan tekan F8 untuk menjalankan.

    4. Saat perintah sedang berjalan, amati dua adaptor jaringan dan lihat transfer data terjadi di kedua adaptor jaringan di VM001. Anda juga harus memperhatikan bahwa setiap adaptor jaringan harus berbagi beban secara merata.

    Kedua adaptor menunjukkan beban 2,6 Mbps.

Skenario ini dirancang untuk menyoroti konektivitas antara beban kerja yang berjalan di Azure Stack Hub, dan array penyimpanan eksternal, dalam hal ini, Target iSCSI berbasis Windows Server. Ini tidak dirancang untuk menjadi pengujian performa, juga tidak mencerminkan langkah-langkah yang perlu Anda lakukan jika Anda menggunakan appliance berbasis iSCSI alternatif, namun ini menyoroti beberapa pertimbangan inti yang Anda buat saat menyebarkan beban kerja di Azure Stack Hub, dan menyambungkannya ke sistem penyimpanan di luar lingkungan Azure Stack Hub.

Langkah berikutnya

Perbedaan dan pertimbangan untuk jaringan Azure Stack Hub