Catatan
Akses ke halaman ini memerlukan otorisasi. Anda dapat mencoba masuk atau mengubah direktori.
Akses ke halaman ini memerlukan otorisasi. Anda dapat mencoba mengubah direktori.
Topik ini menuntun Anda melalui pendekatan minimal untuk menjalankan model ONNX dengan Windows ML pada CPU, lalu mengarah kepada akselerasi perangkat keras saat Anda siap.
Untuk mempelajari selengkapnya tentang Windows ML, lihat Apa itu Windows ML.
Prasyarat
- Versi Windows yang didukung SDK Aplikasi Windows
- Arsitektur: x64 atau ARM64
- Prasyarat khusus bahasa yang terlihat di bawah ini
- .NET 8 atau lebih besar untuk menggunakan semua API Windows ML
- Dengan .NET 6, Anda dapat menginstal penyedia eksekusi menggunakan
Microsoft.Windows.AI.MachineLearningAPI, tetapi Anda tidak dapat menggunakanMicrosoft.ML.OnnxRuntimeAPI.
- Dengan .NET 6, Anda dapat menginstal penyedia eksekusi menggunakan
- Menargetkan TFM khusus untuk Windows 10 seperti
net8.0-windows10.0.17763.0atau lebih tinggi
Langkah 1: Temukan model
Sebelum menulis kode apa pun, Anda memerlukan model ONNX. Lihat Menemukan atau melatih model untuk panduan tentang mendapatkan model ONNX.
Langkah 2: Instal Windows ML
Lihat Menginstal dan menyebarkan Windows ML untuk instruksi lengkap di semua bahasa dan mode penyebaran yang didukung (tergantung kerangka kerja dan mandiri).
Langkah Ketiga: Tambahkan namespace dan header
Setelah Anda menginstal Windows ML di proyek Anda, lihat Menggunakan API ONNX untuk panduan tentang namespace /header mana yang akan digunakan.
Langkah 4: Jalankan model ONNX
Dengan Windows ML terinstal, Anda dapat menjalankan model ONNX pada CPU tanpa penyiapan tambahan. Lihat Menjalankan model ONNX untuk panduan.
Pada titik ini aplikasi Anda memiliki jalur inferensi yang berfungsi di CPU.
Langkah 5: Secara opsional mempercepat pada NPU atau GPU
Ingin inferensi yang lebih cepat pada NPU, GPU, atau bahkan CPU? Lihat Optimalkan model AI untuk menambahkan penyedia eksekusi yang disesuaikan dengan perangkat keras untuk perangkat keras target Anda.
Lihat juga
- Mempercepat model AI - Menambahkan penyedia eksekusi NPU, GPU, atau CPU
- Menjalankan model ONNX - Info tentang inferensi model ONNX
- Menginstal dan menyebarkan Windows ML - Opsi untuk menyebarkan aplikasi menggunakan Windows ML
- Tutorial - Tutorial menyeluruh penuh menggunakan Windows ML dengan model ResNet-50
- Sampel kode - Sampel kode kami menggunakan Windows ML