Mulai menggunakan Windows ML

Topik ini menuntun Anda melalui pendekatan minimal untuk menjalankan model ONNX dengan Windows ML pada CPU, lalu mengarah kepada akselerasi perangkat keras saat Anda siap.

Untuk mempelajari selengkapnya tentang Windows ML, lihat Apa itu Windows ML.

Prasyarat

  • .NET 8 atau lebih besar untuk menggunakan semua API Windows ML
    • Dengan .NET 6, Anda dapat menginstal penyedia eksekusi menggunakan Microsoft.Windows.AI.MachineLearning API, tetapi Anda tidak dapat menggunakan Microsoft.ML.OnnxRuntime API.
  • Menargetkan TFM khusus untuk Windows 10 seperti net8.0-windows10.0.17763.0 atau lebih tinggi

Langkah 1: Temukan model

Sebelum menulis kode apa pun, Anda memerlukan model ONNX. Lihat Menemukan atau melatih model untuk panduan tentang mendapatkan model ONNX.

Langkah 2: Instal Windows ML

Lihat Menginstal dan menyebarkan Windows ML untuk instruksi lengkap di semua bahasa dan mode penyebaran yang didukung (tergantung kerangka kerja dan mandiri).

Langkah Ketiga: Tambahkan namespace dan header

Setelah Anda menginstal Windows ML di proyek Anda, lihat Menggunakan API ONNX untuk panduan tentang namespace /header mana yang akan digunakan.

Langkah 4: Jalankan model ONNX

Dengan Windows ML terinstal, Anda dapat menjalankan model ONNX pada CPU tanpa penyiapan tambahan. Lihat Menjalankan model ONNX untuk panduan.

Pada titik ini aplikasi Anda memiliki jalur inferensi yang berfungsi di CPU.

Langkah 5: Secara opsional mempercepat pada NPU atau GPU

Ingin inferensi yang lebih cepat pada NPU, GPU, atau bahkan CPU? Lihat Optimalkan model AI untuk menambahkan penyedia eksekusi yang disesuaikan dengan perangkat keras untuk perangkat keras target Anda.

Lihat juga