Catatan
Akses ke halaman ini memerlukan otorisasi. Anda dapat mencoba masuk atau mengubah direktori.
Akses ke halaman ini memerlukan otorisasi. Anda dapat mencoba mengubah direktori.
Windows ML bekerja dengan model format ONNX, karena Windows ML hanyalah mekanisme distribusi yang menyediakan ONNX Runtime dan penyedia eksekusi khusus perangkat keras. Ini berarti Anda dapat menggunakan jutaan model yang telah dilatih sebelumnya dari berbagai sumber, atau melatih model Anda sendiri. Panduan ini mencakup tempat menemukan, mengonversi, atau melatih model ONNX.
| Opsi | Detail lebih lanjut |
|---|---|
| 1. Gunakan model dari Toolkit AI | Pilih dari lebih dari 20+ model OSS (termasuk LLM dan jenis model lainnya) yang siap dioptimalkan untuk digunakan dengan Windows ML menggunakan alat Konversi AI Toolkit |
| 2. Gunakan model ONNX lain yang ada | Telusuri lebih dari 30.000+ model ONNX yang telah dilatih sebelumnya dari Hugging Face atau sumber lainnya |
| 3. Mengonversi model yang ada ke format ONNX | Telusuri lebih dari 2.400.000+ model PyTorch / TensorFlow / dll yang telah dilatih sebelumnya dari Hugging Face atau sumber lain dan konversikan ke ONNX |
| 4. Menyempurnakan model yang ada | Sesuaikan lebih dari 2.400.000+ model PyTorch / TensorFlow / dll yang telah dilatih sebelumnya dari Hugging Face atau sumber lain agar berfungsi lebih baik untuk skenario Anda (dan konversikan ke format ONNX) |
| 5. Melatih model | Latih model Anda sendiri di PyTorch, TensorFlow, atau kerangka kerja lainnya, dan konversikan ke ONNX |
Anda juga dapat memilih dari puluhan model dan API AI siap pakai di Microsoft Foundry di Windows, yang berjalan melalui Windows ML. Lihat Menggunakan AI lokal dengan Microsoft Foundry di Windows untuk mempelajari selengkapnya.
Opsi 1: Menggunakan model dari Toolkit AI
Dengan alat Konversi AI Toolkit, ada puluhan LLM dan jenis model lain yang siap dioptimalkan untuk digunakan dengan Windows ML. Dengan mendapatkan model melalui Toolkit AI, Anda akan mendapatkan model ONNX terkonversi yang dioptimalkan untuk berbagai perangkat keras yang dijalankan Windows ML.
Untuk menelusuri model yang tersedia, lihat Daftar Model Toolkit AI.
Opsi 2: Gunakan model ONNX lain yang sudah ada
Hugging Face menyediakan ribuan model ONNX yang dapat Anda gunakan dengan Windows ML. Anda dapat menemukan model ONNX dengan:
- Menelusuri Model Hub Hugging Face
- Pemfilteran menurut "ONNX" di filter pustaka
Anda harus menemukan model yang kompatibel dengan versi ONNX Runtime yang disertakan dalam versi Windows ML yang Anda gunakan. Lihat versi ONNX Runtime yang dikirim di Windows ML untuk mengetahui versi ONNX Runtime apa yang Anda gunakan dengan Windows ML.
Opsi 3: Mengonversi model yang ada ke format ONNX
Model dari PyTorch, TensorFlow, atau kerangka kerja lainnya dapat dikonversi ke format ONNX dan digunakan dengan Windows ML.
Hugging Face menghosting jutaan model yang dapat Anda konversi dan gunakan dengan Windows ML.
Anda harus mengonversi model untuk dijalankan dengan versi ONNX Runtime yang disertakan dalam versi Windows ML yang Anda gunakan. Lihat versi ONNX Runtime yang dikirim di Windows ML untuk mengetahui versi ONNX Runtime apa yang Anda gunakan dengan Windows ML.
Untuk mengonversi model ke format ONNX, lihat dokumentasi khusus kerangka kerja, misalnya:
Opsi 4: Menyempurnakan model yang ada
Banyak model di Hugging Face atau sumber lainnya dapat disempurnakan (mengikuti instruksi pada kartu model di Hugging Face). Anda kemudian dapat mengonversi model yang disempurnakan ke ONNX dengan mengikuti instruksi di Opsi 3 di atas.
Cara populer untuk menyesuaikan model adalah dengan menggunakan olive finetune command. Lihat dokumentasi Olive untuk mempelajari selengkapnya tentang menggunakan Olive.
Opsi 5: Melatih model
Jika Anda memerlukan model untuk tugas tertentu dan tidak dapat menemukan model yang ada, Anda dapat melatih model Anda sendiri di PyTorch, TensorFlow, atau kerangka kerja lainnya.
Setelah melatih model, ikuti instruksi di Opsi 3 di atas untuk mengonversi model Anda ke format ONNX.
Langkah selanjutnya
Setelah Anda memiliki model ONNX, Anda dapat menjalankannya dengan Windows ML di perangkat target Anda.
- Menginisialisasi penyedia eksekusi - Mengunduh dan mendaftarkan penyedia eksekusi di Windows ML
- Menjalankan model ONNX - Pelajari cara menjalankan inferensi dengan Windows ML
Solusi lain
Sebagai bagian dari Microsoft Foundry di Windows, Anda juga dapat memilih dari puluhan model dan API AI siap pakai, yang berjalan melalui Windows ML. Lihat Menggunakan AI lokal dengan Microsoft Foundry di Windows untuk mempelajari selengkapnya.