Catatan
Akses ke halaman ini memerlukan otorisasi. Anda dapat mencoba masuk atau mengubah direktori.
Akses ke halaman ini memerlukan otorisasi. Anda dapat mencoba mengubah direktori.
Windows ML bekerja dengan model format ONNX, karena Windows ML adalah distribusi Runtime ONNX yang didukung Windows dan penyedia eksekusi khusus perangkat keras. Ini berarti Anda dapat menggunakan jutaan model yang telah dilatih sebelumnya dari berbagai sumber, atau melatih model Anda sendiri. Panduan ini mencakup tempat menemukan, mengonversi, atau melatih model ONNX.
Untuk mempelajari selengkapnya tentang Windows ML, lihat Apa itu Windows ML.
| Opsi | Detail lebih lanjut |
|---|---|
| 1. Gunakan model dari Foundry Toolkit | Pilih dari lebih dari 20+ model OSS (termasuk LLM dan jenis model lainnya) yang siap dioptimalkan untuk digunakan dengan Windows ML menggunakan alat Konversi Foundry Toolkit |
| 2. Gunakan model ONNX lain yang ada | Telusuri lebih dari 30.000+ model ONNX yang telah dilatih sebelumnya dari Hugging Face atau sumber lainnya |
| 3. Mengonversi model yang ada ke format ONNX | Telusuri lebih dari 2.400.000+ model PyTorch / TensorFlow / dll yang telah dilatih sebelumnya dari Hugging Face atau sumber lain dan konversikan ke ONNX |
| 4. Menyempurnakan model yang ada | Sesuaikan lebih dari 2.400.000+ model PyTorch / TensorFlow / dll yang telah dilatih sebelumnya dari Hugging Face atau sumber lain agar berfungsi lebih baik untuk skenario Anda (dan konversikan ke format ONNX) |
| 5. Melatih model | Latih model Anda sendiri di PyTorch, TensorFlow, atau kerangka kerja lainnya, dan konversikan ke ONNX |
Anda juga dapat memilih dari lusinan model dan API AI siap pakai di Microsoft Foundry di Windows, yang berjalan melalui Windows ML. Lihat Gunakan AI lokal dengan Microsoft Foundry di Windows untuk mempelajari lebih lanjut.
Opsi 1: Gunakan model dari Foundry Toolkit
Dengan alat Konversi Foundry Toolkit, ada puluhan LLM dan jenis model lain yang siap dioptimalkan untuk digunakan dengan Windows ML. Dengan mendapatkan model melalui Foundry Toolkit, Anda akan mendapatkan model ONNX terkonversi yang dioptimalkan untuk berbagai perangkat keras yang digunakan oleh Windows ML.
Untuk menelusuri model yang tersedia, lihat Daftar Model Foundry Toolkit.
Opsi 2: Gunakan model ONNX lain yang sudah ada
Hugging Face menghosting ribuan model ONNX yang dapat Anda gunakan dengan Windows ML. Anda dapat menemukan model ONNX dengan:
- Menelusuri Model Hub Hugging Face
- Pemfilteran menurut "ONNX" di filter pustaka
Anda harus menemukan model yang kompatibel dengan versi ONNX Runtime yang disertakan dalam versi Windows ML yang Anda gunakan. Lihat versi ONNX Runtime yang disertakan dalam Windows ML untuk mengetahui versi ONNX Runtime yang Anda gunakan dengan Windows ML.
Opsi 3: Mengonversi model yang ada ke format ONNX
Model dari PyTorch, TensorFlow, atau kerangka kerja lainnya dapat dikonversi ke format ONNX dan digunakan dengan Windows ML.
Hugging Face menghosting jutaan model yang dapat Anda konversi dan gunakan dengan Windows ML.
Anda harus mengonversi model untuk dijalankan dengan versi ONNX Runtime yang disertakan dalam versi Windows ML yang Anda gunakan. Lihat versi ONNX Runtime yang disertakan dalam Windows ML untuk mengetahui versi ONNX Runtime yang Anda gunakan dengan Windows ML.
Untuk mengonversi model ke format ONNX, lihat dokumentasi khusus kerangka kerja, misalnya:
Opsi 4: Menyempurnakan model yang ada
Banyak model di Hugging Face atau sumber lainnya dapat disempurnakan (mengikuti instruksi pada kartu model di Hugging Face). Anda kemudian dapat mengonversi model yang disempurnakan ke ONNX dengan mengikuti instruksi di Opsi 3 di atas.
Cara populer untuk menyesuaikan model adalah dengan menggunakan olive finetune command. Lihat dokumentasi Olive untuk mempelajari selengkapnya tentang menggunakan Olive.
Opsi 5: Melatih model
Jika Anda memerlukan model untuk tugas tertentu dan tidak dapat menemukan model yang ada, Anda dapat melatih model Anda sendiri di PyTorch, TensorFlow, atau kerangka kerja lainnya.
Setelah melatih model, ikuti instruksi di Opsi 3 di atas untuk mengonversi model Anda ke format ONNX.
Langkah selanjutnya
Setelah memiliki model ONNX, Anda dapat menjalankannya dengan Windows ML di perangkat target Anda.
- Menginstal WINDOWS ML EPs - Mengunduh dan menginstal penyedia eksekusi di Windows ML
- Munculkan model ONNX - Pelajari cara menjalankan inferensi dengan ML Windows
Solusi lain
Sebagai bagian dari Microsoft Foundry di Windows, Anda juga dapat memilih dari puluhan model dan API AI yang siap digunakan, yang berjalan melalui Windows ML. Lihat Gunakan AI lokal dengan Microsoft Foundry di Windows untuk mempelajari lebih lanjut.