Temukan atau latih model untuk Windows ML

Windows ML bekerja dengan model format ONNX, karena Windows ML adalah distribusi Runtime ONNX yang didukung Windows dan penyedia eksekusi khusus perangkat keras. Ini berarti Anda dapat menggunakan jutaan model yang telah dilatih sebelumnya dari berbagai sumber, atau melatih model Anda sendiri. Panduan ini mencakup tempat menemukan, mengonversi, atau melatih model ONNX.

Untuk mempelajari selengkapnya tentang Windows ML, lihat Apa itu Windows ML.

Opsi Detail lebih lanjut
1. Gunakan model dari Foundry Toolkit Pilih dari lebih dari 20+ model OSS (termasuk LLM dan jenis model lainnya) yang siap dioptimalkan untuk digunakan dengan Windows ML menggunakan alat Konversi Foundry Toolkit
2. Gunakan model ONNX lain yang ada Telusuri lebih dari 30.000+ model ONNX yang telah dilatih sebelumnya dari Hugging Face atau sumber lainnya
3. Mengonversi model yang ada ke format ONNX Telusuri lebih dari 2.400.000+ model PyTorch / TensorFlow / dll yang telah dilatih sebelumnya dari Hugging Face atau sumber lain dan konversikan ke ONNX
4. Menyempurnakan model yang ada Sesuaikan lebih dari 2.400.000+ model PyTorch / TensorFlow / dll yang telah dilatih sebelumnya dari Hugging Face atau sumber lain agar berfungsi lebih baik untuk skenario Anda (dan konversikan ke format ONNX)
5. Melatih model Latih model Anda sendiri di PyTorch, TensorFlow, atau kerangka kerja lainnya, dan konversikan ke ONNX

Anda juga dapat memilih dari lusinan model dan API AI siap pakai di Microsoft Foundry di Windows, yang berjalan melalui Windows ML. Lihat Gunakan AI lokal dengan Microsoft Foundry di Windows untuk mempelajari lebih lanjut.

Opsi 1: Gunakan model dari Foundry Toolkit

Dengan alat Konversi Foundry Toolkit, ada puluhan LLM dan jenis model lain yang siap dioptimalkan untuk digunakan dengan Windows ML. Dengan mendapatkan model melalui Foundry Toolkit, Anda akan mendapatkan model ONNX terkonversi yang dioptimalkan untuk berbagai perangkat keras yang digunakan oleh Windows ML.

Untuk menelusuri model yang tersedia, lihat Daftar Model Foundry Toolkit.

Opsi 2: Gunakan model ONNX lain yang sudah ada

Hugging Face menghosting ribuan model ONNX yang dapat Anda gunakan dengan Windows ML. Anda dapat menemukan model ONNX dengan:

  1. Menelusuri Model Hub Hugging Face
  2. Pemfilteran menurut "ONNX" di filter pustaka

Anda harus menemukan model yang kompatibel dengan versi ONNX Runtime yang disertakan dalam versi Windows ML yang Anda gunakan. Lihat versi ONNX Runtime yang disertakan dalam Windows ML untuk mengetahui versi ONNX Runtime yang Anda gunakan dengan Windows ML.

Opsi 3: Mengonversi model yang ada ke format ONNX

Model dari PyTorch, TensorFlow, atau kerangka kerja lainnya dapat dikonversi ke format ONNX dan digunakan dengan Windows ML.

Hugging Face menghosting jutaan model yang dapat Anda konversi dan gunakan dengan Windows ML.

Anda harus mengonversi model untuk dijalankan dengan versi ONNX Runtime yang disertakan dalam versi Windows ML yang Anda gunakan. Lihat versi ONNX Runtime yang disertakan dalam Windows ML untuk mengetahui versi ONNX Runtime yang Anda gunakan dengan Windows ML.

Untuk mengonversi model ke format ONNX, lihat dokumentasi khusus kerangka kerja, misalnya:

Opsi 4: Menyempurnakan model yang ada

Banyak model di Hugging Face atau sumber lainnya dapat disempurnakan (mengikuti instruksi pada kartu model di Hugging Face). Anda kemudian dapat mengonversi model yang disempurnakan ke ONNX dengan mengikuti instruksi di Opsi 3 di atas.

Cara populer untuk menyesuaikan model adalah dengan menggunakan olive finetune command. Lihat dokumentasi Olive untuk mempelajari selengkapnya tentang menggunakan Olive.

Opsi 5: Melatih model

Jika Anda memerlukan model untuk tugas tertentu dan tidak dapat menemukan model yang ada, Anda dapat melatih model Anda sendiri di PyTorch, TensorFlow, atau kerangka kerja lainnya.

Setelah melatih model, ikuti instruksi di Opsi 3 di atas untuk mengonversi model Anda ke format ONNX.

Langkah selanjutnya

Setelah memiliki model ONNX, Anda dapat menjalankannya dengan Windows ML di perangkat target Anda.

Solusi lain

Sebagai bagian dari Microsoft Foundry di Windows, Anda juga dapat memilih dari puluhan model dan API AI yang siap digunakan, yang berjalan melalui Windows ML. Lihat Gunakan AI lokal dengan Microsoft Foundry di Windows untuk mempelajari lebih lanjut.