Nuta
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować się zalogować lub zmienić katalog.
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować zmienić katalogi.
Windows ML współpracuje z modelami formatu ONNX, ponieważ Windows ML to po prostu mechanizm dystrybucji zapewniający środowisko uruchomieniowe ONNX i dostawców wykonania specyficznego dla sprzętu. Oznacza to, że możesz użyć milionów istniejących wstępnie wytrenowanych modeli z różnych źródeł lub wytrenować własne modele. W tym przewodniku opisano, gdzie można znaleźć, przekonwertować lub wytrenować modele ONNX.
| Opcje | Szczegóły |
|---|---|
| 1. Korzystanie z modeli z zestawu narzędzi AI Toolkit | Wybierz spośród ponad 20 modeli OSS (w tym LLM-y i inne typy modeli), które są gotowe do optymalizacji w celu użycia z Windows ML przy użyciu narzędzia do konwersji AI Toolkit. |
| 2. Użyj innych istniejących modeli ONNX | Przeglądaj ponad 30 000 wstępnie wytrenowanych modeli ONNX z Hugging Face lub innych źródeł |
| 3. Konwertowanie istniejących modeli na format ONNX | Przeglądaj ponad 2400 000+ wstępnie wytrenowane modele PyTorch / TensorFlow / etc z Hugging Face lub innych źródeł i konwertuj je na ONNX |
| 4. Dostosuj istniejące modele | Dostrajanie ponad 2 400 000 wstępnie wytrenowanych modeli PyTorch / TensorFlow / etc z Hugging Face lub innych źródeł, aby działały lepiej w twoich scenariuszach (i przekształcić je na format ONNX) |
| 5. Trenowanie modeli | Trenowanie własnych modeli w PyTorch, TensorFlow lub innych platformach i konwertowanie ich na ONNX |
Możesz również wybrać spośród kilkudziesięciu gotowych do użycia modeli sztucznej inteligencji i interfejsów API w rozwiązaniu Microsoft Foundry w systemie Windows, które działają za pośrednictwem uczenia maszynowego systemu Windows. Aby dowiedzieć się więcej, zobacz Use local AI with Microsoft Foundry on Windows (Używanie lokalnej sztucznej inteligencji z usługą Microsoft Foundry w systemie Windows ).
Opcja 1. Korzystanie z modeli z zestawu narzędzi AI Toolkit
Dzięki narzędziu do konwersji zestawu narzędzi AI Toolkit istnieje kilkadziesiąt modeli LLM i innych typów modeli, które są gotowe do optymalizacji pod kątem użycia z Windows ML. Dzięki uzyskaniu modelu za pomocą zestawu narzędzi AI Toolkit uzyskasz przekonwertowany model ONNX zoptymalizowany pod kątem różnych sprzętu, na którym działa system Windows ML.
Aby przeglądać dostępne modele, zobacz Lista modeli zestawu narzędzi AI Toolkit.
Opcja 2. Używanie innych istniejących modeli ONNX
Hugging Face hostuje tysiące modeli ONNX, które można używać z Windows ML. Modele ONNX można znaleźć, wykonując następujące czynności:
- Przeglądanie Hugging Face Model Hub
- Filtrowanie według "ONNX" w filtrze biblioteki
Należy znaleźć model, który jest zgodny z wersją środowiska uruchomieniowego ONNX uwzględnioną w używanej wersji systemu Windows ML. Zobacz Wersje środowiska uruchomieniowego ONNX dostarczane w systemie Windows ML, aby dowiedzieć się, jakiej wersji środowiska uruchomieniowego ONNX używasz z systemem Windows ML.
Opcja 3. Konwertowanie istniejących modeli na format ONNX
Modele z bibliotekI PyTorch, TensorFlow lub innych platform można konwertować na format ONNX i używać z usługą Windows ML.
Hugging Face udostępnia miliony modeli, które można konwertować i używać z systemem Windows ML.
Należy przekonwertować model, aby był uruchamiany przy użyciu wersji środowiska uruchomieniowego ONNX uwzględnionej w używanej wersji systemu Windows ML. Zobacz Wersje środowiska uruchomieniowego ONNX dostarczane w systemie Windows ML, aby dowiedzieć się, jakiej wersji środowiska uruchomieniowego ONNX używasz z systemem Windows ML.
Aby przekonwertować model na format ONNX, zobacz dokumentację specyficzną dla platformy, na przykład:
- Samouczek dotyczący konwertowania modeli PyTorch
- Samouczek dotyczący konwertowania modeli TensorFlow
Opcja 4. Dostrajanie istniejących modeli
Wiele modeli na Hugging Face lub z innych źródeł można dostosować (zgodnie z instrukcjami zawartymi na kartach modeli na Hugging Face). Następnie można przekonwertować dostosowany model na ONNX, postępując zgodnie z instrukcjami w opcji 3 powyżej.
Popularnym sposobem dostrajania modeli jest użycie olive finetune command. Zobacz dokumentację Olive , aby dowiedzieć się więcej na temat korzystania z oliwek.
Opcja 5. Trenowanie modeli
Jeśli potrzebujesz modelu dla określonego zadania i nie możesz znaleźć istniejącego modelu, możesz wytrenować własny model w PyTorch, TensorFlow lub innych strukturach.
Po wytrenowaniu modelu postępuj zgodnie z instrukcjami w sekcji Opcja 3 powyżej, aby przekonwertować model na format ONNX.
Dalsze kroki
Po utworzeniu modelu ONNX możesz uruchomić go z usługą Windows ML na urządzeniach docelowych.
- Inicjowanie dostawców wykonawczych — pobieranie i rejestrowanie dostawców wykonawczych w usłudze Windows ML
- Uruchamianie modeli ONNX — dowiedz się, jak uruchamiać wnioskowanie za pomocą uczenia maszynowego z systemem Windows
Inne rozwiązania
W ramach rozwiązania Microsoft Foundry w systemie Windows można również wybrać spośród kilkudziesięciu gotowych do użycia modeli I interfejsów API sztucznej inteligencji, które działają za pośrednictwem usługi Windows ML. Aby dowiedzieć się więcej, zobacz Use local AI with Microsoft Foundry on Windows (Używanie lokalnej sztucznej inteligencji z usługą Microsoft Foundry w systemie Windows ).