Nota:
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
Windows ML funciona con modelos en formato ONNX, ya que es simplemente un mecanismo de distribución que proporciona el Runtime de ONNX y proveedores de ejecución específicos del hardware. Esto significa que puede usar millones de modelos previamente entrenados existentes de varios orígenes o entrenar sus propios modelos. En esta guía se explica dónde buscar, convertir o entrenar modelos ONNX.
| Options | Detalles |
|---|---|
| 1. Uso de modelos de AI Toolkit | Elija entre más de 20 modelos de sistema operativo (incluidas las LLM y otros tipos de modelos) que están listos para optimizarse para su uso con Windows ML mediante la herramienta de conversión del kit de herramientas de IA. |
| 2. Usar otros modelos ONNX existentes | Examinar más de 30 000 modelos ONNX previamente entrenados desde Hugging Face u otros orígenes |
| 3. Convertir modelos existentes en formato ONNX | Explora más de 2.400.000 modelos pre-entrenados de PyTorch, TensorFlow, etc., de Hugging Face u otros orígenes y conviértelos a ONNX. |
| 4. Ajuste de los modelos existentes | Ajuste más de 2.400.000 modelos previamente entrenados de PyTorch / TensorFlow , etc de Hugging Face u otros orígenes para funcionar mejor para su escenario (y convertirlos al formato ONNX) |
| 5. Entrenamiento de modelos | Entrene sus propios modelos en PyTorch, TensorFlow u otros frameworks, y conviértalos a ONNX. |
También puede elegir entre docenas de modelos y API de IA listos para usar en Microsoft Foundry en Windows, que se ejecutan a través de Windows ML. Consulte Uso de inteligencia artificial local con Microsoft Foundry en Windows para obtener más información.
Opción 1: Uso de modelos de AI Toolkit
Con la herramienta de conversión de AI Toolkit, hay docenas de LLM y otros tipos de modelos que están listos para ser optimizados para su uso con Windows ML. Al obtener un modelo mediante AI Toolkit, obtendrá un modelo ONNX convertido optimizado para la variedad de hardware en el que se ejecuta Windows ML.
Para examinar los modelos disponibles, consulte Lista de modelos de AI Toolkit.
Opción 2: Usar otros modelos ONNX existentes
Hugging Face hospeda miles de modelos ONNX que puedes usar con Windows ML. Puede encontrar modelos ONNX mediante:
- Exploración del centro de modelos de Hugging Face
- Filtrado por "ONNX" en el filtro de biblioteca
Tendrás que encontrar un modelo compatible con la versión en tiempo de ejecución de ONNX incluida en la versión de Windows ML que usas. Consulta Versiones de ONNX Runtime enviadas en Windows ML para averiguar qué versión de ONNX Runtime usas con Windows ML.
Opción 3: Convertir modelos existentes en formato ONNX
Los modelos de PyTorch, TensorFlow u otros marcos se pueden convertir en formato ONNX y usarse con Windows ML.
Hugging Face hospeda millones de modelos que puedes convertir y usar con Windows ML.
Tendrás que convertir el modelo para que se ejecute con la versión de ONNX Runtime incluida en la versión de Windows ML que usas. Consulta Versiones de ONNX Runtime enviadas en Windows ML para averiguar qué versión de ONNX Runtime usas con Windows ML.
Para convertir un modelo en formato ONNX, consulte la documentación específica del marco, por ejemplo:
- Tutorial sobre conversión de modelos de PyTorch
- Tutorial sobre la conversión de modelos de TensorFlow
Opción 4: Ajustar los modelos existentes
Muchos modelos de Hugging Face o de otras fuentes se pueden ajustar finamente (siguiendo las instrucciones de las tarjetas de los modelos en Hugging Face). Después, puede convertir el modelo ajustado a ONNX siguiendo las instrucciones de la opción 3 anterior.
Una forma popular de ajustar modelos es usar el comando olive finetune. Consulte la documentación de Olive para obtener más información sobre el uso de Olive.
Opción 5: Entrenamiento de modelos
Si necesita un modelo para una tarea específica y no puede encontrar un modelo existente, puede entrenar su propio en PyTorch, TensorFlow u otros marcos.
Una vez que haya entrenado el modelo, siga las instrucciones de la opción 3 anterior para convertir el modelo al formato ONNX.
Pasos siguientes
Una vez que tenga un modelo ONNX, puede ejecutarlo con Windows ML en los dispositivos de destino.
- Inicializar proveedores de ejecución : descarga y registro de proveedores de ejecución en Windows ML
- Ejecución de modelos ONNX : aprenda a ejecutar la inferencia con Windows ML
Otras soluciones
Como parte de Microsoft Foundry en Windows, también puedes elegir entre docenas de modelos y API de IA listos para usar, que se ejecutan a través de Windows ML. Consulte Uso de inteligencia artificial local con Microsoft Foundry en Windows para obtener más información.