Partekatu honen bidez:


Búsqueda o entrenamiento de modelos para Windows ML

Windows ML funciona con modelos en formato ONNX, ya que Windows ML es simplemente un mecanismo de distribución que proporciona el ONNX Runtime y proveedores de ejecución específicos para el hardware. Esto significa que puede usar millones de modelos previamente entrenados existentes de varios orígenes o entrenar sus propios modelos. En esta guía se explica dónde buscar, convertir o entrenar modelos ONNX.

Options Detalles
1. Usar modelos de Foundry Toolkit Elija entre más de 20 modelos OSS (incluidos los LLM y otros tipos de modelos) que están listos para optimizarse para su uso con Windows ML mediante la Herramienta de Conversión de Foundry Toolkit.
2. Usar otros modelos ONNX existentes Examinar más de 30 000 modelos ONNX previamente entrenados desde Hugging Face u otros orígenes
3. Convertir modelos existentes en formato ONNX Explora más de 2.400.000 modelos pre-entrenados de PyTorch, TensorFlow, etc., de Hugging Face u otros orígenes y conviértelos a ONNX.
4. Ajuste de los modelos existentes Ajuste más de 2.400.000 modelos previamente entrenados de PyTorch / TensorFlow , etc de Hugging Face u otros orígenes para funcionar mejor para su escenario (y convertirlos al formato ONNX)
5. Entrenamiento de modelos Entrene sus propios modelos en PyTorch, TensorFlow u otros frameworks, y conviértalos a ONNX.

También puede elegir entre docenas de modelos y API de IA listos para usar en Microsoft Foundry en Windows, que se ejecutan a través de Windows ML. Consulte Use la inteligencia artificial local con Microsoft Foundry en Windows para obtener más información.

Opción 1: Usar modelos de Foundry Toolkit

Con la herramienta de conversión de Foundry Toolkit, hay docenas de LLMs y otros tipos de modelos listos para optimizar para su uso con Windows ML. Al obtener un modelo a través de Foundry Toolkit, obtendrá un modelo ONNX convertido optimizado para la variedad de hardware en el que se ejecuta Windows ML.

Para examinar los modelos disponibles, consulte Lista de modelos de Foundry Toolkit.

Opción 2: Usar otros modelos ONNX existentes

Hugging Face hospeda miles de modelos ONNX que puede usar con Windows ML. Puede encontrar modelos ONNX mediante:

  1. Exploración del centro de modelos de Hugging Face
  2. Filtrado por "ONNX" en el filtro de biblioteca

Tendrá que encontrar un modelo compatible con la versión en tiempo de ejecución de ONNX incluida en la versión de Windows ML que usa. Vea las versiones de ONNX Runtime incluidas en Windows ML para averiguar qué versión de ONNX Runtime está usando con Windows ML.

Opción 3: Convertir modelos existentes en formato ONNX

Los modelos de PyTorch, TensorFlow u otros marcos se pueden convertir en formato ONNX y usarse con Windows ML.

Hugging Face hospeda millones de modelos que puede convertir y usar con Windows ML.

Tendrá que convertir el modelo para que se ejecute con la versión en tiempo de ejecución de ONNX incluida en la versión de Windows ML que usa. Consulte las versiones de ONNX Runtime incluidas en Windows ML para averiguar qué versión de ONNX Runtime estás utilizando con Windows ML.

Para convertir un modelo en formato ONNX, consulte la documentación específica del marco, por ejemplo:

Opción 4: Ajustar los modelos existentes

Muchos modelos de Hugging Face o de otras fuentes se pueden ajustar finamente (siguiendo las instrucciones de las tarjetas de los modelos en Hugging Face). Después, puede convertir el modelo ajustado a ONNX siguiendo las instrucciones de la opción 3 anterior.

Una forma popular de ajustar modelos es usar el comando olive finetune. Consulte la documentación de Olive para obtener más información sobre el uso de Olive.

Opción 5: Entrenamiento de modelos

Si necesita un modelo para una tarea específica y no puede encontrar un modelo existente, puede entrenar su propio en PyTorch, TensorFlow u otros marcos.

Una vez que haya entrenado el modelo, siga las instrucciones de la opción 3 anterior para convertir el modelo al formato ONNX.

Pasos siguientes

Una vez que tenga un modelo ONNX, puede ejecutarlo con Windows ML en los dispositivos de destino.

Otras soluciones

Como parte de Microsoft Foundry en Windows, también puede elegir entre docenas de modelos y API de IA listos para usar, que se ejecutan a través de Windows ML. Consulte Use la inteligencia artificial local con Microsoft Foundry en Windows para obtener más información.