Nota:
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
Foundry Local habilita la ejecución local de modelos de lenguaje grande (LLM) directamente en el dispositivo Windows, como parte de Microsoft Foundry en Windows. Esta es una buena alternativa si desea profundizar e implementar un escenario de INTELIGENCIA ARTIFICIAL que no está disponible con las API de IA de Windows.
Esta solución de inferencia de IA en el dispositivo proporciona ventajas de privacidad, personalización y costo en comparación con las alternativas basadas en la nube. Lo mejor de todo es que encaja en los flujos de trabajo y las aplicaciones existentes con una CLI y una API REST fáciles de usar.
Note
La documentación completa de Foundry Local (incluida la instalación, la administración de modelos, la API REST y la referencia del SDK) se mantiene en la documentación de Fundición de IA de Azure. El vínculo siguiente le lleva allí. Use el botón Atrás de tu navegador o la ruta de navegación ('breadcrumb') para volver a los documentos de inteligencia artificial de Windows en cualquier momento.
Si no está seguro de si Foundry Local es la opción adecuada para su escenario, consulte Choose la solución de inteligencia artificial de Windows antes de continuar.
Para obtener más información sobre Foundry Local, consulte la documentación local de Foundry.