¿Qué es el servicio de inferencia del modelo de Azure AI?
El servicio de inferencia del modelo de Azure AI proporciona acceso a los modelos más eficaces disponibles en el catálogo de modelos de Azure AI. Procedentes de los principales proveedores de modelos del sector, incluidos OpenAI, Microsoft, Meta, Mistral, Cohere, G42 y AI21 Labs; estos modelos se pueden integrar con soluciones de software para ofrecer una amplia gama de tareas, como las de generación de contenido, resumen, comprensión de imágenes, búsqueda semántica y generación de código.
El servicio de inferencia del modelo de Azure AI proporciona una manera de consumir modelos como API sin hospedarlos en la infraestructura. Los modelos se hospedan en una infraestructura administrada por Microsoft, lo que permite el acceso basado en API al modelo del proveedor de modelos. El acceso basado en API puede reducir drásticamente el coste de acceder a un modelo y simplificar la experiencia de aprovisionamiento.
Puede obtener acceso a los proveedores de modelos clave del sector, incluidos OpenAI, Microsoft, Meta, Mistral, Cohere, G42 y AI21 Labs. Los proveedores de modelos definen los términos de licencia y establecen el precio para el uso de sus modelos. En la lista siguiente se muestran todos los modelos disponibles:
Proveedor de modelos | Models |
---|---|
AI21 Labs | - AI21-Jamba-1.5-Mini - AI21-Jamba-1.5-Large |
Azure OpenAI | - o1-preview (Request Access) - o1-mini (Request Access) - gpt-4o-mini - gpt-4o - text-embedding-3-small - text-embedding-3-large |
Cohere | - Cohere-command-r-plus-08-2024 - Cohere-command-r-08-2024 - Cohere-embed-v3-multilingual - Cohere-embed-v3-english - Cohere-command-r-plus - Cohere-command-r |
Meta AI | - Meta-Llama-3-8B-Instruct - Meta-Llama-3-70B-Instruct - Meta-Llama-3.1-8B-Instruct - Meta-Llama-3.1-70B-Instruct - Meta-Llama-3.1-405B-Instruct - Llama-3.2-11B-Vision-Instruct - Llama-3.2-90B-Vision-Instruct |
Mistral AI | - Mistral-Small - Mistral-Nemo - Mistral-large - Mistral-large-2407 |
Microsoft | - Phi-3-mini-4k-instruct - Phi-3-medium-4k-instruct - Phi-3-mini-128k-instruct - Phi-3-medium-128k-instruct - Phi-3-small-8k-instruct - Phi-3-small-128k-instruct - Phi-3.5-vision-instruct - Phi-3.5-mini-instruct - Phi-3.5-MoE-instruct |
Puede decidir y configurar qué modelos están disponibles para la inferencia en el recurso creado. Cuando se configura un modelo determinado, puede generar predicciones a partir de él si indica su nombre de modelo o nombre de implementación en las solicitudes. No se requieren más cambios en el código para usarlo.
Para obtener información sobre cómo agregar modelos al recurso de inferencia del modelo de Azure AI y usarlos, lea Adición y configuración de modelos a modelos de Azure AI en la inferencia del modelo de Azure AI.
Los modelos que ofrecen los proveedores que no son de Microsoft (por ejemplo: los modelos Llama y Mistral) se facturan a través de Azure Marketplace. Para estos modelos, es necesario suscribirse a la oferta de modelo determinada de acuerdo con los Términos de uso del Marketplace comercial de Microsoft. Los usuarios aceptan los términos de licencia para el uso de los modelos. La información de precios para el consumo se proporciona durante la implementación.
Los modelos que ofrece Microsoft (por ejemplo, los modelos Phi-3 y los de Azure OpenAI) no tienen este requisito y se facturan a través de medidores de Azure como servicios de consumo de primera entidad. Como se describe en Términos del producto, compra servicios de consumo de primera entidad mediante medidores de Azure, pero no están sujetos a los términos del servicio de Azure.