Compartir a través de


Exploración de modelos de Azure AI Foundry en Azure Machine Learning

Azure AI Foundry Models es su destino único para detectar, evaluar e implementar modelos de IA eficaces, tanto si está creando un copiloto personalizado, creando un agente, mejorando una aplicación existente o explorando nuevas funcionalidades de inteligencia artificial.

Con Foundry Models, puede hacer lo siguiente:

  • Explore un amplio catálogo de modelos de vanguardia de Microsoft, OpenAI, DeepSeek, Hugging Face, Meta, etc.
  • Compare y evalúe modelos en paralelo mediante tareas del mundo real y sus propios datos.
  • Implemente con confianza, gracias a las herramientas integradas para ajustar, observar e inteligencia artificial responsable.
  • Elija su ruta de acceso: traiga su propio modelo, use uno hospedado o integre sin problemas con los servicios de Azure.
  • Tanto si es desarrollador, científico de datos como arquitecto empresarial, Foundry Models le ofrece la flexibilidad y el control para crear soluciones de inteligencia artificial que se escalan de forma segura, responsable y rápida.

Azure AI Foundry ofrece un catálogo completo de modelos de IA. Hay más de 1900 modelos que van desde Modelos de Fundación, Modelos de Razonamiento, Modelos de Lenguaje Pequeño, Modelos Multimodales, Modelos Específicos del Dominio, Modelos de Industria y más.

Nuestro catálogo se organiza en dos categorías principales:

Comprender la distinción entre estas categorías le ayuda a elegir los modelos adecuados en función de sus requisitos específicos y objetivos estratégicos.

Modelos vendidos directamente por Azure

Estos son modelos hospedados y vendidos por Microsoft en términos de producto de Microsoft. Estos modelos se han sometido a una evaluación rigurosa y están profundamente integrados en el ecosistema de inteligencia artificial de Azure. Los modelos proceden de una variedad de proveedores principales y ofrecen una integración mejorada, un rendimiento optimizado y un soporte directo de Microsoft, incluidos contratos de nivel de servicio (SLA) de nivel de empresa.

Características de estos modelos directos:

  • Soporte oficial de primera mano de Microsoft
  • Alto nivel de integración con servicios e infraestructura de Azure
  • Pruebas comparativas y validación de rendimiento extensas
  • Cumplimiento de los estándares de inteligencia artificial responsable de Microsoft
  • Escalabilidad, confiabilidad y seguridad de nivel empresarial

Estos modelos también tienen la ventaja de rendimiento aprovisionado fungible, lo que significa que puede usar flexiblemente la cuota y las reservas en cualquiera de estos modelos.

Modelos de asociados y comunidad

Estos modelos constituyen la gran mayoría de los modelos de Azure AI Foundry. Estos modelos los proporcionan organizaciones de terceros de confianza, asociados, laboratorios de investigación y colaboradores de la comunidad. Estos modelos ofrecen funcionalidades especializadas y diversas de inteligencia artificial, que abarcan una amplia gama de escenarios, sectores e innovaciones.

Características de modelos de asociados y comunidad:

  • Desarrollado y respaldado por asociados externos y colaboradores de la comunidad
  • Amplia gama de modelos especializados que se atienden a nichos o casos de uso amplios
  • Normalmente validados por los propios proveedores, con directrices de integración proporcionadas por Azure
  • Innovación controlada por la comunidad y disponibilidad rápida de modelos de vanguardia
  • Integración estándar de Azure AI, con soporte y mantenimiento administrados por los proveedores respectivos

Los modelos se pueden implementar como opciones de implementación de Proceso administrado o Estándar (pago por uso). El proveedor de modelos selecciona cómo se pueden implementar los modelos.

Elegir entre modelos directos y modelos asociados y de comunidad

Al seleccionar modelos de Azure AI Foundry, tenga en cuenta lo siguiente:

  • Caso de uso y requisitos: los modelos vendidos directamente por Azure son ideales para escenarios que requieren integración profunda de Azure, soporte técnico garantizado y Acuerdos de Nivel de Servicio empresariales. Los modelos de ecosistema de Azure se destacan en casos de uso especializados y escenarios dirigidos a la innovación.
  • Expectativas de soporte técnico: los modelos vendidos directamente por Azure incluyen un sólido soporte y mantenimiento proporcionados por Microsoft. Estos modelos están soportados por sus proveedores, con distintos niveles de SLA (Acuerdo de Nivel de Servicio) y estructuras de soporte.
  • Innovación y especialización: los modelos de asociados y comunidad ofrecen acceso rápido a innovaciones especializadas y funcionalidades de nicho a menudo desarrolladas por laboratorios de investigación líderes y proveedores emergentes de inteligencia artificial.

Colecciones de modelos

El catálogo de modelos organiza los modelos en distintas colecciones:

Puede enviar una solicitud para agregar un modelo al catálogo de modelos mediante este formulario.

Información general sobre las funcionalidades del catálogo de modelos

El catálogo de modelos de Azure AI Foundry es el centro para detectar y usar una amplia gama de modelos para crear aplicaciones de IA generativa. El catálogo de modelos incluye cientos de modelos entre proveedores de modelos como Azure OpenAI, Mistral, Meta, Cohere, NVIDIA y Hugging Face, incluidos los modelos entrenados por Microsoft. Los modelos de proveedores distintos de Microsoft son productos que no son de Microsoft, tal como se define en Términos de producto de Microsoft y están sujetos a los términos proporcionados con los modelos.

Puede buscar y detectar modelos que satisfagan sus necesidades mediante la búsqueda de palabras clave y los filtros. El catálogo de modelos también ofrece la tabla de clasificación de rendimiento del modelo y las métricas de pruebas comparativas para los modelos seleccionados. Para acceder a ellos, seleccione Examinar tabla de clasificación y Comparar modelos. Los datos de pruebas comparativas también son accesibles desde la pestaña Benchmark de la tarjeta de modelo.

En los filtros del catálogo de modelos, encontrará:

  • Colección: puede filtrar modelos en función de la colección de proveedores de modelos.
  • Sector: puede filtrar por los modelos entrenados en un conjunto de datos específico del sector.
  • Funcionalidades: puede filtrar por características de modelo únicas, como el razonamiento y la llamada a herramientas.
  • Opciones de implementación: puede filtrar por los modelos que admiten opciones de implementación específicas.
    • Estándar: esta opción le permite pagar por llamada API.
    • Aprovisionado: más adecuado para la puntuación en tiempo real para un gran volumen coherente.
    • Batch: más adecuado para trabajos por lotes optimizados para costos y no latencia. No se proporciona compatibilidad con el área de juegos para la implementación por lotes.
    • Proceso administrado: esta opción permite implementar un modelo en una máquina virtual de Azure. Se le facturará el hospedaje y la inferencia.
  • Tareas de inferencia: puede filtrar modelos en función del tipo de tarea de inferencia.
  • Ajustar tareas: puede filtrar modelos en función del tipo de tarea de ajuste.
  • Licencias: puede filtrar modelos en función del tipo de licencia.

En la tarjeta del modelo, encontrará lo siguiente:

  • Hechos rápidos: verá información clave sobre el modelo de un vistazo rápido.
  • Detalles: esta página contiene la información detallada sobre el modelo, incluida la descripción, la información de versión, el tipo de datos admitido, etc.
  • Pruebas comparativas: encontrará métricas de pruebas comparativas de rendimiento para los modelos seleccionados.
  • Implementaciones existentes: si ya ha implementado el modelo, puede encontrarlo en la pestaña Implementaciones existentes.
  • Licencia: encontrará información legal relacionada con las licencias de modelos.
  • Artefactos: esta pestaña solo se mostrará para los modelos abiertos. Puede ver los recursos del modelo y descargarlos mediante la interfaz de usuario.

Implementación de modelos: computación administrada y despliegues estándar

Además de los modelos de Azure OpenAI, el catálogo de modelos ofrece dos maneras distintas de implementar modelos para su uso: cómputo gestionado e implementaciones estándar.

Las opciones y características de implementación disponibles para cada modelo varían, como se describe en las siguientes tablas. Obtenga más información sobre el procesamiento de datos con las opciones de implementación.

Funcionalidades de las opciones de implementación del modelo

Características Cómputo gestionado Implementaciones estándar
Experiencia de implementación y facturación Los pesos del modelo se implementan en máquinas virtuales dedicadas con proceso administrado. Un proceso administrado, que puede tener una o varias implementaciones, pone a disposición una API REST para la inferencia. Se le facturan las horas principales de la máquina virtual que usan las implementaciones. El acceso a los modelos se realiza a través de una implementación que aprovisiona una API para acceder al modelo. La API proporciona acceso al modelo que Microsoft hospeda y administra para la inferencia. Se le facturan entradas y salidas a las API, normalmente en tokens. Antes de implementar, se proporciona información de precios.
Autenticación de API Claves y autenticación de Microsoft Entra. Solo claves.
Seguridad del contenido Use las API del servicio de seguridad de contenido de Azure AI. Los filtros de seguridad de contenido de Azure AI están disponibles integrados con las API de inferencia. Los filtros de seguridad de contenido de Azure AI se facturan por separado.
Aislamiento de red Configure redes administradas para centros de Azure AI Foundry. El proceso administrado sigue la configuración de la marca de acceso a la red pública (PNA) del centro. Para obtener más información, consulte la sección Aislamiento de red para los modelos implementados a través de implementaciones estándar más adelante en este artículo.

Modelos disponibles para las opciones de implementación admitidas

Catálogo de modelos ofrece dos maneras distintas de implementar modelos desde el catálogo para su uso: cómputo administrado e implementaciones estándar. Cada modelo tiene diferentes opciones de implementación disponibles; obtenga más información sobre las características de las opciones de implementación y las opciones disponibles para modelos específicos en las tablas siguientes. Obtenga más información sobre el procesamiento de datos con las opciones de implementación.

Características Cómputo gestionado Implementaciones estándar
Experiencia de implementación y facturación Los pesos del modelo se implementan en máquinas virtuales dedicadas con puntos de conexión en línea administrados. El punto de conexión en línea administrado, que puede tener una o varias implementaciones, pone a disposición una API de REST para la inferencia. Se le facturan las horas principales de la máquina virtual usadas por las implementaciones. El acceso a los modelos se realiza a través de una implementación que aprovisiona una API para acceder al modelo. La API proporciona acceso al modelo hospedado en un grupo de GPU central, administrado por Microsoft, para la inferencia. Este modo de acceso se conoce como "Modelos como servicio". Se le facturan entradas y salidas a las API, normalmente en tokens; se proporciona información de precios antes de implementar.
Autenticación de API Claves y autenticación de Microsoft Entra ID. Más información. Solo claves.
Seguridad del contenido Use las API del servicio Seguridad del contenido de Azure. Los filtros de seguridad de contenido de Azure AI están disponibles integrados con las API de inferencia. Los filtros de Seguridad del contenido de Azure AI se pueden facturar por separado.
Aislamiento de red Red virtual administrada con puntos de conexión en línea. Más información.

Cómputo gestionado

La capacidad de implementar modelos con procesos administrados se basa en funcionalidades de plataforma de Azure Machine Learning para habilitar la integración sin problemas, en todo el ciclo de vida de LLMOps, de la amplia colección de modelos del catálogo de modelos.

Diagrama que muestra el ciclo de vida de LLMops.

Disponibilidad de modelos para la implementación como cómputo gestionado

Los modelos se ponen a su disposición a través de los registros de Azure Machine Learning que permiten el primer enfoque de ML para recursos de hospedaje y distribución de Machine Learning, como pesos de modelos, entornos de ejecución de contenedor para ejecutar los modelos, canalizaciones para evaluar y ajustar los modelos y conjuntos de datos para puntos de referencia y ejemplos. Estos registros de ML se basan en una infraestructura altamente escalable y lista para la empresa que ofrece las siguientes ventajas:

Despliegue de modelos para inferencia con cómputo gestionado

Los modelos disponibles para la implementación con proceso administrado se pueden implementar en puntos de conexión en línea de Azure Machine Learning para la inferencia en tiempo real o se pueden usar para la inferencia por lotes de Azure Machine Learning para procesar por lotes los datos. La implementación en un proceso administrado requiere que tenga cuota de máquina virtual en la suscripción de Azure para las SKU específicas necesarias para ejecutar el modelo de forma óptima. Algunos modelos le permiten realizar la implementación en una cuota compartida temporalmente para probar el modelo. Más información sobre la implementación de modelos:

Creación de aplicaciones de IA generativa con proceso administrado

Flujo de avisos ofrece funcionalidades para crear prototipos, experimentar, iterar e implementar las aplicaciones de IA. Puede usar modelos implementados con proceso administrado en Flujo de avisos con la herramienta Open Model LLM. También puede usar la API de REST expuesta por los procesos administrados en herramientas de LLM populares como LangChain con la Extensión de Azure Machine Learning.

Seguridad del contenido para los modelos implementados como cómputo gestionado

Servicio de seguridad de contenido de Azure AI (AACS) está disponible para su uso con modelos implementados para el proceso administrado para detectar diversas categorías de contenido perjudicial, como contenido sexual, violencia, odio y autolesión y amenazas avanzadas, como la detección de riesgos de Jailbreak y la detección de texto de material protegido. Puede consultar este cuaderno para la integración de referencias con AACS para Llama 2 o usar la herramienta Seguridad del contenido (texto) del Flujo de avisos para pasar respuestas del modelo a AACS para su filtrado. Se le facturará por separado según los precios de AACS para dicho uso.

Implementaciones estándar con facturación estándar

Algunos modelos del catálogo de modelos se pueden implementar como implementaciones estándar con facturación estándar; este método de implementación se denomina implementaciones estándar. Los modelos disponibles a través de MaaS se hospedan en la infraestructura administrada por Microsoft, lo que permite el acceso basado en API al modelo del proveedor de modelos. El acceso basado en API puede reducir drásticamente el costo de acceder a un modelo y simplificar significativamente la experiencia de aprovisionamiento. La mayoría de los modelos MaaS incluyen precios basados en tokens.

¿Cómo se ponen a disposición de los usuarios los modelos de terceros en MaaS?

Diagrama en el que se muestra el ciclo de servicio del anunciante de modelos.

El proveedor de modelos ofrece modelos disponibles para la implementación como implementaciones estándar con facturación estándar, pero hospedados en la infraestructura de Azure administrada por Microsoft y a los que se accede a través de la API. Los proveedores de modelos definen los términos de licencia y establecen el precio para el uso de sus modelos, mientras que Azure Machine Learning Service administra la infraestructura de hospedaje, hace que las API de inferencia estén disponibles y actúa como procesador de datos para las solicitudes enviadas y la salida de contenido de los modelos implementados a través de MaaS. Obtenga más información sobre el procesamiento de datos para MaaS en el artículo sobre privacidad de datos.

Nota:

Las suscripciones del proveedor de soluciones en la nube (CSP) no tienen la capacidad de comprar modelos de implementación estándar.

Facturación

La experiencia de detección, suscripción y consumo de los modelos implementados a través de MaaS se encuentra en el portal de Azure AI Foundry y Estudio de Azure Machine Learning. Los usuarios aceptan los términos de licencia para el uso de los modelos. La información de precios para el consumo se proporciona durante la implementación.

Los modelos de proveedores que no son de Microsoft se facturan a través de Azure Marketplace, de acuerdo con los Términos de uso de Microsoft Commercial Marketplace.

Los modelos de Microsoft se facturan a través de medidores de Azure como servicios de consumo de primera entidad. Como se describe en Términos del producto, compra servicios de consumo de primera entidad mediante medidores de Azure, pero no están sujetos a los términos del servicio de Azure. El uso de estos modelos está sujeto a los términos de licencia proporcionados.

Ajuste de modelos

En el caso de los modelos disponibles a través de MaaS y que admiten el ajuste fino, los usuarios pueden aprovechar el ajuste fino alojado con la facturación estándar para adaptar los modelos con los datos que proporcionan. Para más información, consulte ajustar un modelo llama 2 en el Portal de la Fundición de IA de Azure.

RAG con modelos implementados como implementaciones estándar

Fundición de IA de Azure permite a los usuarios usar los índices vectoriales y la generación aumentada de recuperación. Los modelos que se pueden implementar como implementaciones estándar se pueden usar para generar inserciones e inferencias basadas en datos personalizados para generar respuestas específicas de su caso de uso. Para obtener más información, consulte Generación aumentada de recuperación e índices.

Disponibilidad regional de ofertas y modelos

La facturación estándar solo está disponible para los usuarios cuya suscripción de Azure pertenece a una cuenta de facturación en un país o región en el que el proveedor de modelos ha puesto la oferta a disposición. Si la oferta está disponible en la región pertinente, el usuario debe tener un centro o proyecto en la región de Azure donde el modelo esté disponible para la implementación o ajuste, según corresponda. Consulte Disponibilidad de regiones para modelos en implementaciones estándar para obtener información detallada.

Seguridad del contenido para los modelos implementados a través de implementaciones estándar

Importante

Esta característica actualmente está en su versión preliminar pública. Esta versión preliminar se ofrece sin un Acuerdo de Nivel de Servicio y no se recomienda para cargas de trabajo de producción. Es posible que algunas características no sean compatibles o que tengan sus funcionalidades limitadas.

Para más información, consulte Términos de uso complementarios para las versiones preliminares de Microsoft Azure.

En el caso de los modelos de lenguaje implementados a través de la API sin servidor, Azure AI implementa una configuración predeterminada de filtros de moderación de texto de seguridad de contenido de Azure AI que detectan contenido dañino, como el odio, el autolesión, el contenido sexual y violento. Para obtener más información sobre el filtrado de contenido, consulte Barandillas de seguridad y controles para modelos comercializados directamente por Azure.

Sugerencia

El filtrado de contenido no está disponible para determinados tipos de modelo que se implementan a través de la API sin servidor. Estos tipos de modelo incluyen la inserción de modelos y modelos de serie temporal.

El filtrado de contenido se produce sincrónicamente a medida que el servicio procesa los mensajes para generar contenido. Es posible que se le facture por separado según los precios de seguridad de contenido de Azure AI para este uso. Puede deshabilitar el filtrado de contenido para puntos de conexión individuales sin servidor:

  • En el momento en que se implementa por primera vez un modelo de lenguaje
  • Más adelante, al seleccionar el interruptor de filtrado de contenido en la página de detalles de implementación

Supongamos que decide usar una API distinta de la API de inferencia de modelos para trabajar con un modelo implementado a través de una API sin servidor. En tal situación, el filtrado de contenido no está habilitado a menos que lo implemente por separado mediante la seguridad del contenido de Azure AI.

Para empezar a usar Seguridad del contenido de Azure AI, consulte Inicio rápido: analizar contenido de texto. Si no usa el filtrado de contenido al trabajar con modelos que se implementan a través de una API que no requiere servidor, corre un mayor riesgo de exponer a los usuarios a contenido perjudicial.

Aislamiento de red para los modelos implementados a través de implementaciones estándar

Los puntos de conexión de los modelos implementados como implementaciones estándar siguen la configuración de la marca de acceso a la red pública (PNA) del área de trabajo en la que existe la implementación. Para proteger el punto de conexión de MaaS, deshabilite la marca PNA en el área de trabajo. Puede proteger la comunicación entrante de un cliente al punto de conexión mediante un punto de conexión privado para el área de trabajo.

Para establecer la marca PNA para el área de trabajo:

  • Vaya a Azure Portal.
  • Busque Azure Machine Learning y seleccione el área de trabajo en la lista de áreas de trabajo.
  • En la página Información general, use el panel izquierdo para ir a Configuración>redes.
  • En la pestaña Acceso público, puede configurar las opciones de la marca de acceso de red pública.
  • Guarde los cambios. Los cambios pueden tardar hasta cinco minutos en propagarse.

Limitaciones

  • Si tiene un área de trabajo con un punto de conexión privado creado antes del 11 de julio de 2024, los nuevos puntos de conexión de MaaS agregados a esta área de trabajo no seguirán su configuración de red. En su lugar, debe crear un nuevo punto de conexión privado para el área de trabajo y crear nuevas implementaciones estándar en el área de trabajo para que las nuevas implementaciones puedan seguir la configuración de red del área de trabajo.
  • Si tiene un área de trabajo con implementaciones de MaaS creadas antes del 11 de julio de 2024 y habilita un punto de conexión privado en esta área de trabajo, las implementaciones de MaaS existentes no seguirán la configuración de red del área de trabajo. Para que las implementaciones estándar del área de trabajo sigan la configuración del área de trabajo, debe volver a crear las implementaciones.
  • Actualmente, la compatibilidad On Your Data no está disponible para las implementaciones de MaaS en áreas de trabajo privadas, ya que las áreas de trabajo privadas tienen deshabilitada la marca PNA.
  • Cualquier cambio de configuración de red (por ejemplo, habilitar o deshabilitar la marca de PNA) puede tardar hasta cinco minutos en propagarse.