Compartir a través de


Procedimiento para implementar la familia Phi-3 de modelos de lenguaje pequeños con Inteligencia artificial de Azure Studio

Importante

Algunas de las características descritas en este artículo solo pueden estar disponibles en versión preliminar. Esta versión preliminar se ofrece sin acuerdo de nivel de servicio y no se recomienda para las cargas de trabajo de producción. Es posible que algunas características no sean compatibles o que tengan sus funcionalidades limitadas. Para más información, consulte Términos de uso complementarios de las Versiones Preliminares de Microsoft Azure.

En este artículo, obtendrá información sobre la familia Phi-3 de modelos de lenguaje pequeños (SLM). También aprenderá a usar Azure AI Studio para implementar modelos de esta familia como API sin servidor con facturación basada en tokens de pago por uso.

La familia Phi-3 de SLM es una colección de modelos de texto generativos optimizados para instrucciones. Los modelos de Phi-3 son los modelos de lenguaje pequeños (SLM) más capaces y rentables disponibles, que superan el rendimiento de los modelos del mismo tamaño y del siguiente en varios lenguajes, razonamientos, codificación y puntos de referencia matemáticos.

Familia de modelos Phi-3

Phi-3 Mini es un modelo abierto, ligero y de última generación con 3800 millones de parámetros basado en conjuntos de datos usados para Phi-2 (datos sintéticos y sitios web filtrados) con un enfoque en datos densamente razonados de alta calidad. El modelo pertenece a la familia de modelos Phi-3 y la versión Mini viene en dos variantes, 4K y 128K, que es la longitud de contexto (en tokens) que el modelo puede admitir.

El modelo se ha sometido a un proceso de mejora riguroso, y se le ha incorporado tanto el ajuste preciso supervisado como la optimización de preferencias directas para garantizar un cumplimiento preciso de las instrucciones y medidas de seguridad sólidas. Cuando se han evaluado con puntos de referencia que prueban el sentido común, la comprensión del lenguaje, las matemáticas, el código, el contexto largo y el razonamiento lógico, Phi-3 Mini-4K-Instruct y Phi-3 Mini-128K-Instruct han mostrado un rendimiento sólido y de última generación entre modelos con menos de 13 000 millones de parámetros.

Implementación de modelos de Phi-3 como API sin servidor

Algunos modelos del catálogo de modelo se pueden implementar como una API sin servidor con la facturación de pago por uso. Este tipo de implementación proporciona una manera de consumir modelos como una API sin hospedarlos en la suscripción, a la vez que mantiene la seguridad empresarial y el cumplimiento que necesitan las organizaciones. Esta opción de implementación no requiere cuota de la suscripción.

Requisitos previos

  • Una suscripción de Azure con un método de pago válido. Las suscripciones gratuitas o de evaluación de Azure no funcionarán. Si no tiene una suscripción de Azure, cree una cuenta de Azure de pago para comenzar.

  • Un Centro Azure AI Studio.

    Importante

    Para los modelos de la familia Phi-3, la oferta de implementación de modelos de API sin servidor solo está disponible con centros creados en las regiones Este de EE. UU. 2 y Centro de Suecia.

  • Un proyecto de Azure AI Studio.

  • Los controles de acceso basado en rol de Azure (RBAC de Azure) se usan para conceder acceso a las operaciones en la inteligencia artificial de Azure Studio. Para realizar los pasos descritos en este artículo, la cuenta de usuario debe tener asignado el rol Desarrollador de Azure AI en el grupo de recursos. Para más información sobre los permisos, consulte control de acceso basado en rol en Inteligencia artificial de Azure Studio.

Crear una nueva implementación

Para crear una implementación:

  1. Inicie sesión en Azure AI Studio.

  2. Seleccione Catálogo modelo en la barra lateral de la izquierda.

  3. Busque y seleccione el modelo que quiera implementar, por ejemplo, Phi-3-mini-4k-Instruct, para abrir su página Detalles.

  4. Seleccione Implementar.

  5. Seleccione la opción API sin servidor para abrir una ventana de implementación de API sin servidor para el modelo.

  6. Como alternativa, puedes iniciar una implementación empezando por el proyecto en AI Studio.

    1. En la barra lateral de la izquierda del proyecto, seleccione Componentes>Implementaciones.
    2. Seleccione + Crear implementación.
    3. Busque y seleccione Phi-3-mini-4k-Instruct para abrir la página Detalles del modelo.
    4. Seleccione Confirmar y la opción API sin servidor para abrir una ventana de implementación de API sin servidor para el modelo.
  7. Selecciona el proyecto en el que deseas implementar el modelo. Para implementar el modelo Phi-3, el proyecto debe estar en la región Este de EE. UU. 2 o Centro de Suecia.

  8. Seleccione la pestaña Precios y términos para obtener información sobre los precios del modelo seleccionado.

  9. Asigne un nombre a la implementación. Este nombre forma parte de la dirección URL de la API de implementación. Esta dirección URL debe ser única en cada región de Azure.

  10. Seleccione Implementar. Espere hasta que la implementación esté lista y se le redirigirá a la página Implementaciones. Este paso requiere que la cuenta tenga permisos de rol de desarrollador de Azure AI en el grupo de recursos, como se muestra en los requisitos previos.

  11. Seleccione Abrir en el área de juegos para empezar a interactuar con el modelo.

  12. Vuelva a la página Implementaciones, seleccione la implementación y anote la URL de destino del punto de conexión y la clave secreta, que puede usar para llamar a la implementación y generar finalizaciones. Para más información sobre el uso de las API, vea Referencia: finalizaciones de chat.

  13. Puede encontrar los detalles, la dirección URL y las claves de acceso del punto de conexión si navega a la página Información general del proyecto. Después, en la barra lateral de la izquierda del proyecto, seleccione Componentes>Implementaciones.

Consumo de modelos de Phi-3 como servicio

Los modelos implementados como API sin servidor se pueden consumir mediante la API de chat, en función del tipo de modelo que haya implementado.

  1. En la página Información general del proyecto, vaya a la barra lateral de la izquierda y seleccione Componentes>Implementaciones.

  2. Busque y seleccione la implementación que ha creado.

  3. Copia la dirección URL de destino y el valor clave.

  4. Haz una solicitud de API usando la API /v1/chat/completions mediante <target_url>/v1/chat/completions. Para más información sobre el uso de las API, vea Referencia: finalizaciones de chat.

Costo y cuotas

Consideraciones de costo y cuota para los modelos Phi-3 implementados como API sin servidor

Puede encontrar información sobre los precios en la pestaña Precios y términos del Asistente para la implementación al implementar el modelo.

La cuota se administra por implementación. Cada implementación tiene un límite de velocidad de 200 000 tokens por minuto y 1000 solicitudes de API por minuto. Sin embargo, actualmente limitamos una implementación por modelo por proyecto. Póngase en contacto con el Soporte técnico de Microsoft Azure si los límites de velocidad actuales no son suficientes para sus escenarios.