Introducción

Completado

La creación de aplicaciones de IA generativas eficaces requiere seleccionar el modelo de base adecuado para su caso de uso específico. Con miles de modelos disponibles, necesita un enfoque estructurado para detectar, comparar, implementar y validar que un modelo cumple sus requisitos.

Considere un escenario en el que va a crear un bot de chat de soporte al cliente con tecnología de inteligencia artificial para una empresa minorista. Debe seleccionar un modelo de lenguaje que pueda comprender las preguntas de los clientes, proporcionar respuestas precisas y mantener los estándares adecuados de tono y seguridad. ¿Pero cómo elige entre el amplio catálogo de modelos disponibles? ¿Cómo sabe si un modelo funciona bien para sus necesidades específicas? Y una vez implementado, ¿cómo se mide y mejora su rendimiento?

El portal de Microsoft Foundry proporciona una plataforma completa para todo este flujo de trabajo. Puede explorar más de 1900 modelos de proveedores como Microsoft, Antropic, OpenAI, Meta y Hugging Face. Puede comparar modelos mediante pruebas comparativas estándar del sector para mejorar la calidad, la seguridad, el costo y el rendimiento. Después de seleccionar un modelo, se implementa en un punto de conexión donde la aplicación puede consumirlo. Por último, evaluará el rendimiento del modelo mediante métricas automatizadas y pruebas manuales para asegurarse de que cumple los requisitos de calidad y seguridad.

En este módulo, explorará cómo usar el portal de Microsoft Foundry para seleccionar, implementar y evaluar modelos desde el catálogo de modelos. Aprenderá a tomar decisiones fundamentadas sobre la selección de modelos, comprender las distintas opciones de implementación y evaluar el rendimiento del modelo mediante diversos enfoques de evaluación.

Al término de este módulo, sabrá hacer lo siguiente:

  • Exploración y filtrado de modelos en el catálogo de modelos
  • Comparación de modelos mediante métricas de pruebas comparativas para la calidad, la seguridad, el costo y el rendimiento
  • Implementación de un modelo en un punto de conexión y prueba en el área de juegos
  • Evaluación del rendimiento del modelo mediante enfoques manuales y automatizados
  • Comprender las distintas métricas de evaluación y cuándo usarlas