Présentation

Effectué

La création d’applications d’INTELLIGENCE artificielle efficaces nécessite de sélectionner le modèle de base approprié pour votre cas d’usage spécifique. Avec des milliers de modèles disponibles, vous avez besoin d’une approche structurée pour découvrir, comparer, déployer et valider qu’un modèle répond à vos besoins.

Envisagez un scénario dans lequel vous créez un chatbot de support technique basé sur l’IA pour une entreprise de vente au détail. Vous devez sélectionner un modèle de langage qui peut comprendre les questions des clients, fournir des réponses précises et maintenir les normes de ton et de sécurité appropriées. Mais comment choisir parmi le vaste catalogue de modèles disponibles ? Comment savez-vous si un modèle fonctionne bien pour vos besoins spécifiques ? Et une fois déployé, comment mesurer et améliorer ses performances ?

Le portail Microsoft Foundry fournit une plateforme complète pour l’ensemble de ce flux de travail. Vous pouvez explorer plus de 1 900 modèles à partir de fournisseurs tels que Microsoft, Anthropic, OpenAI, Meta et Hugging Face. Vous pouvez comparer des modèles à l’aide de benchmarks standard pour la qualité, la sécurité, le coût et les performances. Après avoir sélectionné un modèle, vous le déployez sur un point de terminaison où votre application peut l’utiliser. Enfin, vous évaluez les performances du modèle à l’aide de métriques automatisées et de tests manuels pour vous assurer qu’il répond à vos exigences de qualité et de sécurité.

Dans ce module, vous allez découvrir comment utiliser le portail Microsoft Foundry pour sélectionner, déployer et évaluer des modèles à partir du catalogue de modèles. Vous découvrez comment prendre des décisions éclairées sur la sélection de modèle, comprendre différentes options de déploiement et évaluer les performances des modèles à l’aide de différentes approches d’évaluation.

À la fin de ce module, vous serez en mesure de :

  • Explorer et filtrer des modèles dans le catalogue de modèles
  • Comparer des modèles à l’aide de métriques de référence pour la qualité, la sécurité, le coût et les performances
  • Déployer un modèle sur un point de terminaison et le tester dans le terrain de jeu
  • Évaluer les performances du modèle à l’aide d’approches manuelles et automatisées
  • Comprendre les différentes métriques d’évaluation et quand les utiliser