Notes
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Azure AI Foundry Models est votre destination unique pour découvrir, évaluer et déployer de puissants modèles IA, que vous construisiez un copilote personnalisé, générant un agent, améliorant une application existante ou explorant de nouvelles fonctionnalités d’IA.
Avec les modèles Foundry, vous pouvez :
- Explorez un catalogue riche de modèles de pointe de Microsoft, OpenAI, DeepSeek, Hugging Face, Meta, etc.
- Comparez et évaluez des modèles côte à côte à l’aide de tâches réelles et de vos propres données.
- Déployez avec confiance, grâce à des outils intégrés pour l’optimisation, l’observabilité et l’IA responsable.
- Choisissez votre chemin d’accès : apportez votre propre modèle, utilisez un modèle hébergé ou intégrez-en toute transparence aux services Azure.
- Que vous soyez développeur, scientifique des données ou architecte d’entreprise, Foundry Models vous offre la flexibilité et le contrôle nécessaires pour créer des solutions IA qui s’adaptent de manière sécurisée, responsable et rapide.
Azure AI Foundry offre un catalogue complet de modèles IA. Il existe plus de 1900 modèles de base, modèles de raisonnement, modèles de petite langue, modèles modals, modèles spécifiques à un domaine, modèles industriels et bien plus encore.
Notre catalogue est organisé en deux catégories principales :
La compréhension de la distinction entre ces catégories vous aide à choisir les modèles appropriés en fonction de vos besoins spécifiques et de vos objectifs stratégiques.
Modèles vendus directement par Azure
Il s’agit de modèles hébergés et vendus par Microsoft en vertu des conditions du produit Microsoft. Ces modèles ont subi une évaluation rigoureuse et sont profondément intégrés à l’écosystème IA d’Azure. Les modèles proviennent d’un large éventail de principaux fournisseurs et offrent une intégration améliorée, des performances optimisées et un support direct de Microsoft, y compris des Contrats de niveau de service (SLA) de qualité entreprise.
Caractéristiques de ces modèles directs :
- Support officiel de première main de Microsoft
- Haut niveau d’intégration avec les services et l’infrastructure Azure
- Évaluation et validation approfondies des performances
- Respect des normes d’IA responsable de Microsoft
- Scalabilité, fiabilité et sécurité de niveau entreprise
Ces modèles bénéficient également du débit provisionné fongible, ce qui signifie que vous pouvez utiliser de manière flexible votre quota et vos réservations sur l’un de ces modèles.
Modèles des partenaires et de la communauté
Ces modèles constituent la grande majorité des modèles Azure AI Foundry. Ces modèles sont fournis par des organisations tierces approuvées, des partenaires, des laboratoires de recherche et des contributeurs communautaires. Ces modèles offrent des fonctionnalités d’IA spécialisées et diversifiées, couvrant un large éventail de scénarios, d’industries et d’innovations.
Caractéristiques des modèles des partenaires et de la communauté :
- Développé et pris en charge par des partenaires externes et des contributeurs communautaires
- Diverses gammes de modèles spécialisés qui s’adressent à des niches ou à des cas d’usage larges
- Généralement validé par les fournisseurs eux-mêmes, avec des instructions d’intégration fournies par Azure
- Innovation pilotée par la communauté et disponibilité rapide des modèles de pointe
- Intégration d’Azure AI standard, avec prise en charge et maintenance gérées par les fournisseurs respectifs
Les modèles sont déployables en tant qu’options de déploiement De calcul managé ou Standard (paiement à l’utilisation). Le fournisseur de modèles sélectionne la façon dont les modèles sont déployables.
Choix entre des modèles directs et des modèles de partenaires et de communauté
Lorsque vous sélectionnez des modèles à partir de modèles Azure AI Foundry, tenez compte des éléments suivants :
- Cas d’utilisation et exigences : les modèles vendus directement par Azure sont idéaux pour les scénarios nécessitant une intégration Approfondie d’Azure, une prise en charge garantie et des contrats SLA d’entreprise. Les modèles d’écosystème Azure excellent dans les cas d’usage spécialisés et les scénarios pilotés par l’innovation.
- Attentes en matière de support : les modèles vendus directement par Azure sont fournis par Microsoft avec un support et une maintenance robustes fournis par Microsoft. Ces modèles sont pris en charge par leurs fournisseurs, avec différents niveaux de sla et de structures de support.
- Innovation et spécialisation : les modèles des partenaires et de la communauté offrent un accès rapide aux innovations spécialisées et aux capacités de niche souvent développées par des laboratoires de recherche de pointe et des fournisseurs d’IA émergents.
Collections de modèles
Le catalogue de modèles organise les modèles en différentes collections :
Modèles Azure OpenAI exclusivement disponibles sur Azure : modèles Azure OpenAI phares disponibles via une intégration à Azure OpenAI dans azure AI Foundry Models. Microsoft prend en charge ces modèles et leur utilisation en fonction des termes du produit et du contrat SLA pour Azure OpenAI dans les modèles Azure AI Foundry.
Modèles ouverts à partir du hub Hugging Face : des centaines de modèles du hub Hugging Face sont accessibles pour l’inférence en temps réel avec le calcul managé. Hugging Face crée et gère les modèles listés dans cette collection. Pour obtenir de l’aide, utilisez le forum Hugging Face ou le support Hugging Face. Apprenez-en davantage dans Déployer des modèles ouverts avec Azure AI Foundry.
Vous pouvez envoyer une demande d’ajout de modèle au catalogue de modèles en remplissant ce formulaire.
Vue d’ensemble des fonctionnalités du catalogue de modèles
Le catalogue de modèles du portail Azure AI Foundry est le hub qui permet de découvrir et d’utiliser un large éventail de modèles pour créer des applications d’IA générative. Le catalogue de modèles comprend des centaines de modèles parmi des fournisseurs de modèles tels qu’Azure OpenAI, Mistral, Meta, Cohere, NVIDIA et Hugging Face, y compris les modèles que Microsoft a entraînés. Les modèles provenant de fournisseurs autres que Microsoft ne sont pas des produits Microsoft, tels que définis dans les conditions générales des produits Microsoft, et sont soumis aux conditions fournies avec les modèles.
Vous pouvez rechercher et découvrir des modèles qui répondent à vos besoins par le biais de la recherche et des filtres de mots clés. Le catalogue de modèles offre également le classement des performances du modèle et les métriques de benchmark pour les modèles sélectionnés. Vous pouvez y accéder en sélectionnant Parcourir le classement et comparer les modèles. Les données de benchmark sont également accessibles à partir de l’onglet Benchmark de la fiche du modèle.
Dans les filtres de catalogue de modèles, vous trouverez :
- Collection : vous pouvez filtrer des modèles en fonction de la collection de fournisseurs de modèles.
- Industrie : vous pouvez filtrer les modèles formés sur un jeu de données spécifique au secteur.
- Fonctionnalités : vous pouvez filtrer des fonctionnalités de modèle uniques telles que le raisonnement et l’appel d’outils.
- Options de déploiement : vous pouvez filtrer les modèles qui prennent en charge des options de déploiement spécifiques.
- Standard : cette option vous permet de payer par appel d’API.
- Provisionné : adapté au scoring en temps réel pour un volume cohérent important.
- Lot : adapté aux travaux de traitement par lots optimisés pour les coûts, et non à la latence. Aucune prise en charge du terrain de jeu n’est fournie pour le déploiement par lots.
- Calcul managé : cette option vous permet de déployer un modèle sur une machine virtuelle Azure. Vous serez facturé pour l’hébergement et l’inférence.
- Tâches d’inférence : vous pouvez filtrer des modèles en fonction du type de tâche d’inférence.
- Ajuster les tâches : vous pouvez filtrer les modèles en fonction du type de tâche affiné.
- Licences : vous pouvez filtrer des modèles en fonction du type de licence.
Sur la carte de modèle, vous trouverez :
- Faits rapides : vous verrez des informations clés sur le modèle en un clin d’œil rapide.
- Détails : cette page contient les informations détaillées sur le modèle, notamment la description, les informations de version, le type de données pris en charge, etc.
- Benchmarks : vous trouverez des métriques de benchmark de performances pour les modèles sélectionnés.
- Déploiements existants : si vous avez déjà déployé le modèle, vous pouvez le trouver sous l’onglet Déploiements existants.
- Licence : vous trouverez des informations légales relatives aux licences de modèle.
- Artefacts : cet onglet s’affiche uniquement pour les modèles ouverts. Vous pouvez voir les ressources du modèle et les télécharger via l’interface utilisateur.
Déploiement de modèle : déploiements de calcul managés et standard
Outre les modèles Azure OpenAI, le catalogue de modèles offre deux façons distinctes de déployer des modèles pour votre utilisation : le calcul managé et les déploiements standard.
Les options et fonctionnalités de déploiement disponibles pour chaque modèle varient, comme vous pouvez le voir dans les tableaux suivants. Découvrez-en davantage sur le traitement des données avec les options de déploiement.
Fonctionnalités des options de déploiement de modèle
Fonctionnalités | Capacité de calcul managée | Déploiements standard |
---|---|---|
Expérience de déploiement et facturation | Les pondérations de modèle sont déployées sur des machines virtuelles dédiées avec un calcul managé. Un calcul managé, qui peut avoir un ou plusieurs déploiements, met à disposition une API REST pour l’inférence. Vous êtes facturé pour les Heures cœur de machine virtuelle utilisées par les déploiements. | L’accès aux modèles se fait via un déploiement qui approvisionne une API pour accéder au modèle. L’API fournit l’accès au modèle que Microsoft héberge et gère pour l’inférence. Vous êtes facturé pour les entrées et sorties vers les API, généralement en jetons. Les informations de tarification sont fournies avant le déploiement. |
Authentification des API | Clés et authentification Microsoft Entra. | Clés uniquement. |
Sécurité du contenu | Utilisez les API du service Azure AI Sécurité du Contenu. | Les filtres Azure AI Sécurité du Contenu sont intégrés aux API d’inférence. Les filtres Azure AI Sécurité du Contenu sont facturés séparément. |
Isolement réseau | Configurer des réseaux managés pour les hubs Azure AI Foundry. | Le calcul managé suit le paramètre d’indicateur d’accès au réseau public (PNA) de votre hub. Pour plus d’informations, consultez la section Isolation réseau pour les modèles déployés via des déploiements standard plus loin dans cet article. |
Modèles disponibles pour les options de déploiement prises en charge
Le catalogue de modèles offre deux façons distinctes de déployer des modèles à partir du catalogue pour votre utilisation : le calcul managé et les déploiements standard. Les options de déploiement disponibles pour chaque modèle varient. Découvrez-en davantage sur les fonctionnalités des options de déploiement et les options disponibles pour des modèles spécifiques dans les tableaux ci-dessous. Découvrez-en davantage sur le traitement des données avec les options de déploiement.
Fonctionnalités | Capacité de calcul managée | Déploiements standard |
---|---|---|
Expérience de déploiement et facturation | Les poids des modèles sont déployés sur des machines virtuelles dédiées avec des points de terminaison en ligne managés. Le point de terminaison en ligne géré, qui peut présenter un ou plusieurs déploiements, rend une API REST disponible pour l’inférence. Vous êtes facturé au cœur/heure de la machine virtuelle utilisée par les déploiements. | L’accès aux modèles se fait via un déploiement qui approvisionne une API pour accéder au modèle. L’API fournit l’accès au modèle hébergé dans un pool GPU central, géré par Microsoft, à des fins d’inférence. Ce mode d’accès est appelé « Modèles en tant que service ». Vous êtes facturé pour les entrées et sorties vers les API, généralement via les jetons. Les informations de tarification sont fournies avant le déploiement. |
Authentification des API | Clés et authentification Microsoft Entra ID. En savoir plus. | Clés uniquement. |
Sécurité du contenu | Utilisez les API du service Azure Sécurité du Contenu. | Les filtres Azure AI Sécurité du Contenu sont intégrés aux API d’inférence. Les filtres Azure AI Sécurité du Contenu peuvent être facturés séparément. |
Isolement réseau | Réseau virtuel managé avec points de terminaison en ligne. En savoir plus. |
Capacité de calcul managée
La possibilité de déployer des modèles avec le calcul managé s’appuie sur les fonctionnalités de plateforme d’Azure Machine Learning pour permettre une intégration transparente, dans l’ensemble du cycle de vie GenAIOps (parfois appelé LLMOps), de la vaste collection de modèles dans le catalogue de modèles.
Disponibilité des modèles pour le déploiement en tant que calcul managé
Les modèles sont mis à disposition via les registres Azure Machine Learning qui permettent d’abord à ML d’héberger et de distribuer des ressources Machine Learning telles que les pondérations de modèles, les runtimes de conteneurs pour l’exécution des modèles, des pipelines pour l’évaluation et l’optimisation des modèles et des jeux de données pour des points de référence et des exemples. Ces registres ML s’appuient sur une infrastructure hautement évolutive et prête pour l’entreprise qui :
Fournit des artefacts de modèle d’accès à faible latence à toutes les régions Azure avec la géoréplication intégrée.
Prend en charge les exigences de sécurité d’entreprise en limitant l’accès aux modèles avec Azure Policy et en sécurisant le déploiement avec des réseaux virtuels managés.
Déploiement de modèles pour l’inférence avec le calcul managé
Les modèles disponibles pour le déploiement avec le calcul managé peuvent être déployés sur des points de terminaison en ligne Azure Machine Learning pour une inférence en temps réel, ou être utilisés pour une inférence par lot Azure Machine Learning pour traiter par lot vos données. Pour un déploiement sur le calcul managé, vous devez avoir un quota de machines virtuelles dans votre abonnement Azure pour les références SKU nécessaires à une exécution optimale du modèle. Certains modèles vous permettent de déployer sur un quota temporairement partagé pour tester le modèle. Découvrez-en davantage sur le déploiement de modèles :
- Déployer des modèles Meta Llama
- Déployer des modèles ouverts créés par Azure AI
- Déployer des modèles Hugging Face
Création d’applications d’IA générative avec le calcul managé
Le flux d’invite offre des fonctionnalités de prototypage, d’expérimentation, d’itération et de déploiement pour vos applications IA. Vous pouvez utiliser des modèles déployés avec le calcul managé dans le flux de prompt avec l’outil Open Model LLM. Vous pouvez également utiliser l’API REST exposée par le calcul managé dans les outils LLM populaires tels que LangChain avec l’extension Azure Machine Learning.
Sécurité du contenu pour les modèles déployés en tant que calcul managé
Le service Azure AI Sécurité du Contenu (AACS) est disponible pour être utilisé avec des modèles déployés sur le calcul managé pour détecter différentes catégories de contenu dangereux, tels que du contenu à caractère sexuel, violent, haineux et d’automutilation, ainsi que des menaces avancées, telles que la détection des risques de jailbreak et la détection de texte de matériel protégé. Vous pouvez faire référence à ce bloc-notes pour l’intégration de référence à AACS pour Llama 2 ou utiliser l’outil Sécurité du Contenu (texte) dans Flux d’invite pour transmettre des réponses du modèle à AACS pour le filtrage. Vous serez facturé séparément en fonction de la tarification AACS pour une telle utilisation.
Déploiements standard avec facturation Standard
Certains modèles du catalogue de modèles peuvent être déployés en tant que déploiements standard avec facturation standard ; cette méthode de déploiement est appelée déploiements standard. Les modèles disponibles via MaaS sont hébergés dans une infrastructure managée par Microsoft, qui permet l’accès basé sur l’API au modèle du fournisseur de modèles. L’accès basé sur l’API peut réduire drastiquement le coût d’accès à un modèle et simplifie considérablement l’expérience d’approvisionnement. La plupart des modèles MaaS sont fournis avec la tarification basée sur les jetons.
Comment les modèles tiers sont-ils rendus disponibles dans MaaS ?
Les modèles disponibles pour le déploiement en tant que déploiements standard avec facturation Standard sont proposés par le fournisseur de modèles, mais hébergés dans l’infrastructure Azure gérée par Microsoft et accessibles via l’API. Les fournisseurs de modèles définissent les termes du contrat de licence et le prix d’utilisation de leurs modèles, tandis que le service Azure Machine Learning gère l’infrastructure d’hébergement, rend les API d’inférence disponibles et agit comme processeur de données pour les invites soumises et le contenu produit par les modèles déployés via MaaS. Découvrez-en davantage sur le traitement des données pour MaaS dans l’article confidentialité des données.
Remarque
Les abonnements csp (Cloud Solution Provider) n’ont pas la possibilité d’acheter des modèles de déploiement standard.
Facturation
L’expérience de découverte, d’abonnement et de consommation pour les modèles déployés via MaaS se trouve dans le portail Azure AI Foundry et Azure Machine Learning studio. Les utilisateurs acceptent les termes du contrat de licence régissant l’utilisation des modèles. Les informations de tarification pour la consommation sont fournies pendant le déploiement.
Les modèles provenant de fournisseurs non-Microsoft sont facturés via la Place de marché Azure, conformément aux conditions d’utilisation de la place de marché commerciale Microsoft.
Les modèles de Microsoft sont facturés via des compteurs Azure en tant que services de consommation internes. Comme décrit dans les conditions du produit, vous achetez des services de consommation internes à l’aide de compteurs Azure, mais ils ne sont pas soumis aux conditions du service Azure. L’utilisation de ces modèles est soumise aux termes du contrat de licence fourni.
Réglage des modèles
Pour les modèles disponibles via MaaS et prenant en charge l'ajustement, les utilisateurs peuvent tirer parti de l'ajustement hébergé avec la facturation Standard pour adapter les modèles à l’aide de données qu’ils fournissent. Pour plus d’informations, consultez ajuster un modèle Llama 2 dans le portail Azure AI Foundry.
RAG avec des modèles déployés en tant que déploiements standard
Azure AI Foundry permet aux utilisateurs d’utiliser des index vectoriels et la génération augmentée de récupération. Les modèles qui peuvent être déployés en tant que déploiements standard peuvent être utilisés pour générer des incorporations et déduire en fonction des données personnalisées pour générer des réponses spécifiques à leur cas d’usage. Pour plus d’informations, consultez Génération augmentée de récupération et indexes.
Disponibilité régionale des offres et des modèles
La facturation standard est disponible uniquement pour les utilisateurs dont l’abonnement Azure appartient à un compte de facturation dans un pays/une région où le fournisseur de modèles a rendu l’offre disponible. Si l’offre est disponible dans la région concernée, l’utilisateur doit disposer d’un hub/projet dans la région Azure où le modèle est disponible pour le déploiement ou l’ajustement, le cas échéant. Consultez la disponibilité des régions pour les modèles dans les déploiements standard pour obtenir des informations détaillées.
Sécurité du contenu pour les modèles déployés via des déploiements standard
Important
Cette fonctionnalité est actuellement disponible en préversion publique. Cette préversion est fournie sans contrat de niveau de service et n’est pas recommandée pour les charges de travail de production. Certaines fonctionnalités peuvent être limitées ou non prises en charge.
Pour les modèles de langage déployés par le biais d’un déploiement standard, Azure AI implémente une configuration par défaut des filtres de modération de texte Azure AI Content Safety qui détectent des contenus dangereux tels que la haine, l’auto-préjudice, le contenu sexuel et violent. Pour en savoir plus sur le filtrage de contenu, consultez
Conseil / Astuce
Le filtrage de contenu n’est pas disponible pour certains types de modèles déployés via des déploiements standard. Ces types de modèles incluent des modèles d’incorporation et des modèles de série chronologique.
Le filtrage de contenu se produit de façon synchrone lorsque le service traite les invites pour générer du contenu. Vous pouvez être facturé séparément conformément à la tarification d’Azure AI Sécurité du Contenu pour cette utilisation. Vous pouvez désactiver le filtrage de contenu pour des points de terminaison serverless individuels :
- Au moment où vous déployez un modèle de langage pour la première fois
- Ultérieurement, en sélectionnant le bouton bascule de filtrage du contenu dans la page des détails du déploiement
Supposons que vous décidez d’utiliser une API autre que l’API Foundry Models pour travailler avec un modèle déployé via un déploiement standard. Dans ce cas, le filtrage de contenu n’est pas activé, sauf si vous l’implémentez séparément à l’aide d’Azure AI Content Safety.
Pour bien démarrer avec Azure AI Sécurité du Contenu, consultez Démarrage rapide : Analyser du contenu texte. Si vous n’utilisez pas de filtrage de contenu lors de l’utilisation de modèles déployés via un déploiement standard, vous risquez davantage d’exposer les utilisateurs à du contenu dangereux.
Isolation réseau pour les modèles déployés via des déploiements standard
Les points de terminaison pour les modèles déployés en tant que déploiements standard suivent le paramètre d’indicateur d’accès réseau public (PNA) de l’espace de travail dans lequel le déploiement existe. Pour sécuriser votre point de terminaison MaaS, désactivez l’indicateur PNA sur votre espace de travail. Vous pouvez sécuriser la communication entrante d’un client vers votre point de terminaison à l’aide d’un point de terminaison privé pour l’espace de travail.
Définir l’indicateur PNA pour l’espace de travail :
- Accédez au portail Azure.
- RecherchezAzure Machine Learning et sélectionnez votre espace de travail dans la liste des espaces de travail.
- Dans la page Vue d'ensemble, utilisez le volet gauche pour accéder à Paramètres>Mise en réseau.
- Sous l’onglet Accès public, vous pouvez configurer les paramètres de l’indicateur d’accès réseau public.
- Enregistrez vos modifications. Vos modifications peuvent prendre jusqu’à cinq minutes pour se propager.
Limites
- Si vous avez un espace de travail avec un point de terminaison privé créé avant le 11 juillet 2024, les nouveaux points de terminaison MaaS ajoutés à cet espace de travail ne suivent pas sa configuration de mise en réseau. Au lieu de cela, vous devez créer un point de terminaison privé pour l’espace de travail et créer de nouveaux déploiements standard dans l’espace de travail afin que les nouveaux déploiements puissent suivre la configuration réseau de l’espace de travail.
- Si vous avez un espace de travail avec des déploiements MaaS créés avant le 11 juillet 2024 et que vous activez un point de terminaison privé sur cet espace de travail, les déploiements MaaS existants ne suivront pas la configuration de mise en réseau de l’espace de travail. Pour que les déploiements standard dans l’espace de travail suivent la configuration de l’espace de travail, vous devez recréer les déploiements.
- Actuellement, la prise en charge deSur vos données n’est pas disponible pour les déploiements MaaS dans des espaces de travail privés, car les espaces de travail privés ont l’indicateur PNA désactivé.
- Toute modification de configuration réseau (par exemple, l’activation ou la désactivation de l’indicateur PNA) peut prendre jusqu’à cinq minutes pour se propager.