Mettre en œuvre l’ingénierie de l’IA générative avec Azure Databricks
Aperçu
-
Level
-
Compétence
-
Produit
L’ingénierie de l’IA générative avec Azure Databricks utilise les fonctionnalités de la plateforme pour explorer, affiner, évaluer et intégrer des modèles de langage avancés. En utilisant la scalabilité d’Apache Spark et l’environnement collaboratif d’Azure Databricks, vous pouvez concevoir des systèmes d’IA complexes.
Prérequis
Avant de commencer ce module, vous devez être familiarisé avec les concepts fondamentaux d’Azure Databricks. Envisagez de commencer par le parcours d’apprentissage de prise en main de l’intelligence artificielle et le module Explorer Azure Databricks.
Code de réussite
Souhaitez-vous demander un code de réussite ?
Modules de ce parcours d’apprentissage
Les grands modèles de langage (LLM) ont révolutionné différents secteurs en ouvrant la porte à des capacités avancées de traitement du langage naturel (NLP). Ces modèles de langage sont utilisés dans un large éventail d’applications, notamment la synthèse de texte, l’analyse des sentiments, la traduction de langues, la classification zero-shot et l’apprentissage few-shot.
La génération augmentée de récupération (RAG, Retrieval Augmented Generation) est une technique avancée dans le traitement en langage naturel qui améliore les fonctionnalités des modèles générateurs en intégrant des mécanismes de récupération d’informations externes. En utilisant à la fois des modèles de génération et des systèmes de récupération, la RAG extrait dynamiquement les informations pertinentes à partir de sources de données externes pour augmenter le processus de génération, ce qui entraîne des sorties plus précises et contextuellement pertinentes.
Les systèmes de raisonnement à plusieurs étapes décomposent des problèmes complexes en plusieurs étapes ou parties, chaque étape se concentrant sur une tâche de raisonnement spécifique. La sortie d’une étape sert d’entrée pour la suivante, ce qui permet une approche plus structurée et systématique de la résolution des problèmes.
Le réglage précis utilise les connaissances générales des modèles de langage volumineux (LLMs) pour améliorer les performances sur des tâches spécifiques, ce qui permet aux organisations de créer des modèles spécialisés plus précis et pertinents tout en économisant des ressources et du temps par rapport à la formation à partir de zéro.
Dans ce module, vous allez explorer l’évaluation du modèle de langage volumineux à l’aide de différentes métriques et approches, découvrir les défis d’évaluation et les meilleures pratiques, et découvrir des techniques d’évaluation automatisées, notamment les méthodes LLM-as-a-juge.
Lorsque vous travaillez avec des modèles de langage volumineux (LLM) dans Azure Databricks, il est important de comprendre les principes d’une IA responsable pour l’implémentation, les considérations éthiques et la façon d’atténuer les risques. En fonction des risques identifiés, découvrez comment implémenter des outils de sécurité clés pour les modèles de langage.
Simplifiez l’implémentation de grands modèles de langage (LLM) avec des LLMOps (Opérations LLM) dans Azure Databricks. Découvrez comment déployer et gérer des grands modèles de langage pendant leur cycle de vie en utilisant Azure Databricks.