Passer des MLOps traditionnelles aux LLMOps
MLOps (Opérations Machine Learning) et LLMOps (Opérations de modèle de langage volumineux) représentent deux paradigmes distincts dans l’opérationnalisation des modèles Machine Learning, chacun avec son propre ensemble de défis, d’outils et de flux de travail.
Bien que mlOps traditionnel se concentre sur le déploiement et la gestion d’un large éventail de modèles Machine Learning, LLMOps est adapté spécifiquement pour les modèles LLMs (Large Language Models), qui ont des exigences uniques en termes de mise à l’échelle, de gestion des données et de réglage des modèles.
Azure Databricks prend en charge MLOps et LLMOps, mais les détails de l’implémentation diffèrent considérablement. Examinons la différence en comparant MLops à LLMOps.
Comparer MLOps à LLMOps
Le Machine Learning traditionnel implique généralement l’entraînement d’un modèle, comme un modèle de régression ou un réseau neuronal plus complexe.
Le processus de Machine Learning comprend les éléments suivants :
- Collecte, exploration et préparation d’un jeu de données approprié.
- Choix d’un algorithme et définition des étiquettes de données.
- Utilisation du modèle entraîné pour générer des prédictions sur de nouvelles données.
Sur le plan opérationnel, il s'agit de s'assurer que ces modèles peuvent être adaptés efficacement à différents environnements et volumes de données.
Azure Databricks facilite MLOps en fournissant des ressources de calcul évolutives, une intégration à Azure Machine Learning et des outils tels que MLflow pour le suivi et le déploiement des modèles.
LLMOps, en revanche, traite des modèles de langage pré-entraînés qui fonctionnent avec des constructions telles que des entrées basées sur du texte, appelées prompts.
Le processus d’utilisation d’un modèle de langage comprend les éléments suivants :
- Combinaison de données avec des prompts attendus.
- Choix et configuration d’un modèle de langage préentraîné.
- Utilisation du modèle configuré pour générer des réponses sur de nouvelles invites.
LLMOps traite des modèles qui sont des ordres de grandeur plus grands, tels que GPT-3 ou GPT-4. Les LLM nécessitent non seulement plus de puissance de calcul, mais également une infrastructure spécialisée pour gérer leur mise à l’échelle.
Azure Databricks offre des clusters optimisés, un informatique distribuée et l’intégration à Azure OpenAI, ce qui permet le déploiement de machines virtuelles à grande échelle.
Lorsque nous comparons les MLOps aux LLMOps, il y a quelques différences clés qu'il faut comprendre.
Gérer les données de texte non structuré
Dans le MLOps traditionnel, la gestion des données est centrée sur les données structurées et semi-structurées. Dans la gestion des données, le focus est mis sur le prétraitement des données, l’ingénierie de caractéristiques et l’automatisation des pipelines.
Toutefois, LLMOps nécessite la gestion de grandes quantités de données de texte non structurées, nécessitant une ingestion et un prétraitement des pipelines de données plus sophistiqués.
Azure Databricks, combiné avec Microsoft Foundry, permet l’ingestion et le traitement de grands corpus de texte, ce qui permet l’entraînement efficace et le réglage précis des LLMs.
Ajuster au lieu d’entraîner à partir de zéro
Le MLOps traditionnel implique souvent l’entraînement de modèle itératif et le réglage des hyperparamètres, avec un focus sur l’optimisation des performances du modèle pour des tâches spécifiques. Les outils comme Hyperopt et AutoML (Machine Learning automatisé) dans Azure Databricks permettent d’automatiser ces processus.
Toutefois, LLMOps met davantage l’accent sur l’optimisation des modèles préentraînés sur des tâches ou des domaines spécifiques.
Azure Databricks prend en charge le réglage fin grâce à son intégration avec le service Azure OpenAI, ce qui permet aux utilisateurs de régler finement les LLM comme GPT-4 avec des changements de code minimes, en utilisant la puissance de l'informatique distribuée pour des temps d'apprentissage plus rapides.
Consommer votre modèle déployé
Dans le MLOps traditionnel, le déploiement implique l’intégration de modèles dans des systèmes de production à l’aide d’API REST, de traitement par lots ou de points de terminaison d’inférence en temps réel.
Toutefois, dans LLMOps, le déploiement se produit plus tôt dans le cycle de vie , car vous travaillez avec des modèles préentraînés et vous concentrez sur la configuration de l’appel de ces modèles déployés. Dans LLMOps, vos stratégies de déploiement diffèrent des pratiques MLOps traditionnelles.
Azure Databricks offre des points de terminaison managés pour le déploiement de LLM, avec une supervision et une journalisation intégrées pour garantir les performances et la fiabilité des modèles dans les environnements de production. Vous pouvez également déployer des machines virtuelles llms avec Azure OpenAI et Microsoft Foundry, puis les utiliser et les configurer dans Azure Databricks.
Sécuriser votre système et implémenter l’IA responsable
La gouvernance, la conformité et l’utilisation responsable de l’IA sont essentielles dans les MLOps traditionnels. En particulier dans les secteurs comme la finance et la santé, où les modèles doivent respecter des exigences réglementaires strictes.
LLMOps présente d’autres défis dans ce domaine :
- La sécurité et la modération du contenu sont nécessaires pour empêcher la diffusion d’informations dangereuses.
- Les jailbreaks et les mesures de sécurité protègent contre les attaques contradictoires.
- Garantir la transparence et l’explication génère une confiance en prenant des décisions de modèle compréhensibles.
- La surveillance continue et les boucles de commentaires conservent la précision du modèle, l’équité et la sécurité au fil du temps.
En relevant ces défis, vous vous assurez que les LLM sont développés et déployés de manière responsable, en adhérant aux normes les plus élevées en matière de gouvernance, de conformité et de pratiques d'IA responsable.