Qu'est-ce que Azure Machine Learning ?

Azure Machine Learning est un service cloud permettant d’accélérer et de gérer le cycle de vie des projets de Machine Learning. Les professionnels du Machine Learning, les scientifiques des données et les ingénieurs peuvent l’utiliser dans leurs flux de travail quotidiens : apprentissage et déploiement des modèles, et gestion du MLOps.

Vous pouvez créer un modèle dans Azure Machine Learning ou utiliser un modèle conçu à partir d’une plateforme open source comme PyTorch, TensorFlow ou scikit-learn. Les outils MLOps vous permettent d’effectuer un monitoring des modèles, de les recycler et de les redéployer.

Conseil

Version d’évaluation gratuite ! Si vous n’avez pas d’abonnement Azure, créez un compte gratuit avant de commencer. Essayez la version gratuite ou payante d’Azure Machine Learning. Vous obtenez des crédits à dépenser en services Azure. Une fois ceux-ci épuisés, vous pouvez conserver le compte et utiliser les services Azure gratuits. Votre carte de crédit n’est pas débitée tant que vous n’avez pas explicitement modifié vos paramètres pour demander à l’être.

La fonction d’Azure Machine Learning

Azure Machine Learning est destiné aux personnes et aux équipes qui implémentent le MLOps au sein de leur organisation pour mettre les modèles Machine Learning en production dans un environnement de production sécurisé et vérifiable.

Les scientifiques des données et les ingénieurs ML y trouveront des outils permettant d’accélérer et d’automatiser leurs flux de travail quotidiens. Les développeurs d’applications, eux, auront accès à des outils grâce auxquels ils pourront intégrer des modèles dans des applications ou des services. En ce qui concerne les développeurs de plateformes, ils bénéficieront d’un ensemble d’outils robustes, reposant sur des API Azure Resource Manager durables, pour la création d’outils de ML avancés.

Les entreprises qui travaillent dans le cloud Microsoft Azure retrouveront une sécurité familière et un contrôle d’accès en fonction du rôle (RBAC, Role-Based Access Control) pour l’infrastructure. Il est possible de configurer un projet de façon à refuser l’accès aux données protégées et à certaines opérations.

Productivité pour tous les membres de l’équipe

Les projets de Machine Learning exigent souvent une équipe disposant de diverses compétences à développer et entretenir. Azure Machine Learning dispose d’outils qui vous aident à :

  • Collaborer avec votre équipe à travers des notebooks partagés, des ressources de calcul, du calcul serverless (préversion), des données et des environnements

  • Développer des modèles pour l’impartialité, l’explicabilité, le suivi et l’auditabilité afin de répondre aux exigences de conformité de traçabilité et d’audit

  • Déployer rapidement et facilement des modèles ML à grande échelle, et les gérer efficacement avec MLOps

  • Exécuter des charges de travail Machine Learning n’importe où avec une gouvernance, une sécurité et une conformité intégrées

Outils de plateforme inter-compatibles répondant à vos besoins

Tout membre d’une équipe ML peut utiliser ses outils préférés pour accomplir le travail. Si vous exécutez des expériences rapides, réglez des hyperparamètres, créez des pipelines ou gérez des inférences, vous pouvez utiliser des interfaces familières, à savoir :

Lorsque vous affinez le modèle et collaborez avec d’autres personnes tout au long du cycle de développement de Machine Learning, vous pouvez partager et rechercher des composants, des ressources et des métriques pour vos projets sur l’interface utilisateur Azure Machine Learning studio.

Studio

Azure Machine Learning studio offre plusieurs expériences de création en fonction du type de projet et du niveau de votre expérience ML passée, sans nécessiter l’installation de quoi que ce soit.

  • Notebooks : écrivez et exécutez votre propre code dans les serveurs Jupyter Notebook managés qui sont directement intégrés dans le studio.

  • Visualisez les métriques d’exécution : analysez et optimisez vos expériences avec une visualisation.

    Capture d’écran des métriques d’une exécution d’apprentissage.

  • Concepteur Azure Machine Learning : utilisez le concepteur pour effectuer l’apprentissage des modèles Machine Learning et déployer ceux-ci sans écrire de code. Faites un glisser-déplacer des jeux de données et des composants pour créer des pipelines ML.

  • Interface utilisateur de Machine Learning automatisé : découvrez comment créer des expériences de ML automatisé avec une interface simple à utiliser.

  • Étiquetage des données : Utilisez l’étiquetage des données Azure Machine Learning pour coordonner efficacement des projets d’étiquetage d’images ou d’étiquetage de texte.

Préparation pour l’entreprise et sécurité

Azure Machine Learning s’intègre à la plateforme cloud Azure pour ajouter un niveau de sécurité supplémentaire aux projets de ML.

Les intégrations de sécurité sont les suivantes :

  • Réseaux virtuels Azure avec groupes de sécurité réseau
  • Azure Key Vault pour enregistrer les secrets de sécurité, par exemple les informations d’accès des comptes de stockage
  • Azure Container Registry configuré derrière un réseau virtuel

Cf. Tutoriel : Configuration d’un espace de travail sécurisé.

Intégrations Azure pour des solutions complètes

D’autres intégrations avec les services Azure permettent de prendre en charge un projet de Machine Learning de bout en bout. Notamment :

Important

Azure Machine Learning ne stocke pas et ne traite pas vos données en dehors de la région où vous déployez.

Flux de travail des projets de Machine Learning

En général, les modèles sont développés dans le cadre d’un projet qui présente un objectif et des buts. Les projets impliquent souvent plusieurs personnes. Les expérimentations avec des données, des algorithmes et des modèles impliquent un développement itératif.

Cycle de vie des projets

Le cycle de vie peut varier selon les projets. Cependant, il se présente souvent comme suit :

Diagramme du cycle de vie des projets de Machine Learning

Un espace de travail organise un projet et permet la collaboration de nombreux utilisateurs vers un objectif commun. Ceux-ci peuvent partager facilement les résultats de leurs exécutions issues de l’expérimentation dans l’interface utilisateur du studio. Ils ont également la possibilité d’utiliser des ressources versionnées pour différentes tâches, notamment des environnements et des références de stockage.

Pour plus d’informations, consultez Gestion des espaces de travail Azure Machine Learning.

Lorsqu’un projet est prêt pour l’opérationnalisation, le travail des utilisateurs peut être automatisé dans un pipeline Machine Learning et déclenché selon une planification ou par une requête HTTPS.

Les modèles peuvent être déployés dans la solution d’inférence gérée, pour les déploiements en temps réel comme pour les déploiements par lots, en éliminant la gestion de l’infrastructure généralement requise pour le déploiement de modèles.

Entraîner des modèles

Dans Azure Machine Learning, vous pouvez exécuter votre script d’apprentissage dans le cloud ou créer un modèle à partir de zéro. Les clients apportent souvent des modèles qu’ils ont conçus et entraînés dans des frameworks open source. Ils peuvent ainsi les opérationnaliser dans le cloud.

Ouverture et interopérabilité

Les scientifiques des données peuvent utiliser des modèles Azure Machine Learning qu’ils ont créés dans des frameworks Python courants :

  • PyTorch
  • TensorFlow
  • scikit-learn
  • XGBoost
  • LightGBM

D’autres langages et frameworks sont également pris en charge :

  • R
  • .NET

Consultez Intégration open source avec Azure Machine Learning.

Caractérisation et sélection de l’algorithme automatiques (AutoML)

Dans le processus répétitif et fastidieux du Machine Learning classique, les scientifiques des données s’appuient sur leur expérience et leur intuition pour sélectionner la caractérisation de données et l’algorithme adaptés à l’apprentissage. Le ML automatisé (AutoML) permet d’accélérer ce processus. Il peut être utilisé par le biais de l’interface utilisateur du studio ou du kit SDK Python.

Cf. Présentation du Machine Learning automatisé.

Optimisation des hyperparamètres

L’optimisation des hyperparamètres, ou réglage des hyperparamètres, peut représenter une tâche fastidieuse. Azure Machine Learning vous permet d’automatiser cette tâche pour des commandes paramétrables arbitraires en apportant peu de modifications à votre définition de tâche. Les résultats sont visualisés dans le studio.

Cf. Guide pratique pour régler les hyperparamètres.

Apprentissage distribué multinœud

L’efficacité des tâches d’apprentissage du Deep Learning et parfois du Machine Learning classique peut être considérablement améliorée grâce à l’apprentissage distribué multinœud. Les clusters de calcul Azure Machine Learning et le calcul serverless (préversion) proposent les dernières options GPU.

Pris en charge par Azure Machine Learning Kubernetes, les clusters de capacité de calcul Azure Machine Learning et le calcul serverless (préversion) :

  • PyTorch
  • TensorFlow
  • MPI

La distribution MPI peut être utilisée pour Horovod ou la logique multinœud personnalisée. En outre, Apache Spark est pris en charge au moyen des clusters Azure Synapse Analytics Spark (préversion).

Important

L’utilisation d’Apache Spark via des clusters Spark Azure Synapse Analytics est en préversion publique. La préversion est fournie sans contrat de niveau de service et n’est pas recommandée pour les charges de travail en production. Certaines fonctionnalités peuvent être limitées ou non prises en charge. Pour plus d’informations, consultez Conditions d’Utilisation Supplémentaires relatives aux Évaluations Microsoft Azure.

Cf. Apprentissage distribué avec Azure Machine Learning.

Parallélisme embarrassant de l’apprentissage

La mise à l’échelle d’un projet de Machine Learning peut impliquer de faire évoluer l’apprentissage de modèles avec parallélisme embarrassant. Ce cas de figure est courant dans des scénarios comme la prévision de la demande, où l’apprentissage d’un modèle peut être effectué pour de nombreux magasins.

Déployer des modèles

Pour mettre un modèle en production, il faut le déployer. Les points de terminaison gérés d’Azure Machine Learning éliminent l’infrastructure requise pour le scoring (inférence) de modèles par lots ou en temps réel (en ligne).

Scoring en temps réel et par lots (inférence)

Le scoring par lots, ou inférence par lots, implique d’appeler un point de terminaison avec une référence à des données. Le point de terminaison de traitement par lots exécute les tâches de manière asynchrone pour traiter les données en parallèle sur les clusters de calcul et les stocker en vue d’une analyse plus poussée.

Le scoring en temps réel, ou inférence en ligne, suppose d’appeler un point de terminaison avec un ou plusieurs déploiements de modèles et de recevoir une réponse en quasi-temps réel via HTTPS. Le trafic peut être réparti entre plusieurs déploiements. Cela permet de tester les nouvelles versions des modèles en détournant initialement un certain volume de trafic et en l’augmentant une fois la confiance dans le nouveau modèle établie.

Consultez l'article :

MLOps : le DevOps pour le Machine Learning

Le DevOps pour les modèles Machine Learning, souvent appelé MLOps, est un processus de développement de modèles pour la production. Le cycle de vie d’un modèle, de l’apprentissage au déploiement, doit être, sinon reproductible, du moins auditable.

Cycle de vie des modèles ML

Cycle de vie des modèles Machine Learning * MLOps

Cf. MLOps dans Azure Machine Learning.

Intégrations permettant le MLOps

Azure Machine Learning est conçu dans l’optique du cycle de vie des modèles. Vous pouvez auditer ce cycle de vie jusqu’au niveau d’une validation et d’un environnement spécifiques.

Voici quelques-unes des fonctionnalités clés permettant le MLOps :

  • Intégration de git
  • Intégration de MLflow
  • Planification des pipelines Machine Learning
  • Intégration d’Azure Event Grid pour les déclencheurs personnalisés
  • Facilité d’utilisation avec des outils CI/CD comme GitHub Actions et Azure DevOps

Par ailleurs, Azure Machine Learning comprend des fonctionnalités de monitoring et d’audit :

  • Artefacts de tâches, par exemple instantanés de code, journaux et autres sorties
  • Traçabilité entre les tâches et les ressources, notamment les conteneurs, les données et les ressources de calcul

Étapes suivantes

Commencez à utiliser Azure Machine Learning :