Configurer une formation AutoML sans code pour les données tabulaires avec l'interface utilisateur du studio

Dans cet article, vous allez apprendre à configurer des travaux d’apprentissage AutoML sans une seule ligne de code à l’aide d’Azure Machine Learning automatisé dans Azure Machine Learning Studio.

Le Machine Learning automatisé, ou AutoML, est un processus dans lequel le meilleur algorithme de Machine Learning à utiliser pour vos données spécifiques est automatiquement sélectionné. Ce processus vous permet de générer rapidement des modèles Machine Learning. En savoir plus sur la façon dont Azure Machine Learning implémente le Machine Learning automatisé.

Pour obtenir un exemple de bout en bout, essayez le Tutoriel : AutoML - former des modèles de classification sans code.

Pour une expérience basée sur du code Python, configurez vos expériences de machine learning automatisé avec le SDK Azure Machine Learning.

Prérequis

Bien démarrer

  1. Connectez-vous à Azure Machine Learning Studio.

  2. Sélectionnez votre abonnement et votre espace de travail.

  3. Accédez au volet gauche. Sélectionnez Automated ML (ML automatisé) sous la section Authoring (Création).

Azure Machine Learning studio navigation pane

S’il s’agit de votre première expérience, vous verrez une liste vide et des liens vers la documentation.

Dans le cas contraire, vous verrez une liste de vos expériences récentes AutoML, y compris celles créées avec le Kit de développement logiciel (SDK).

Créer et exécuter une expérience

  1. Sélectionnez + Nouveau travail de ML automatisé et remplissez le formulaire.

  2. Sélectionnez une ressource de données à partir de votre conteneur de stockage ou créez une nouvelle ressource de données. Une ressource de données peut être créée à partir de fichiers locaux, d’URL web, de magasins de données ou de jeux de données Azure. Apprenez-en davantage sur la création d’une ressource de données.

    Important

    Configuration requise pour les données de formation :

    • Les données doivent être sous forme tabulaire.
    • La valeur que vous souhaitez prédire (colonne cible) doit être présente dans les données.
    1. Pour créer un jeu de données à partir d’un fichier sur votre ordinateur local, sélectionnez +Créer un jeu de données, puis sélectionnez À partir d’un fichier local.

    2. Sélectionnez Suivant pour ouvrir le formulaire Sélection d’un magasin de données et de fichiers. , vous sélectionnez l’emplacement où charger votre jeu de données : choisissez le conteneur de stockage par défaut qui est automatiquement créé avec votre espace de travail ou un conteneur de stockage que vous voulez utiliser pour l’expérience.

      1. Si vos données se trouvent derrière un réseau virtuel, vous devez activer la fonction permettant d’ignorer la validation pour vous assurer que l’espace de travail peut accéder à vos données. Pour plus d’informations, consultez Utiliser Azure Machine Learning Studio dans un réseau virtuel Azure.
    3. Sélectionnez Parcourir pour charger le fichier de données de votre jeu de données.

    4. Vérifiez l’exactitude du formulaire Settings and preview (Paramètres et aperçu). Le formulaire est rempli intelligemment en fonction du type de fichier.

      Champ Description
      Format de fichier Définit la disposition et le type des données stockées dans un fichier.
      Délimiteur Un ou plusieurs caractères utilisés pour spécifier la limite entre des régions indépendantes et séparées dans du texte brut ou d’autres flux de données.
      Encodage Identifie la table de schéma bits/caractères à utiliser pour lire votre jeu de données.
      En-têtes de colonne Indique la façon dont les éventuels en-têtes du jeu de données sont traités.
      Ignorer les lignes Indique le nombre éventuel de lignes ignorées dans le jeu de données.

      Sélectionnez Suivant.

    5. Le formulaire Schéma est rempli intelligemment en fonction des sélections effectuées dans le formulaire Paramètres et aperçu. Ici, configurez le type de données pour chaque colonne, passez en revue les noms des colonnes et sélectionnez celles à ne pas inclure dans votre expérience.

      Sélectionnez Next (Suivant).

    6. Le formulaire Confirmer les détails est un résumé des informations précédemment renseignées sur les formulaires Informations de base et Paramètres et aperçu. Vous avez également la possibilité de créer un profil de données pour votre jeu de données à l’aide d’un calcul activé pour le profilage.

      Sélectionnez Suivant.

  3. Sélectionnez votre jeu de données récemment créé une fois qu’il apparaît. Vous pouvez également afficher un aperçu du jeu de données et des exemples de statistiques.

  4. Dans le formulaire Configurer le travail, sélectionnez Créer, puis entrez Tutorial-automl-deploy pour le nom de l’expérience.

  5. Sélectionnez une colonne cible ; il s’agit de la colonne sur laquelle vous voulez effectuer des prédictions.

  6. Sélectionnez un type de calcul pour le travail de profilage d’entraînement des données. Vous pouvez sélectionner un cluster de calcul ou une instance de calcul.

  7. Sélectionnez un calcul dans la liste déroulante contenant vos calculs existants. Pour créer un calcul, suivez les instructions de l’étape 8.

  8. Sélectionnez Créer un nouveau calcul afin de configurer votre contexte de calcul pour cette expérience.

    Champ Description
    Nom du calcul Entrez un nom unique qui identifie votre contexte de calcul.
    Priorité de machine virtuelle Les machines virtuelles basse priorité sont moins chères, mais ne garantissent pas les nœuds de calcul.
    Type de machine virtuelle Sélectionnez l’UC ou le GPU pour le type de machine virtuelle.
    Taille de la machine virtuelle Sélectionnez la taille de la machine virtuelle pour votre calcul.
    Nombre minimal/maximal de nœuds Pour profiler des données, vous devez spécifier un ou plusieurs nœuds. Entrez le nombre maximal de nœuds pour votre calcul. La valeur par défaut est de six nœuds pour une Capacité de calcul Machine Learning Azure.
    Paramètres avancés Ces paramètres vous permettent de configurer un compte d’utilisateur et un réseau virtuel existant pour votre expérience.

    Sélectionnez Create (Créer). La création d’un calcul peut prendre quelques minutes.

    Sélectionnez Suivant.

  9. Dans le formulaire Type de tâche et paramètres, sélectionnez le type de tâche : classification, régression ou prévision. Pour plus d’informations, consultez Types de tâches pris en charge.

    1. Pour la classification, vous pouvez également activer le deep learning.

    2. Pour les prévisions :

      1. Activez le deep learning.

      2. Sélectionnez la colonne d'heure : cette colonne contient les données d'heure à utiliser.

      3. Sélectionnez l'horizon de prévision : Indiquez le nombre d’unités de temps (minutes/heures/jours/semaines/mois/années) que le modèle sera en mesure de prédire. Plus le modèle devra prédire dans le futur, moins il sera précis. En savoir plus sur les prévisions et l'horizon de prévision.

  10. (Facultatif) Voir des paramètres de configuration supplémentaires : paramètres supplémentaires que vous pouvez utiliser pour mieux contrôler la tâche d’entraînement. Sinon, les valeurs par défaut sont appliquées en fonction de la sélection de l’expérience et des données.

    Configurations supplémentaires Description
    Métrique principale Métrique principale utilisée pour évaluer votre modèle. En savoir plus sur les métriques du modèle.
    Activer l’empilement d’ensembles L’apprentissage ensembliste améliore les résultats de Machine Learning et les performances prédictives en combinant plusieurs modèles. En savoir plus sur les modèles d’ensemble.
    Modèles bloqués Sélectionnez les modèles que vous souhaitez exclure du travail de formation.

    Il n’est possible d’autoriser des modèles que pour les expériences SDK.
    Consultez les algorithmes pris en charge pour chaque type de tâche.
    Expliquer le meilleur modèle Montre automatiquement l’explicabilité sur le meilleur modèle créé par le ML automatisé.
    Étiquette de classe positive Étiquette que le ML automatisé utilisera pour calculer les métriques binaires.
  11. (Facultatif) Afficher les paramètres de caractérisation : si vous choisissez d’activer Caractérisation automatique dans le formulaire Paramètres de configuration supplémentaires formulaire, les techniques caractérisation par défaut sont appliquées. Dans Afficher les paramètres de caractérisation, vous pouvez modifier ces valeurs par défaut et les personnaliser en conséquence. Découvrez comment personnaliser la caractérisation.

    Screenshot shows the Select task type dialog box with View featurization settings called out.

  12. Le formulaire de Limites [facultatives] vous permet d’effectuer les actions suivantes.

    Option Description
    Nombre maximal d’essais Nombre maximal d’essais, chacun avec une combinaison différente d’algorithme et d’hyperparamètres à essayer pendant le travail AutoML. Doit être un entier compris entre 1 et 1000.
    Nombre maximal d’essais simultanés Nombre maximal de travaux d’essai qui peuvent être exécutés en parallèle. Doit être un entier compris entre 1 et 1000.
    Nombre maximal de nœuds Nombre maximal de nœuds que ce travail peut utiliser dans la cible de calcul sélectionnée.
    Seuil de score de métrique Quand cette valeur de seuil est atteinte pour une métrique d’itération, le travail d’apprentissage se termine. Gardez à l’esprit que les modèles significatifs ont une corrélation > 0, sinon ils vont simplement deviner la moyenne. Le seuil de métrique doit être compris entre les limites [0, 10].
    Délai d’expiration de l’expérience (minutes) Durée d’exécution maximale en minutes de l’ensemble de l’expérience. Une fois cette limite atteinte, le système va annuler le travail AutoML, y compris tous ses essais (travaux enfants).
    Délai d’expiration d’une itération (minutes) Durée d’exécution maximale en minutes de chaque travail d’essai. Une fois cette limite atteinte, le système annule l’évaluation.
    Autoriser l’arrêt anticipé Sélectionnez cette option pour mettre fin au travail si le score ne s’améliore pas à court terme.
  13. Le formulaire de validation et de test [facultatif] vous permet d’effectuer les opérations suivantes.

a. Spécifiez le type de validation à utiliser pour votre travail de formation. Si vous ne spécifiez pas explicitement un paramètre validation_data ou n_cross_validations, l’AutoML applique les techniques par défaut en fonction du nombre de lignes fournies dans le jeu de données unique training_data.

Taille des données de formation Technique de validation
Plus de 20 000 lignes Le fractionnement des données de formation/validation est appliqué. La valeur par défaut consiste à prendre 10 % du jeu de données d’apprentissage initial en tant que jeu de validation. Ce jeu de validation est ensuite utilisé pour le calcul des métriques.
Moins de 20 000 lignes L’approche de validation croisée est appliquée. Le nombre de plis par défaut dépend du nombre de lignes.
Si le jeu de données est inférieur à 1 000 lignes, 10 plis sont utilisés.
S’il y a entre 1 000 et 20 000 lignes, trois plis sont utilisés.

b. Fournissez un jeu de données de test (version préliminaire) pour évaluer le modèle recommandé que l’AutoML génère automatiquement à la fin de votre expérience. Lorsque vous fournissez des données de test, un travail de test est déclenché automatiquement à la fin de votre expérience. Ce travail de test est exécuté uniquement sur le meilleur modèle recommandé par AutoML. Découvrez comment obtenir les résultats du travail de test distant.

Important

Fournir un jeu de données de test pour évaluer les modèles générés est une fonctionnalité en préversion. Cette capacité est une caractéristique expérimentale en préversion qui peut évoluer à tout moment. * Les données de test sont considérées comme distinctes de l’apprentissage et de la validation, afin de ne pas biaiser les résultats du travail de test du modèle recommandé. En savoir plus sur le décalage au cours de la validation du modèle. * Vous pouvez fournir votre propre jeu de données de test ou choisir d’utiliser un pourcentage de votre jeu de données d’apprentissage. Les données de test doivent se présenter sous la forme d’un TabularDataset Azure Machine Learning.
* Le schéma du jeu de données de test doit correspondre au jeu de données d’apprentissage. La colonne cible est facultative, mais si aucune colonne cible n’est indiquée, aucune mesure de test n’est calculée. * Le jeu de données de test ne doit pas être identique au jeu de données d’apprentissage ou au jeu de données de validation. * Les travaux de prévision ne prennent pas en charge le fractionnement d’apprentissage ou de test.

Screenshot shows the form where to select validation data and test data

Personnaliser la caractérisation

Dans le formulaire Caractérisation, vous pouvez activer/désactiver la caractérisation automatique et personnaliser les paramètres correspondants pour votre expérience. Pour ouvrir ce formulaire, reportez-vous à l’étape 10 de la section Créer et exécuter une expérience.

Le tableau suivant récapitule les personnalisations actuellement disponibles via le studio.

Colonne Personnalisation
Type de caractéristique Modifiez le type valeur de la colonne sélectionnée.
Imputer avec Sélectionnez la valeur à imputer aux valeurs manquantes dans vos données.

Screenshot showing Azure Machine Learning studio custom featurization.

Exécuter une expérience et afficher les résultats

Sélectionnez Terminer pour exécuter votre expérience. Le processus de préparation de l’expérience peut prendre jusqu’à 10 minutes. Les travaux de formation peuvent prendre 2 à 3 minutes supplémentaires pour que chaque pipeline se termine. Si vous avez spécifié de générer le tableau de bord RAI pour le meilleur modèle recommandé, cela peut prendre jusqu’à 40 minutes.

Notes

Les algorithmes utilisés par le ML automatisé présentent un fonctionnement aléatoire inhérent qui peut provoquer de légères variations dans un score de métrique final de modèle recommandé, comme la précision. Le ML automatisé exécute également des opérations au niveau des données, telles que le fractionnement de test de formation, le fractionnement de validation de formation ou la validation croisée, le cas échéant. Par conséquent, si vous exécutez plusieurs fois une expérience avec les mêmes paramètres de configuration et la même métrique principale, vous constaterez probablement des variations dans chaque score de métrique finale d’expériences, en raison de ces facteurs.

Afficher les détails de l'expérience

L’écran Détails du travail ouvre l’onglet Détails. Cet écran vous montre un récapitulatif du travail de l’expérience, notamment une barre d’état en haut à côté du numéro de travail.

L’onglet Modèles contient une liste des modèles créés affichés selon leur score de métrique. Par défaut, le modèle qui obtient la valeur la plus élevée d’après la métrique choisie figure en haut de la liste. À mesure que le travail d’apprentissage essaie plus d’autres modèles, ceux-ci sont ajoutés à la liste. Utilisez cela pour obtenir une comparaison rapide des métriques des modèles déjà produits.

Afficher les détails d’un travail d’apprentissage

Explorez les modèles terminés pour afficher les détails du travail d’apprentissage.

Vous pouvez consulter les graphiques de métriques de performances propres au modèle sous l’onglet Métriques. En savoir plus sur les graphiques.

C’est également là que vous trouverez des détails sur toutes les propriétés du modèle, ainsi que le code, les travaux enfants et les images associés.

Afficher les résultats d’un travail d’apprentissage distant (préversion)

Si vous avez spécifié un jeu de données de test ou si vous avez opté pour un fractionnement d’apprentissage/test au cours de votre configuration d’expérimentation, dans le formulaire deValider et de test, AutoML teste automatiquement le modèle recommandé par défaut. Par conséquent, l’autoML calcule les métriques de test pour déterminer la qualité du modèle recommandé et de ses prédictions.

Important

Le test de vos modèles avec un jeu de données de test pour évaluer les modèles générés est une fonctionnalité en préversion. Cette capacité est une caractéristique expérimentale en préversion qui peut évoluer à tout moment.

Pour afficher les métriques de travail de test du modèle recommandé,

  1. Accédez à la page modèles , puis sélectionnez le meilleur modèle.
  2. Sélectionnez l’onglet résultats des tests ( préversion).
  3. Sélectionnez le travail de votre choix et affichez l’onglet Métriques. Test results tab of automatically tested, recommended model

Pour afficher les prédictions de test utilisées pour calculer les métriques de test,

  1. Accédez au bas de la page et sélectionnez le lien sous le jeu de données de sortie pour ouvrir le jeu de données.
  2. Dans la page jeux de données, sélectionnez l’onglet Explorer pour afficher les prédictions de du travail de test.
    1. Vous pouvez également afficher ou télécharger le fichier de prédiction à partir de l’onglet sorties + journaux, puis développer le dossier prédictions pour localiser votre predicted.csv fichier.

Vous pouvez également afficher ou télécharger le fichier de prédictions à partir de l’onglet sorties + journaux, développer le dossier prédictions pour localiser votre fichier predictions.csv.

La tâche de tests du modèle génère le fichier predictions.csv qui est stocké dans le magasin de données par défaut créé avec l’espace de travail. Ce magasin données est visible par tous les utilisateurs d’un même abonnement. Les travaux de tests ne sont pas recommandées pour des scénarios où les informations utilisées ou créées par le travail de test doivent rester privées.

Tester un modèle d’AutoML existant (version préliminaire)

Important

Le test de vos modèles avec un jeu de données de test pour évaluer les modèles générés est une fonctionnalité en préversion. Cette capacité est une caractéristique expérimentale en préversion qui peut évoluer à tout moment.

Une fois votre expérimentation terminée, vous pouvez tester le ou les modèles générés automatiquement par ML. Si vous souhaitez tester un autre modèle automatisé ML généré, et non le modèle recommandé, vous pouvez le faire en procédant comme suit.

  1. Sélectionnez un travail d’expérience de ML automatisé existant.

  2. Accédez à l’onglet Modèles du travail et sélectionnez le modèle terminé que vous souhaitez tester.

  3. Sur la page Détails du modèle, sélectionnez le bouton tester le modèle (version préliminaire) pour ouvrir le volet modèle de test .

  4. Dans le volet Modèle de test, sélectionnez le cluster de calcul et un jeu de données de test que vous souhaitez utiliser pour votre travail de test.

  5. Cliquez sur le bouton Test. Le schéma du jeu de données de test doit correspondre au jeu de données d’apprentissage, mais la colonne cible est facultative.

  6. En cas de création réussie d’un travail de test de modèle, la page Détails affiche un message de réussite. Sélectionnez l’onglet Résultats des tests pour afficher la progression du travail.

  7. Pour afficher les résultats du travail de test, ouvrez la page de Détails et suivez les étapes de la section Afficher les résultats du travail de tests distant.

    Test model form

Tableau de bord IA responsable (préversion)

Pour mieux comprendre votre modèle, vous pouvez voir différents insights sur votre modèle en utilisant le tableau de bord IA responsable. Il vous permet d’évaluer et de déboguer votre meilleur modèle Machine Learning automatisé. Le tableau de bord IA responsable évalue des erreurs de modèle et des problèmes d’impartialité, diagnostique pourquoi ces erreurs se produisent en évaluant vos données d’apprentissage et/ou de test, et observe les explications du modèle. Ensemble, ces insights peuvent vous aider à établir une confiance avec votre modèle et à réussir les processus d’audit. Les tableaux de bord IA responsable ne peuvent pas être générés pour un modèle Machine Learning automatisé. Il est créé uniquement pour le modèle le mieux recommandé lorsqu’un nouveau travail AutoML est créé. Les utilisateurs doivent continuer à utiliser simplement les Explications de modèle (préversion) jusqu’à ce que la prise en charge des modèles existants soit fournie.

Pour générer un tableau de bord IA responsable pour un modèle particulier,

  1. Lors de l’envoi d’un travail AutoML, passez à la section Paramètres du travail dans la barre de navigation gauche et sélectionnez l’option Afficher les paramètres de configuration supplémentaires.

  2. Dans le nouveau formulaire qui s’affiche après cette sélection, cochez la case Expliquer le meilleur modèle.

    Screenshot showing the Automated ML job configuration page with Explain best model selected.

  3. Passez à la page Calcul du formulaire de configuration et choisissez l'option Serverless pour votre calcul.

    Serverless compute selection

  4. Une fois terminé, accédez à la page Modèles de votre travail AutoML qui contient une liste de vos modèles entraînés. Sélectionnez le lien Afficher le tableau de bord IA responsable :

    View dashboard page within an Automated ML job

Le tableau de bord IA responsable s’affiche pour ce modèle, comme illustré dans cette image :

Responsible AI dashboard

Dans le tableau de bord, vous trouverez quatre composants activés pour le meilleur modèle AutoML :

Composant Que montre le composant ? Comment lire le graphique ?
Analyse des erreurs Utilisez l’analyse des erreurs lorsque vous devez :
Acquérir une compréhension approfondie de la manière dont les défaillances de modèle sont distribuées dans un jeu de données et dans plusieurs dimensions d’entrée et de caractéristique.
Décomposer les métriques de performances agrégées pour découvrir automatiquement les cohortes erronées afin de documenter vos étapes d’atténuation ciblées.
Graphiques d’analyse des erreurs
Vue d’ensemble du modèle et impartialité Utilisez ce composant pour :
Obtenez une compréhension approfondie du niveau de performance de votre modèle entre différentes cohortes de données.
Comprenez les problèmes d’impartialité de votre modèle en examinant les métriques de disparité. Ces métriques peuvent évaluer et comparer le comportement du modèle dans des sous-groupes identifiés en termes de fonctionnalités sensibles (ou non sensibles).
Vue d’ensemble du modèle et graphiques d’impartialité
Explications de modèle Utilisez le composant d’explication de modèle pour générer des descriptions compréhensibles par l’humain des prédictions d’un modèle Machine Learning en examinant :
Explications globales : Par exemple, quelles caractéristiques affectent le comportement général d’un modèle d’allocation de prêt ?
Explications locales : par exemple, pourquoi la demande de prêt d’un client a-t-elle été approuvée ou rejetée ?
Graphique d’explicabilité du modèle
Analyse des données Utilisez l’analyse des erreurs quand vous devez effectuer les opérations suivantes :
Explorer vos statistiques de jeu de données en sélectionnant différents filtres pour segmenter vos données en différentes dimensions (également appelées cohortes).
Comprendre la distribution de votre jeu de données entre différentes cohortes et groupes de fonctionnalités.
Déterminer si vos résultats liés à l’impartialité, à l’analyse des erreurs et à la causalité (dérivés d’autres composants de tableau de bord) sont le résultat de la distribution de votre jeu de données.
Déterminez les zones où collecter davantage de données pour atténuer les erreurs résultant de problèmes de représentation, de bruit d’étiquette, de bruit de caractéristique, de biais d’étiquette et de facteurs similaires.
Graphiques Data Explorer
  1. Vous pouvez créer des cohortes (sous-groupes de points de données partageant des caractéristiques spécifiées) sur lesquelles concentrer votre analyse dans chaque composant sur différentes cohortes. Le nom de la cohorte actuellement appliquée au tableau de bord est toujours affiché en haut à gauche de votre tableau de bord. L’affichage par défaut dans votre tableau de bord est votre jeu de données complet, intitulé « Toutes les données » (par défaut). Découvrez plus d’informations sur le contrôle global de votre tableau de bord ici.

Modifier et envoyer des travaux (préversion)

Important

La possibilité de copier, modifier et envoyer une nouvelle expérience basée sur une expérience existante est une fonctionnalité en préversion. Cette capacité est une caractéristique expérimentale en préversion qui peut évoluer à tout moment.

Lorsque vous souhaitez créer une expérience basée sur les paramètres d’une expérience existante, vous pouvez utiliser le ML automatisé à l’aide du bouton Modifier et envoyer de l’interface utilisateur de Studio.

Cette fonctionnalité est limitée aux expériences lancées à partir de l’interface utilisateur de Studio et nécessite que le schéma de données de la nouvelle expérience corresponde à celui de l’expérience d’origine.

Le bouton Modifier et envoyer ouvre l’Assistant Créer un travail AutoML avec les paramètres de données, de calcul et d’expérience préremplis. Vous pouvez parcourir chaque formulaire et modifier les sélections au besoin pour votre nouvelle expérience.

Déployer votre modèle

Une fois le meilleur modèle disponible, déployez-le en tant que service web pour la prédiction de nouvelles données.

Conseil

Si vous cherchez à déployer un modèle qui a été généré via le package automl avec le Kit de développement logiciel (SDK) Python, vous devez enregistrer votre modèle) dans l’espace de travail.

Une fois que vous avez enregistré le modèle, recherchez-le dans Studio en sélectionnant Modèles dans le volet gauche. Une fois que vous avez ouvert votre modèle, vous pouvez sélectionner le bouton Déployer en haut de l’écran, puis suivre les instructions décrites à l’étape 2 de la section Déployer votre modèle.

Machine Learning automatisé vous aide à déployer le modèle sans écrire de code :

  1. Vous disposez de plusieurs options pour le déploiement.

    • Option 1 : Déployez le meilleur modèle en fonction des critères de mesure que vous avez définis.

      1. Une fois l’expérience terminée, revenez à la page du travail parent en sélectionnant Travail 1 en haut de l’écran.
      2. Sélectionnez le modèle figurant dans la section Résumé du meilleur modèle.
      3. Sélectionnez Déployer en haut à gauche de la fenêtre.
    • Option n°2 : Pour déployer une itération de modèle spécifique à partir de cette expérience.

      1. Sélectionner le modèle souhaité sous l’onglet Modèles
      2. Sélectionnez Déployer en haut à gauche de la fenêtre.
  2. Renseignez le volet Déployer le modèle.

    Champ Valeur
    Nom Entrez un nom unique pour votre déploiement.
    Description Entrez une description pour mieux identifier le but de ce déploiement.
    Type de capacité de calcul Sélectionnez le type de point de terminaison que vous souhaitez déployer : service Azure Kubernetes (AKS) ou Azure Container instance (ACI).
    Nom du calcul S’applique uniquement à AKS : Sélectionnez le nom du cluster AKS sur lequel vous voulez effectuer le déploiement.
    Activer l’authentification Sélectionnez cette option pour l’authentification basée sur des jetons ou sur des clés.
    Utiliser les ressources d’un déploiement personnalisé Activez cette fonctionnalité si vous voulez télécharger votre propre script de scoring et votre propre fichier d’environnement. Dans le cas contraire, l’AutoML fournit ces ressources par défaut. Découvrez plus d’informations sur les scripts de scoring.

    Important

    Les noms de fichiers sont limités à 32 caractères et doivent commencer et se terminer par des caractères alphanumériques. Ils peuvent inclure des tirets, des traits de soulignement, des points et des caractères alphanumériques. Les espaces ne sont pas autorisés.

    Le menu Avancé offre des fonctionnalités de déploiement par défaut, comme la collecte de données et des paramètres d’utilisation des ressources. Si vous souhaitez remplacer ces valeurs par défaut, faites-le dans ce menu.

  3. Sélectionnez Déployer. Le déploiement peut prendre environ 20 minutes. Une fois le déploiement commencé, l’onglet Résumé du modèle s’affiche. Consultez la progression du déploiement sous la section État du déploiement.

Vous disposez maintenant d’un service web opérationnel pour générer des prédictions ! Vous pouvez tester les prédictions en interrogeant le service à partir du support Azure Machine Learning intégré de Power BI.

Étapes suivantes