Importer à partir d’une base de données SQL Server locale

Important

Le support de Machine Learning Studio (classique) prend fin le 31 août 2024. Nous vous recommandons de passer à Azure Machine Learning avant cette date.

À partir du 1er décembre 2021, vous ne pourrez plus créer de nouvelles ressources Machine Learning Studio (classique). Jusqu’au 31 août 2024, vous pouvez continuer à utiliser les ressources Machine Learning Studio (classique) existantes.

La documentation ML Studio (classique) est en cours de retrait et ne sera probablement plus mise à jour.

cet article explique comment utiliser le module importer des données dans Machine Learning Studio (classic) pour importer des données à partir d’une base de données SQL Server locale dans une expérience de Machine Learning.

Notes

s’applique à: Machine Learning Studio (classic) uniquement

Des modules par glisser-déposer similaires sont disponibles dans Concepteur Azure Machine Learning.

Machine Learning pouvez accéder à une base de données SQL Server locale si les données sont fournies à l’aide d’une passerelle Microsoft Gestion des données. Par conséquent, avant d’utiliser importer des données, vous devez respecter les exigences suivantes :

Une fois la connexion de passerelle établie, vous pouvez spécifier des propriétés supplémentaires, telles que les noms de serveur et de base de données, la méthode d’authentification et une requête de base de données.

comment installer une passerelle Microsoft Gestion des données

pour accéder à une base de données SQL Server locale dans Machine Learning, vous devez télécharger et installer la passerelle Microsoft Gestion des données, puis inscrire la passerelle dans Machine Learning Studio (classic).

Pour plus d’informations sur l’installation et l’inscription de la passerelle, consultez les articles suivants :

comment importer des données à partir d’une base de données SQL Server locale

après l’installation d’une passerelle Gestion des données sur un ordinateur où elle peut accéder à votre base de données SQL Server, et si vous avez inscrit la passerelle dans Machine Learning Studio (classic), vous devez configurer le module importer les données .

Avant de commencer, désactivez le bloqueur de fenêtres publicitaires de votre navigateur pour le site, studio.azureml.net .

Si vous utilisez le navigateur Google Chrome, vous devez télécharger et installer l’un des plug-ins disponibles dans le Webstore Google Chrome : cliquez sur extensionde l’application.

Utiliser l’Assistant Importation de données

Le module propose un nouvel Assistant pour vous aider à choisir une option de stockage, sélectionner parmi les abonnements et les comptes existants et configurer rapidement toutes les options.

  1. Ajoutez le module Importer des données à votre expérience. Vous pouvez trouver le module dans Studio (Classic), dans la catégorie entrée et sortie des données .

  2. Cliquez sur lancer l’Assistant importation de données et suivez les invites.

  3. Une fois la configuration terminée, pour copier les données dans votre expérience, cliquez avec le bouton droit sur le module et sélectionnez exécuter sélectionné.

Si vous avez besoin de modifier une connexion de données existante, l’Assistant charge tous les détails de configuration précédents afin que vous n’ayez pas à redémarrer à partir de zéro.

Définir manuellement les propriétés du module Importer des données

  1. Ajoutez le module Importer des données à votre expérience. Vous pouvez trouver le module dans Studio (Classic), dans la catégorie entrée et sortie des données .

  2. Pour source de données, sélectionnez SQL Database locales.

  3. définissez les options suivantes spécifiques à la base de données SQL Server.

    • Passerelle de données: sélectionnez la passerelle que vous avez créée. La passerelle doit être inscrite ou n’apparaît pas dans la liste.

    • nom du serveur de base de données: tapez le nom de l’instance de SQL Server.

    • Nom de la base de données: tapez le nom de la base de données.

    • Cliquez sur Entrer des valeurs sous Nom d’utilisateur et mot de passe et entrez vos informations d’identification de base de données. Vous pouvez utiliser l’authentification intégrée Windows ou l’authentification SQL Server en fonction de la configuration de votre serveur local SQL Server.

      Important

      le gestionnaire d’informations d’identification doit être lancé à partir du même réseau que l’instance de SQL Server et le client de passerelle. Les informations d’identification ne peuvent pas être transmises entre les domaines.

    • tapez ou collez dans la requête de base de données une instruction SQL qui décrit les données que vous souhaitez lire. Validez toujours l’instruction SQL et vérifiez les résultats de la requête au préalable, à l’aide d’un outil tel que l’Explorateur de serveurs Visual Studio ou SQL Server Data Tools.

    • Si le jeu de données n’est pas censé changer entre les exécutions de l’expérience, sélectionnez l’option utiliser les résultats en cache . Lorsque cette option est sélectionnée, si aucune autre modification n’est apportée aux paramètres de module, l’expérience chargera les données lors de la première exécution du module et utilisera ensuite une version mise en cache du DataSet.

  4. Exécutez l’expérience.

Résultats

Comme les données d’importation chargent les données dans Studio (Classic), une conversion de type implicite peut être effectuée, en fonction des types de données utilisés dans la base de données source. Pour plus d’informations sur les types de données, consultez types de données de module.

À l’issue de l’opération, cliquez sur le jeu de données de sortie et sélectionnez Visualiser pour voir si les données ont bien été importées.

Si vous le souhaitez, vous pouvez modifier le jeu de données et ses métadonnées à l’aide des outils de Studio (Classic) :

Notes techniques

Cette section contient des détails, des conseils et des réponses aux questions fréquentes concernant l’implémentation.

Questions courantes

Puis-je filtrer les données à mesure qu’elles sont lues à partir de la source ?

Le module importer des données lui-même ne prend pas en charge le filtrage au fur et à mesure de la lecture des données. Nous vous recommandons de créer une vue ou de définir une requête qui génère uniquement les lignes dont vous avez besoin.

Notes

Si vous constatez que vous avez chargé plus de données que nécessaire, vous pouvez remplacer le jeu de données mis en cache en lisant un nouveau jeu de données et en l'enregistrant avec le même nom que les données antérieures, plus volumineuses.

Pourquoi est-ce que j’obtiens l’erreur « le type Decimal n’est pas pris en charge »

lors de la lecture de données à partir d’une base de données SQL, vous pouvez rencontrer un message d’erreur signalant un type de données non pris en charge.

si les données que vous récupérez dans la base de données SQL incluent des types de données qui ne sont pas pris en charge dans Machine Learning, vous devez effectuer un cast ou une conversion des décimales en un type de données pris en charge avant de lire les données. Cela est dû au fait que les données d’importation ne peuvent pas effectuer automatiquement des conversions qui aboutissent à une perte de précision.

Pourquoi certains caractères ne s’affichent pas correctement

Machine Learning prend en charge l’encodage UTF-8. Si les colonnes de chaîne de votre base de données utilisent un encodage différent, les caractères peuvent ne pas être importés correctement.

Une option pour conserver ces caractères consiste à exporter les données vers un fichier CSV dans le stockage Azure et à utiliser l’option CSV avec encodage pour spécifier des paramètres pour les délimiteurs personnalisés, la page de codes, etc.

je configure une passerelle Gestion des données sur mon serveur local. Puis-je partager la même passerelle entre les espaces de travail

Non. Vous devez créer une passerelle distincte pour chaque espace de travail.

bien que vous puissiez configurer plusieurs passerelles Gestion des données dans un seul espace de travail (par exemple, une passerelle pour le développement, les tests, la production, etc.), une passerelle ne peut pas être partagée entre les espaces de travail.

j’ai configuré une passerelle Gestion des données sur mon serveur local que j’utilise pour Power BI ou Azure Data Factory et je souhaite utiliser la même passerelle pour Machine Learning

chaque service requiert une passerelle Gestion des données distincte. si vous disposez déjà d’une passerelle utilisée pour Power BI ou Azure Data Factory, vous devez configurer un serveur distinct et installer une passerelle pour Machine Learning.

Vous ne pouvez pas installer plusieurs passerelles sur un seul serveur.

je souhaite pouvoir exporter des données vers mon serveur SQL local. puis-je utiliser la passerelle avec le module exporter les données pour écrire des données sur mon serveur SQL local ?

actuellement, Machine Learning prend en charge l’importation de données uniquement. Nous évaluons si vous êtes en mesure d’écrire dans votre base de données locale à l’avenir. en attendant, vous pouvez utiliser Azure Data Factory pour copier des données à partir du cloud vers votre base de données locale.

j’ai une source de données qui n’est pas Microsoft SQL Server (Oracle, Teradata, etc.). puis-je lire les données dans Machine Learning à l’aide de l’option locale dans le module importer des données ?

actuellement, le module Machine Learning importer des données prend uniquement en charge les Microsoft SQL Server.

en guise de solution de contournement, vous pouvez utiliser Azure Data Factory pour copier vos données locales dans un stockage cloud tel que Stockage Blob Azure ou une base de données Azure, puis utiliser votre source de données cloud dans le module importer des données .

Paramètres du module

Nom Plage Type Default Description
Source de données Liste Source ou récepteur de données Stockage Blob Azure la source de données peut être http, FTP, https ou FTPS anonyme, un fichier dans le stockage d’objets BLOB azure, une table azure, une Azure SQL Database, une base de données SQL Server locale, une table Hive ou un point de terminaison OData.
Passerelle de données n'importe laquelle DataGatewayName aucun Nom de la passerelle de données
Nom du serveur de base de données n'importe laquelle String aucun SQL Server local
Nom de la base de données n'importe laquelle String aucun instance de base de données SQL Server locale
Nom d'utilisateur et mot de passe n'importe laquelle SecureString aucun Nom d'utilisateur et mot de passe
Requête de base de données n'importe laquelle StreamReader aucun requête SQL locale

Sorties

Nom Type Description
Jeu de données de résultats Table de données Jeu de données avec des données téléchargées

Exceptions

Exception Description
Erreur 0027 Une exception se produit quand deux objets qui doivent avoir la même taille ne l'ont pas.
Erreur 0003 Une exception se produit si une ou plusieurs entrées ont la valeur Null ou sont vides.
Erreur 0029 Une exception se produit lorsqu'un URI non valide est passé.
Erreur 0030 Une exception se produit lorsqu'il n'est pas possible de télécharger un fichier.
Erreur 0002 Une exception se produit si un ou plusieurs paramètres n'ont pas pu être analysés ou convertis à partir du type spécifié dans le type requis par la méthode cible.
Erreur 0048 Une exception se produit quand il n'est pas possible d'ouvrir un fichier.
Erreur 0015 Une exception se produit si la connexion à la base de données a échoué.
Erreur 0046 Une exception se produit quand il n'est pas possible de créer un répertoire sur le chemin d'accès spécifié.
Erreur 0049 Une exception se produit quand il n'est pas possible d'analyser un fichier.

pour obtenir la liste des erreurs spécifiques aux modules Studio (classiques), consultez Machine Learning codes d’erreur.

pour obtenir la liste des exceptions d’api, consultez Machine Learning les Codes d’erreur de l' api REST.

Voir aussi

Importer des données
Exporter les données
Importer à partir d’une URL web via HTTP
Importer à partir d’une requête Hive
Importer à partir d’Azure SQL Database
Importer à partir de Table Azure
Importer à partir du Stockage Blob Azure
Importer à partir de fournisseurs de flux de données