Événements
31 mars, 23 h - 2 avr., 23 h
Le plus grand événement d’apprentissage Fabric, Power BI et SQL. 31 mars au 2 avril. Utilisez le code FABINSIDER pour économiser 400 $.
Inscrivez-vous aujourd’huiCe navigateur n’est plus pris en charge.
Effectuez une mise à niveau vers Microsoft Edge pour tirer parti des dernières fonctionnalités, des mises à jour de sécurité et du support technique.
S’APPLIQUE À : Azure Data Factory
Azure Synapse Analytics
Conseil
Essayez Data Factory dans Microsoft Fabric, une solution d’analyse tout-en-un pour les entreprises. Microsoft Fabric couvre tous les aspects, du déplacement des données à la science des données, en passant par l’analyse en temps réel, l’aide à la décision et la création de rapports. Découvrez comment démarrer un nouvel essai gratuitement !
Cet article explique comment utiliser l’activité de copie dans Azure Data Factory ou Synapse Analytics pour copier des données de Vertica. Il s’appuie sur l’article Vue d’ensemble de l’activité de copie.
Ce connecteur Vertica est pris en charge pour les activités suivantes :
Fonctionnalités prises en charge | IR |
---|---|
Activité de copie (source/-) | ① (uniquement pour la version 1.0) ② |
Activité de recherche | ① (uniquement pour la version 1.0) ② |
① Runtime d’intégration Azure ② Runtime d’intégration auto-hébergé
Pour obtenir la liste des banques de données prises en charge en tant que sources ou récepteurs par l’activité de copie, consultez le tableau Banques de données prises en charge.
Le service fournit un pilote intégré qui permet la connexion. Vous n’avez donc pas besoin d’installer manuellement un pilote à l’aide de ce connecteur.
Pour la version 2.0 (préversion), vous devez installer un pilote Vertica ODBC manuellement. Pour la version 1.0, le service fournit un pilote intégré qui permet la connexion. Vous n’avez donc pas besoin d’installer manuellement un pilote à l’aide de ce connecteur.
Si votre magasin de données se trouve dans un réseau local, un réseau virtuel Azure ou un cloud privé virtuel Amazon, vous devez configurer un runtime d’intégration auto-hébergé pour vous y connecter. Si vous utilisez la version 2.0 (préversion), votre version du runtime d’intégration auto-hébergé doit être 5.44.8984.1 ou ultérieure.
Pour plus d’informations sur les mécanismes de sécurité réseau et les options pris en charge par Data Factory, consultez Stratégies d’accès aux données.
Si votre magasin de données est un service de données cloud managé, vous pouvez utiliser Azure Integration Runtime. Si l’accès est limité aux adresses IP qui sont approuvées dans les règles de pare-feu, vous pouvez ajouter les adresses IP Azure Integration Runtime dans la liste d’autorisation.
Vous pouvez également utiliser la fonctionnalité de runtime d’intégration de réseau virtuel managé dans Azure Data Factory pour accéder au réseau local sans installer et configurer un runtime d’intégration auto-hébergé.
Pour utiliser le connecteur Vertica avec la version 2.0 (préversion), installez le pilote ODBC Vertica sur l’ordinateur exécutant le runtime d’intégration auto-hébergé en procédant comme suit :
Télécharger la configuration du client Vertica pour le pilote ODBC à partir de pilotes clients | OpenText™ Vertica™. Prenons l’exemple de configuration du système Windows :
Ouvrez le .exe téléchargé pour commencer le processus d’installation.
Sélectionnez pilote ODBC sous Liste des composants Vertica, puis sélectionnez Suivant pour démarrer l’installation.
Une fois le processus d’installation terminé, vous pouvez accéder à Démarrer –> Administrateur(-trice) de source de données ODBC pour confirmer la réussite de l’installation.
Vous pouvez créer un pipeline avec l’activité de copie à l’aide du SDK .NET, du SDK Python, d’Azure PowerShell, de l’API REST ou du modèle Azure Resource Manager. Pour obtenir des instructions détaillées sur la création d’un pipeline avec une activité de copie, consultez le didacticiel sur l’activité de copie.
Utilisez les étapes suivantes pour créer un service lié à Vertica dans l’interface utilisateur du portail Azure.
Accédez à l’onglet Gérer dans votre espace de travail Azure Data Factory ou Synapse et sélectionnez Services liés, puis cliquez sur Nouveau :
Recherchez Vertica et sélectionnez le connecteur Vertica.
Configurez les informations du service, testez la connexion et créez le nouveau service lié.
Les sections suivantes fournissent des informations sur les propriétés utilisées pour définir les entités Data Factory spécifiques du connecteur Vertica.
Si vous utilisez la version 2.0 (préversion), les propriétés prises en charge pour le service lié Vertica sont les suivantes :
Propriété | Description | Obligatoire |
---|---|---|
type | La propriété de type doit être définie sur Vertica | Oui |
server | Le nom ou l’adresse IP du serveur auquel vous souhaitez vous connecter. | Oui |
port | Le numéro de port de l’auditeur du serveur. | Non, la valeur par défaut est 5433 |
database | Nom de la base de données Vertica. | Oui |
uid | L’identifiant de l’utilisateur(-trice) utilisé pour se connecter à la base de données. | Oui |
pwd | Mot de passe que l’application utilise pour se connecter à la base de données. | Oui |
version | Version lorsque vous sélectionnez la version 2.0 (préversion). La valeur est 2.0 . |
Oui |
connectVia | Runtime d’intégration à utiliser pour la connexion à la banque de données. Pour plus d’informations, consultez la section Conditions préalables. Vous ne pouvez utiliser que le runtime d’intégration auto-hébergé et sa version doit être 5.44.8984.1 ou supérieure. | Non |
Exemple :
{
"name": "VerticaLinkedService",
"properties": {
"type": "Vertica",
"version": "2.0",
"typeProperties": {
"server": "<server>",
"port": 5433,
"uid": "<username>",
"database": "<database>",
"pwd": {
"type": "SecureString",
"value": "<password>"
}
},
"connectVia": {
"referenceName": "<name of Integration Runtime>",
"type": "IntegrationRuntimeReference"
}
}
}
Exemple : stockage du mot de passe dans Azure Key Vault
{
"name": "VerticaLinkedService",
"properties": {
"type": "Vertica",
"version": "2.0",
"typeProperties": {
"server": "<server>",
"port": 5433,
"uid": "<username>",
"database": "<database>",
"pwd": {
"type": "AzureKeyVaultSecret",
"store": {
"referenceName": "<Azure Key Vault linked service name>",
"type": "LinkedServiceReference"
},
"secretName": "<secretName>"
}
},
"connectVia": {
"referenceName": "<name of Integration Runtime>",
"type": "IntegrationRuntimeReference"
}
}
}
Si vous utilisez la version 1.0, les propriétés suivantes sont prises en charge :
Propriété | Description | Obligatoire |
---|---|---|
type | La propriété de type doit être définie sur Vertica | Oui |
connectionString | Chaîne de connexion ODBC permettant de se connecter à Vertica. Vous pouvez également définir un mot de passe dans Azure Key Vault et extraire la configuration pwd de la chaîne de connexion. Pour plus d’informations, reportez-vous aux exemples suivants et à l’article Stocker des informations d’identification dans Azure Key Vault. |
Oui |
connectVia | Runtime d’intégration à utiliser pour la connexion à la banque de données. Pour plus d’informations, consultez la section Conditions préalables. À défaut de spécification, le runtime d’intégration Azure par défaut est utilisé. | Non |
Exemple :
{
"name": "VerticaLinkedService",
"properties": {
"type": "Vertica",
"typeProperties": {
"connectionString": "Server=<server>;Port=<port>;Database=<database>;UID=<user name>;PWD=<password>"
},
"connectVia": {
"referenceName": "<name of Integration Runtime>",
"type": "IntegrationRuntimeReference"
}
}
}
Pour obtenir la liste complète des sections et propriétés disponibles pour la définition de jeux de données, consultez l’article sur les jeux de données. Cette section contient la liste des propriétés prises en charge par le jeu de données Vertica.
Pour copier des données de Vertica, affectez la valeur VerticaTable à la propriété type du jeu de données. Les propriétés prises en charge sont les suivantes :
Propriété | Description | Obligatoire |
---|---|---|
type | La propriété type du jeu de données doit être définie sur : VerticaTable | Oui |
schéma | Nom du schéma. | Non (si « query » dans la source de l’activité est spécifié) |
table | Nom de la table. | Non (si « query » dans la source de l’activité est spécifié) |
Exemple
{
"name": "VerticaDataset",
"properties": {
"type": "VerticaTable",
"typeProperties": {},
"schema": [],
"linkedServiceName": {
"referenceName": "<Vertica linked service name>",
"type": "LinkedServiceReference"
}
}
}
Pour obtenir la liste complète des sections et des propriétés disponibles pour la définition des activités, consultez l’article Pipelines. Cette section contient la liste des propriétés prises en charge par la source Vertica.
Pour copier des données de Vertica, définissez VerticaSource comme type de source dans l’activité de copie. Les propriétés prises en charge dans la section source de l’activité de copie sont les suivantes :
Propriété | Description | Obligatoire |
---|---|---|
type | La propriété type de la source d’activité de copie doit être définie sur VerticaSource | Oui |
query | Utiliser la requête SQL personnalisée pour lire les données. Par exemple : "SELECT * FROM MyTable" . |
Non (si « schéma+table » est spécifié dans le jeu de données) |
Exemple :
"activities":[
{
"name": "CopyFromVertica",
"type": "Copy",
"inputs": [
{
"referenceName": "<Vertica input dataset name>",
"type": "DatasetReference"
}
],
"outputs": [
{
"referenceName": "<output dataset name>",
"type": "DatasetReference"
}
],
"typeProperties": {
"source": {
"type": "VerticaSource",
"query": "SELECT * FROM MyTable"
},
"sink": {
"type": "<sink type>"
}
}
}
]
Pour en savoir plus sur les propriétés, consultez Activité Lookup.
Voici les étapes qui vous aideront à mettre à niveau votre version de Vertica :
Pour obtenir une liste des magasins de données pris en charge comme sources et récepteurs par l’activité de copie, consultez la section sur les magasins de données pris en charge.
Événements
31 mars, 23 h - 2 avr., 23 h
Le plus grand événement d’apprentissage Fabric, Power BI et SQL. 31 mars au 2 avril. Utilisez le code FABINSIDER pour économiser 400 $.
Inscrivez-vous aujourd’huiEntrainement
Module
Ingestion des données à l’échelle du pétaoctet avec Azure Data Factory - Training
Ingestion des données à l’échelle du pétaoctet avec un pipeline Azure Synapse ou Azure Data Factory
Certification
Microsoft Certified : Azure Data Engineer Associate - Certifications
Faites la démonstration d’une compréhension des tâches d’engineering données courantes pour implémenter et gérer des charges de travail d’engineering données sur Microsoft Azure en utilisant un certain nombre de services Azure.