Charger des données d’utilisation sur Azure en mode indirect
Vous pouvez exporter les informations d’utilisation périodiquement. L’exportation et le chargement de ces informations crée et met à jour le contrôleur de données, l’instance gérée SQL et les ressources PostgreSQL dans Azure.
Remarque
Les informations d’utilisation sont automatiquement chargées pour le contrôleur de données Azure Arc déployé en mode de connectivité directe. Les instructions de cet article s’appliquent uniquement au chargement des informations d’utilisation pour le contrôleur de données Azure Arc déployé en mode de connectivité indirecte.
Attendez au moins 24 heures après avoir créé le contrôleur de données Azure Arc avant de charger des données d’utilisation.
Créer un principal du service et attribuer des rôles
Avant de continuer, assurez-vous que vous avez créé le principal du service requis et que vous l’avez affecté à un rôle approprié. Pour plus d’informations, consultez :
Les exemples de cet article utilisent des crochets pointus < ... >
pour identifier les valeurs que vous devez remplacer avant d’exécuter le script. Remplacez les crochets et les valeurs à l’intérieur des crochets.
Charger les données d’utilisation
Les informations d’utilisation telles que l’inventaire et l’utilisation des ressources peuvent être téléchargées sur Azure de la manière suivante :
- Exportez les données d’utilisation à l’aide de la commande
az arcdata dc export
, comme suit :
Remarque
L’exportation des informations d’utilisation/facturation, des métriques et des journaux à l’aide de la commande az arcdata dc export
nécessite de contourner la vérification SSL pour l’instant. Vous êtes invité à contourner la vérification SSL ou vous pouvez définir la variable d’environnement AZDATA_VERIFY_SSL=no
pour éviter les invites. Il n’existe actuellement aucun moyen de configurer un certificat SSL pour l’API d’exportation du contrôleur de données.
az arcdata dc export --type usage --path usage.json --k8s-namespace <namespace> --use-k8s
Cette commande crée un fichier usage.json
avec toutes les ressources de données avec Azure Arc, comme les instances gérées SQL et les instances PostgreSQL, etc., qui sont créées sur le contrôleur de données.
Actuellement, le fichier n’étant pas chiffré, vous pouvez en voir le contenu. N’hésitez pas à l’ouvrir dans un éditeur de texte pour voir à quoi ressemble le contenu.
Vous remarquerez qu’il existe deux ensembles de données : resources
et data
. L’ensemble de données resources
est celui du contrôleur de données, de PostgreSQL et des instances managées SQL. Les enregistrements resources
dans les données capturent les événements pertinents dans l’historique d’une ressource, lors de sa création, lors de sa mise à jour et lors de sa suppression. Les enregistrements data
capturent le nombre de cœurs disponibles qu’une instance donnée peut utiliser à chaque heure.
Exemple d’entrée resource
:
{
"customObjectName": "<resource type>-2020-29-5-23-13-17-164711",
"uid": "4bc3dc6b-9148-4c7a-b7dc-01afc1ef5373",
"instanceName": "sqlInstance001",
"instanceNamespace": "arc",
"instanceType": "<resource>",
"location": "eastus",
"resourceGroupName": "production-resources",
"subscriptionId": "aaaa0a0a-bb1b-cc2c-dd3d-eeeeee4e4e4e",
"isDeleted": false,
"externalEndpoint": "32.191.39.83:1433",
"vCores": "2",
"createTimestamp": "05/29/2020 23:13:17",
"updateTimestamp": "05/29/2020 23:13:17"
}
Exemple d’entrée data
:
{
"requestType": "usageUpload",
"clusterId": "4b0917dd-e003-480e-ae74-1a8bb5e36b5d",
"name": "DataControllerTestName",
"subscriptionId": "aaaa0a0a-bb1b-cc2c-dd3d-eeeeee4e4e4e",
"resourceGroup": "production-resources",
"location": "eastus",
"uploadRequest": {
"exportType": "usages",
"dataTimestamp": "2020-06-17T22:32:24Z",
"data": "[{\"name\":\"sqlInstance001\",
\"namespace\":\"arc\",
\"type\":\"<resource type>\",
\"eventSequence\":1,
\"eventId\":\"50DF90E8-FC2C-4BBF-B245-CB20DC97FF24\",
\"startTime\":\"2020-06-17T19:11:47.7533333\",
\"endTime\":\"2020-06-17T19:59:00\",
\"quantity\":1,
\"id\":\"4BC3DC6B-9148-4C7A-B7DC-01AFC1EF5373\"}]",
"signature":"MIIE7gYJKoZIhvcNAQ...2xXqkK"
}
}
Chargez les données d’utilisation à l’aide de la commande
upload
.az arcdata dc upload --path usage.json
Fréquence de chargement
En mode indirect, les informations d’utilisation doivent être chargées sur Azure au moins une fois tous les 30 jours. Il est vivement recommandé de charger plus fréquemment, par exemple tous les jours. Si les informations d’utilisation ne sont pas chargées au cours des 32 derniers jours, vous constaterez une certaine dégradation dans le service, par exemple l’impossibilité d’approvisionner de nouvelles ressources.
Il y aura deux types de notifications pour les chargements différés d’utilisation : la phase d’avertissement et la phase détériorée. Dans la phase d’avertissement, un message ressemblant au message suivante s’affichera Billing data for the Azure Arc data controller has not been uploaded in {0} hours. Please upload billing data as soon as possible.
.
Dans la phase détériorée, le message ressemble au message suivant Billing data for the Azure Arc data controller has not been uploaded in {0} hours. Some functionality will not be available until the billing data is uploaded.
.
Remarque
Le message d’avertissement s’affiche si l’utilisation n’a pas été chargée depuis plus de 48 heures.
La page Vue d’ensemble du portail Azure pour le contrôleur de données et l’état des ressources personnalisées du contrôleur de données dans votre cluster Kubernetes indiquent à la fois la dernière date de chargement et le ou les messages d’état.
Automatisation des chargements (facultatif)
Si vous souhaitez charger les métriques et les journaux sur une base planifiée, vous pouvez créer un script et l’exécuter sur la base d’un minuteur toutes les quelques minutes. Voici un exemple d’automatisation des chargements à l’aide d’un script de shell Linux.
Dans votre éditeur de texte ou de code, ajoutez ce qui suit au script dans le fichier, puis enregistrez-le en tant que fichier exécutable de script, tel que .sh
(Linux/Mac) ou .cmd
, .bat
ou .ps1
.
az arcdata dc export --type usage --path usage.json --force --k8s-namespace <namespace> --use-k8s
az arcdata dc upload --path usage.json
Rendre le fichier de script exécutable
chmod +x myuploadscript.sh
Exécutez le script tous les jours pour l’utilisation :
watch -n 1200 ./myuploadscript.sh
Vous pouvez également utiliser un planificateur de travaux comme cron ou le Planificateur de tâches Windows ou encore un orchestrateur comme Ansible, Puppet ou Chef.
Contenu connexe
Charger les métriques sur Azure Monitor
Charger les journaux sur Azure Monitor
Charger des données de facturation dans Azure et les afficher dans le portail Azure
Afficher la ressource Azure Arc Data Controller dans Portail Azure