Accéder au client de l’interface CLI Apache Flink® à l’aide de Secure Shell (SSH) sur HDInsight sur des clusters AKS avec le Portail Azure
Remarque
Nous allons mettre hors service Azure HDInsight sur AKS le 31 janvier 2025. Avant le 31 janvier 2025, vous devrez migrer vos charges de travail vers Microsoft Fabric ou un produit Azure équivalent afin d’éviter leur arrêt brutal. Les clusters restants de votre abonnement seront arrêtés et supprimés de l’hôte.
Seul le support de base sera disponible jusqu’à la date de mise hors service.
Important
Cette fonctionnalité est disponible actuellement en mode Aperçu. Les Conditions d’utilisation supplémentaires pour les préversions de Microsoft Azure contiennent davantage de conditions légales qui s’appliquent aux fonctionnalités Azure en version bêta, en préversion ou ne se trouvant pas encore en disponibilité générale. Pour plus d’informations sur cette préversion spécifique, consultez les Informations sur la préversion d’Azure HDInsight sur AKS. Pour toute question ou pour des suggestions à propos des fonctionnalités, veuillez envoyer vos requêtes et leurs détails sur AskHDInsight, et suivez-nous sur la Communauté Azure HDInsight pour plus de mises à jour.
Cet exemple montre comment entrer le client CLI Apache Flink sur HDInsight sur un cluster AKS à l’aide de SSH sur le Portail Azure, nous abordons à la fois Flink SQL et Flink DataStream.
Prérequis
- Vous devez sélectionner SSH lors de la création du cluster Flink
Connexion à SSH à partir du portail Azure
Une fois le cluster Flink créé, vous pouvez observer dans le volet gauche l’option Paramètres pour accéder à Secure Shell
SQL Apache Flink
Connexion au client SQL
Vous devez modifier le répertoire en /opt/flink-webssh/bin
et ensuite exécuter ./sql-client.sh
Vous êtes maintenant sur le client SQL sur Flink
Reportez-vous à ce document pour effectuer quelques tests supplémentaires.
Apache Flink DataStream
Flink fournit une interface de ligne de commande (CLI) bin/flink
pour exécuter des programmes empaquetés en tant que fichiers JAR et pour contrôler leur exécution.
L’interface CLI fait partie de Secure Shell (SSH) et se connecte à l’exécution de JobManager et utilise les configurations clientes spécifiées à l’adresse conf/flink-conf.yaml
.
Envoyer un travail signifie charger le fichier JAR du travail dans le pod SSH et lancer l’exécution du travail. Pour illustrer un exemple pour cet article, nous sélectionnons un travail de longue durée comme examples/streaming/StateMachineExample.jar
.
Remarque
Pour la gestion des dépendances, il est prévu de générer et de soumettre un jar lourd pour le travail à effectuer.
Chargez le fichier jar du travail lourd depuis ABFS vers webssh.
En fonction de votre cas d’usage, vous devez modifier les configurations clientes à l’aide de la gestion de configuration Flink sous flink-client-configs.
Nous allons exécuter StateMachineExample.jar
./bin/flink run \ --detached \ ./examples/streaming/StateMachineExample.jar
Remarque
L’envoi du travail à l’aide de --detached
permettra de retourner la commande une fois l’envoi terminé. La sortie contient l’ID du travail nouvellement envoyé.
Référence
- Client SQL Flink
- Apache, Apache Flink, Flink et les noms de projet open source associés sont des marques de commerce d’Apache Software Foundation (ASF).