Déployer une application Java avec Red Hat JBoss Enterprise Application Platform (JBoss EAP) sur un cluster Azure Red Hat OpenShift 4

Cet article explique comment déployer une application Red Hat JBoss Enterprise Application Platform (JBoss EAP) sur un cluster Azure Red Hat OpenShift 4. L’exemple est une application Java sauvegardée par une base de données SQL. L’application est déployée à l’aide de graphiques Helm JBoss EAP.

Le guide prend une application Java et vous guide tout au long du processus de migration vers un orchestrateur de conteneurs tel qu’Azure Red Hat OpenShift. Tout d'abord, il décrit comment vous pouvez empaqueter votre application comme un JAR amorçable pour l'exécuter localement. Enfin, il vous montre comment vous pouvez déployer sur OpenShift avec trois répliques de l'application JBoss EAP en utilisant Helm Charts.

Cet article est un guide manuel pas à pas pour exécuter l’application JBoss EAP sur un cluster Azure Red Hat OpenShift 4. Pour une solution plus automatisée qui accélère votre parcours vers un cluster Azure Red Hat OpenShift 4, consultez Démarrage rapide : Déployer JBoss EAP sur Azure Red Hat OpenShift à l’aide de la Portail Azure.

L’exemple est une application avec état qui stocke des informations dans une session HTTP. Il utilise les fonctionnalités de clustering JBoss EAP et utilise les technologies Jakarta EE et MicroProfile suivantes :

  • Jakarta Server Faces
  • Jakarta Enterprise Beans
  • Jakarta Persistence
  • MicroProfile Health

Important

Cet article déploie une application en utilisant des charts Helm pour JBoss EAP. Au moment de la rédaction de cet article, cette fonctionnalité est encore proposée en préversion technologique. Avant de déployer des applications avec des charts Helm pour JBoss EAP dans des environnements de production, assurez-vous que cette fonctionnalité est prise en charge par la version de votre produit JBoss EAP/XP.

Important

Bien qu’Azure Red Hat OpenShift soit conjointement conçu, exploité et pris en charge par Red Hat et Microsoft pour fournir une expérience de support intégrée, le logiciel que vous exécutez sur Azure Red Hat OpenShift, y compris celui décrit dans cet article, est soumis à ses propres conditions de support et de licence. Pour plus d’informations sur la prise en charge d’Azure Red Hat OpenShift, consultez le cycle de vie de support d’Azure Red Hat OpenShift 4. Pour plus d’informations sur la prise en charge des logiciels décrits dans cet article, consultez les pages principales des logiciels en question, comme indiqué dans l’article.

Prérequis

Remarque

Azure Red Hat OpenShift requiert a minimum de 40 cœurs pour créer et exécuter un cluster OpenShift. Le quota de ressources Azure par défaut pour un nouvel abonnement Azure ne répond pas à cette exigence. Pour demander une augmentation de votre limite de ressources, consultez Quota standard : augmenter les limites par série de machines virtuelles. Notez que l’abonnement d’essai gratuit n’est pas éligible à une augmentation de quota. Passez à un abonnement Paiement à l’utilisation avant de demander une augmentation de quota.

  1. Préparez une machine locale avec un système d’exploitation de type Unix pris en charge par les différents produits installés, tels que Ubuntu, macOS ou Sous-système Windows pour Linux.

  2. Installez une implémentation Java SE. Les étapes de développement locales de cet article ont été testées avec JDK 17 à partir de la build Microsoft d’OpenJDK.

  3. Installez Maven 3.8.6 ou version ultérieure.

  4. Installez Azure CLI 2.40 ou version ultérieure.

  5. Clonez le code de cette application de démonstration (todo-list) sur votre système local. L’application de démonstration se trouve sur le site de GitHub.

  6. Suivez les instructions de la section Créer un cluster Azure Red Hat OpenShift 4.

    Bien que l’étape « Récupération d’un secret d’extraction Red Hat » soit étiquetée comme étant facultative, elle est requise pour cet article. Le secret d’extraction permet à votre cluster Azure Red Hat OpenShift de rechercher les images d’application JBoss EAP.

    Si vous envisagez d’exécuter des applications gourmandes en mémoire sur le cluster, spécifiez la taille de machine virtuelle appropriée pour les nœuds Worker à l’aide du paramètre --worker-vm-size. Pour plus d’informations, consultez l’article suivant :

  7. Connectez-vous au cluster en suivant les étapes décrites dans Se connecter à un cluster Azure Red Hat OpenShift 4.

    • Suivez les étapes de la section « Installer l’interface CLI OpenShift ».
    • Connectez-vous à un cluster Azure Red Hat OpenShift en utilisant l’interface CLI OpenShift avec l’utilisateur kubeadmin.
  8. Exécutez la commande suivante pour créer le projet OpenShift pour cette application de démonstration :

    oc new-project eap-demo
    
  9. Exécutez la commande suivante pour ajouter le rôle de consultation au compte de service par défaut. Ce rôle est nécessaire pour que l’application puisse découvrir d’autres pods et former un cluster avec eux :

    oc policy add-role-to-user view system:serviceaccount:$(oc project -q):default -n $(oc project -q)
    

Préparer l’application

Clonez l’exemple d’application à l’aide de la commande suivante :

git clone https://github.com/Azure-Samples/jboss-on-aro-jakartaee

Vous avez cloné l’application Todo-list de démonstration et votre référentiel local se trouve sur la main branche. L’application de démonstration est une application Java simple qui crée, lit, met à jour et supprime des enregistrements sur Azure SQL. Vous pouvez déployer cette application telle qu’elle se trouve sur un serveur JBoss EAP installé sur votre ordinateur local. Il vous suffit de configurer le serveur avec le pilote de base de données et la source de données requis. Vous avez également besoin d'un serveur de base de données accessible depuis votre environnement local.

Toutefois, lorsque vous ciblez OpenShift, vous pouvez réduire les fonctionnalités de votre serveur JBoss EAP. Par exemple, vous pouvez réduire l’exposition de sécurité du serveur approvisionné et réduire l’empreinte globale. Vous pouvez également inclure certaines spécifications MicroProfile afin de rendre votre application plus adaptée à un environnement OpenShift. Lorsque vous utilisez JBoss EAP, une façon d’accomplir cette tâche consiste à empaqueter votre application et votre serveur dans une seule unité de déploiement appelée jar de démarrage. Pour cela, nous ajoutons les modifications requises à notre application de démonstration.

Accédez au référentiel local de votre application de démonstration et remplacez la branche par bootable-jar :

## cd jboss-on-aro-jakartaee
git checkout bootable-jar

Revenons rapidement sur ce que nous avons modifié dans cette branche :

  • Nous avons ajouté le wildfly-jar-maven plug-in pour approvisionner le serveur et l’application dans un fichier JAR exécutable unique. L’unité de déploiement OpenShift sera maintenant notre serveur avec notre application.
  • Sur le plug-in Maven, nous avons spécifié un ensemble de couches Galleon. Cette configuration nous permet de réduire les fonctionnalités du serveur uniquement à ce dont nous avons besoin. Pour obtenir une documentation complète sur Galleon, consultez la documentation de WildFly.
  • Notre application utilise Jakarta Faces avec des requêtes Ajax, ce qui signifie qu’il existe des informations stockées dans la session HTTP. Nous ne voulons pas perdre ces informations si un pod est supprimé. Nous pourrions enregistrer ces informations sur le client et les renvoyer à chaque requête. Toutefois, dans certains cas, vous pouvez décider de ne pas distribuer certaines informations aux clients. Pour cette démonstration, nous avons choisi de répliquer la session sur tous les réplicas de pod. Pour ce faire, nous avons ajouté <distributable /> au web.xml. Cela, avec les fonctionnalités de clustering de serveur, rend la session HTTP distribuable sur tous les pods.
  • Nous avons ajouté deux contrôles d’intégrité MicroProfile qui vous permettent d’identifier quand l’application est active et prête à recevoir des demandes.

Exécuter localement l’application

Avant de déployer l’application sur OpenShift, nous allons l’exécuter localement pour vérifier son fonctionnement. Les étapes suivantes supposent que vous disposez d’Azure SQL en cours d’exécution et disponibles à partir de votre environnement local.

Pour créer la base de données, suivez les étapes de démarrage rapide : Créez une base de données unique Azure SQL Database, mais utilisez les substitutions suivantes.

  • Pour le groupe de ressources, utilisez le groupe de ressources que vous avez créé précédemment.
  • Pour Nom de la base de données, utilisez todos_db.
  • Pour Identifiants de l’administrateur de serveur, utilisez azureuser.
  • Pour mot de passe utilisez Passw0rd!.
  • Dans la section Règles de pare-feu, basculez l’option Autoriser les services et ressources Azure à accéder à ce serveur sur Oui.

Tous les autres paramètres peuvent être utilisés en toute sécurité à partir de l’article lié.

Dans la page Paramètres supplémentaires , vous n’avez pas à choisir l’option permettant de préremplir la base de données avec des exemples de données, mais il n’y a pas de mal à le faire.

Une fois la base de données créée avec le nom de la base de données ci-dessus, la connexion d’administrateur du serveur et le mot de passe, obtenez la valeur du nom du serveur dans la page vue d’ensemble de la ressource de base de données nouvellement créée dans le portail. Pointez la souris sur la valeur du champ Nom du serveur et sélectionnez l’icône de copie qui apparaît à côté de la valeur. Enregistrez cette valeur de côté pour une utilisation ultérieure (nous définissons une variable nommée MSSQLSERVER_HOST sur cette valeur).

Remarque

Pour réduire les coûts monétaires, le guide de démarrage rapide indique au lecteur de sélectionner le niveau de calcul serverless. Ce niveau est mis à l’échelle à zéro en l’absence d’activité. Dans ce cas, la base de données ne réagit pas immédiatement. Si, à un moment quelconque de l’exécution des étapes décrites dans cet article, vous observez des problèmes liés à la base de données, envisagez de désactiver la mise en pause automatique. Pour savoir comment faire, recherchez Pause automatique dans Azure SQL Database serverless. Au moment de l’écriture, la commande AZ CLI suivante désactive la pause automatique pour la base de données configurée dans cet article. az sql db update --resource-group $RESOURCEGROUP --server <Server name, without the .database.windows.net part> --name todos_db --auto-pause-delay -1

Suivez les étapes suivantes pour générer et exécuter l’application localement.

  1. Générez le fichier JAR de démarrage. Étant donné que nous utilisons la eap-datasources-galleon-pack base de données MS SQL Server, nous devons spécifier la version du pilote de base de données que nous voulons utiliser avec cette variable d’environnement spécifique. Pour plus d’informations sur ms SQL Server et le eap-datasources-galleon-pack serveur SQL Server, consultez la documentation de Red Hat

    export MSSQLSERVER_DRIVER_VERSION=7.4.1.jre11
    mvn clean package
    
  2. Lancez le fichier JAR de démarrage à l’aide des commandes suivantes.

    Vous devez vous assurer que la base de données Azure SQL autorise le trafic réseau à partir de l’hôte sur lequel ce serveur s’exécute. Étant donné que vous avez sélectionné Ajouter l’adresse IP client actuelle lors de la procédure Démarrage rapide : Créer une base de données unique Azure SQL Database, si l’hôte sur lequel le serveur s’exécute est le même hôte que celui à partir duquel votre navigateur se connecte au portail Azure, le trafic réseau doit être autorisé. Si l’hôte sur lequel le serveur s’exécute est un autre hôte, vous devez faire référence à Utiliser le Portail Azure pour gérer les règles de pare-feu IP au niveau du serveur.

    Lorsque nous lancez l’application, nous devons transmettre les variables d’environnement requises pour configurer la source de données :

    export MSSQLSERVER_USER=azureuser
    export MSSQLSERVER_PASSWORD='Passw0rd!'
    export MSSQLSERVER_JNDI=java:/comp/env/jdbc/mssqlds
    export MSSQLSERVER_DATABASE=todos_db
    export MSSQLSERVER_HOST=<server name saved aside earlier>
    export MSSQLSERVER_PORT=1433
    mvn wildfly-jar:run
    

    Si vous souhaitez en savoir plus sur le runtime sous-jacent utilisé dans cette démonstration, la documentation Galleon Feature Pack pour l’intégration des sources de données contient une liste complète des variables d’environnement disponibles. Pour plus d’informations sur le concept de pack de fonctionnalités, consultez la documentation de WildFly.

    Si vous recevez une erreur avec du texte similaire à l’exemple suivant :

    Cannot open server '<your prefix>mysqlserver' requested by the login. Client with IP address 'XXX.XXX.XXX.XXX' is not allowed to access the server.
    

    Ce message indique que vos étapes pour vous assurer que le trafic réseau est autorisé n’a pas fonctionné. Vérifiez que l’adresse IP du message d’erreur est incluse dans les règles de pare-feu.

    Si vous recevez un message avec du texte similaire à l’exemple suivant :

    Caused by: com.microsoft.sqlserver.jdbc.SQLServerException: There is already an object named 'TODOS' in the database.
    

    Ce message indique que les échantillons de données se trouvent déjà dans la base de données. Ignorez ce message.

  3. (Facultatif) Si vous voulez vérifier les capacités de clustering, vous pouvez également lancer d’autres instances de la même application en transmettant au fichier JAR de démarrage l’argument jboss.node.name et, afin d’éviter les conflits avec les numéros de port, en décalant les numéros de port en utilisant jboss.socket.binding.port-offset. Par exemple, pour lancer une deuxième instance qui représente un nouveau pod sur OpenShift, vous pouvez exécuter la commande suivante dans une nouvelle fenêtre de terminal :

    export MSSQLSERVER_USER=azureuser
    export MSSQLSERVER_PASSWORD='Passw0rd!'
    export MSSQLSERVER_JNDI=java:/comp/env/jdbc/mssqlds
    export MSSQLSERVER_DATABASE=todos_db
    export MSSQLSERVER_HOST=<server name saved aside earlier>
    export MSSQLSERVER_PORT=1433
    mvn wildfly-jar:run -Dwildfly.bootable.arguments="-Djboss.node.name=node2 -Djboss.socket.binding.port-offset=1000"
    

    Si votre cluster fonctionne, vous pouvez voir sur la console serveur une trace similaire à celle-ci :

    INFO  [org.infinispan.CLUSTER] (thread-6,ejb,node) ISPN000094: Received new cluster view for channel ejb
    

    Remarque

    Par défaut, le fichier JAR de démarrage configure le sous-système JGroups pour qu’il utilise le protocole UDP et envoie des messages pour découvrir les autres membres du cluster à l’adresse de multidiffusion 230.0.0.4. Pour vérifier correctement les capacités de clustering sur votre ordinateur local, votre système d’exploitation doit être capable d’envoyer et de recevoir des datagrammes de multidiffusion et de les acheminer vers l’adresse IP 230.0.0.4 via votre interface Ethernet. Si vous voyez des avertissements liés au cluster dans les journaux du serveur, vérifiez votre configuration réseau et assurez-vous qu’elle prend en charge la multidiffusion à cette adresse.

  4. Ouvrez http://localhost:8080/ dans votre navigateur pour accéder à la page d’accueil de l’application. Si vous avez créé d’autres instances, vous pouvez y accéder en déplaçant le numéro de port, par exemple http://localhost:9080/. L’application doit ressembler à l’image suivante :

    Capture d’écran de l’application de démonstration ToDo EAP.

  5. Vérifiez les probes liveness et readiness pour l’application. OpenShift utilise ces points de terminaison pour vérifier quand votre pod est actif et prêt à recevoir des demandes utilisateur.

    Pour vérifier l’état de probe liveness, exécutez :

    curl http://localhost:9990/health/live
    

    Cette sortie doit s’afficher :

    {"status":"UP","checks":[{"name":"SuccessfulCheck","status":"UP"}]}
    

    Pour case activée l’état de préparation, exécutez :

    curl http://localhost:9990/health/ready
    

    Cette sortie doit s’afficher :

     {"status":"UP","checks":[{"name":"deployments-status","status":"UP","data":{"todo-list.war":"OK"}},{"name":"server-state","status":"UP","data":{"value":"running"}},{"name":"boot-errors","status":"UP"},{"name":"DBConnectionHealthCheck","status":"UP"}]}
    
  6. Appuyez sur Contrôle+C pour arrêter l’application.

Déployer sur OpenShift

Pour déployer l’application, nous allons utiliser les graphiques Helm JBoss EAP déjà disponibles dans Azure Red Hat OpenShift. Nous devons également fournir la configuration souhaitée, par exemple, l’utilisateur de la base de données, le mot de passe de la base de données, la version du pilote que nous voulons utiliser et les informations de connexion utilisées par la source de données. Les étapes suivantes supposent que vous avez Azure SQL en cours d’exécution et accessible à partir de votre cluster OpenShift, et que vous avez stocké le nom d’utilisateur de la base de données, le mot de passe, le nom d’hôte, le port et le nom de la base de données dans un objet Secret OpenShift OpenShift nommé mssqlserver-secret.

Accédez au référentiel local de votre application de démonstration et remplacez la branche actuelle par bootable-jar-openshift :

git checkout bootable-jar-openshift

Examinons rapidement ce que nous avons changé dans cette branche :

  • Nous avons ajouté un nouveau profil Maven nommé bootable-jar-openshift qui prépare le fichier JAR de démarrage avec une configuration spécifique pour l’exécution du serveur sur le cloud. Par exemple, il permet au sous-système JGroups d’utiliser des requêtes TCP pour découvrir d’autres pods à l’aide du protocole KUBE_PING.
  • Nous avons ajouté un ensemble de fichiers de configuration dans le répertoire jboss-on-aro-jakartaee/deployment . Dans ce répertoire, vous trouverez les fichiers de configuration pour déployer l’application.

Déployer l’application sur OpenShift

Les étapes suivantes expliquent comment déployer l’application avec un chart Helm à l’aide de la console web OpenShift. Évitez de coder en dur des valeurs sensibles dans votre graphique Helm à l’aide d’une fonctionnalité appelée « secrets ». Un secret est simplement une collection de paires name=value, où les valeurs sont spécifiées dans un endroit connu avant qu’elles ne soient nécessaires. Dans notre cas, le chart Helm utilise deux secrets, avec les paires nom=valeur suivantes.

  • mssqlserver-secret

    • db-host transmet la valeur de MSSQLSERVER_HOST.
    • db-name transmet la valeur de MSSQLSERVER_DATABASE
    • db-password transmet la valeur de MSSQLSERVER_PASSWORD
    • db-port transmet la valeur de MSSQLSERVER_PORT.
    • db-user transmet la valeur de MSSQLSERVER_USER.
  • todo-list-secret

    • app-cluster-password transmet un mot de passe quelconque spécifié par l’utilisateur afin que les nœuds de cluster puissent se former de manière plus sécurisée.
    • app-driver-version transmet la valeur de MSSQLSERVER_DRIVER_VERSION.
    • app-ds-jndi transmet la valeur de MSSQLSERVER_JNDI.
  1. Créez mssqlserver-secret.

    oc create secret generic mssqlserver-secret \
        --from-literal db-host=${MSSQLSERVER_HOST} \
        --from-literal db-name=${MSSQLSERVER_DATABASE} \
        --from-literal db-password=${MSSQLSERVER_PASSWORD} \
        --from-literal db-port=${MSSQLSERVER_PORT} \
        --from-literal db-user=${MSSQLSERVER_USER}
    
  2. Créez todo-list-secret.

    export MSSQLSERVER_DRIVER_VERSION=7.4.1.jre11
    oc create secret generic todo-list-secret \
        --from-literal app-cluster-password=mut2UTG6gDwNDcVW \
        --from-literal app-driver-version=${MSSQLSERVER_DRIVER_VERSION} \
        --from-literal app-ds-jndi=${MSSQLSERVER_JNDI}
    
  3. Ouvrez la console OpenShift et accédez à la vue des développeurs. Vous pouvez découvrir l’URL de console de votre cluster OpenShift en exécutant cette commande. Connectez-vous avec l’id utilisateur et le kubeadmin mot de passe que vous avez obtenus à partir d’une étape précédente.

    az aro show \
        --name $CLUSTER \
        --resource-group $RESOURCEGROUP \
        --query "consoleProfile.url" \
        --output tsv
    

    Sélectionnez le <point de vue du> développeur dans le menu déroulant en haut du volet de navigation.

    Capture d’écran de la vue développeur de la console OpenShift.

  4. Dans la <perspective /> Développeur , sélectionnez le projet eap-demo dans le menu déroulant Project .

    Capture d’écran de la zone de liste modifiable Projet de la console OpenShift.

  5. Sélectionnez +Ajouter. Dans la section Catalogue des développeurs, sélectionnez Helm Chart. Vous arrivez au catalogue Helm Chart disponible sur votre cluster Azure Red Hat OpenShift. Dans la zone Filtrer par mot clé, saisissez eap. Vous devez voir plusieurs options, comme illustré ici :

    Capture d’écran de Chart Helm EAP dans la console OpenShift.

    Étant donné que notre application utilise des fonctionnalités MicroProfile, nous sélectionnons le graphique Helm pour EAP Xp. Xp signifie Pack d’extension. Grâce au pack d’extension JBoss Enterprise Application Platform, les développeurs peuvent utiliser des interfaces de programmation d’applications (API) Eclipse MicroProfile pour générer et déployer des applications basées sur des microservices.

  6. Sélectionnez le graphique Helm JBoss EAP XP 4 , puis sélectionnez Installer Helm Chart.

À ce stade, nous devons configurer le chart pour générer et déployer l’application :

  1. Modifiez le nom de la version en eap-todo-list-demo.

  2. Nous pouvons configurer le chart Helm à l’aide d’une vue formulaire ou d’une vue YAML. Dans la section Intitulée Configurer via, sélectionnez Vue YAML.

  3. Modifiez le contenu YAML pour configurer le chart Helm en copiant et en collant le contenu du fichier Helm Chart disponible dans deployment/application/todo-list-helm-chart.yaml à la place du contenu existant :

    Contenu YAML du Chart Helm EAP dans la console OpenShift

    Ce contenu fait référence aux secrets que vous avez définis précédemment.

  4. Enfin, sélectionnez Install (Installer) pour démarrer le déploiement de l’application. Cette action ouvre la vue Topologie avec une représentation graphique de la version Helm (nommée eap-todo-list-demo) et ses ressources associées.

    Capture d’écran de la topologie de la console OpenShift.

    La version Helm (abrégée HR) est nommée eap-todo-list-demo. Elle comprend une ressource de déploiement (abrégée D) également nommée eap-todo-list-demo.

    Si vous sélectionnez l’icône avec deux flèches dans un cercle situé en bas à gauche de la zone D , vous accédez au volet Journaux . Ici, vous pouvez observer la progression de la génération. Pour revenir à la vue de la topologie, sélectionnez Topologie dans le volet de navigation gauche.

  5. Une fois la build terminée, l’icône en bas à gauche affiche une case activée verte

  6. Une fois le déploiement terminé, le contour du cercle est bleu foncé. Si vous pointez la souris sur le bleu foncé, un message s’affiche indiquant quelque chose de similaire à 3 Running. Lorsque vous voyez ce message, vous pouvez accéder à l’URL de l’application (à l’aide de l’icône en haut à droite) à partir de l’itinéraire associé au déploiement.

    Capture d’écran de l’application ouverte dans la console OpenShift.

  7. L’application s’ouvre dans votre navigateur et ressemble à l’image suivante, prête à être utilisée :

    Capture d’écran de l’application OpenShift en cours d’exécution.

  8. L’application affiche le nom du pod qui fournit les informations. Pour vérifier les capacités de clustering, vous pouvez ajouter des éléments Todo. Ensuite, supprimez le pod avec le nom indiqué dans le champ Nom d’hôte du serveur qui s’affiche sur l’application à l’aide oc delete pod <pod-name>de , et après sa suppression, créez un todo dans la même fenêtre d’application. Vous pouvez voir que le nouveau Todo est ajouté via une requête Ajax et que le champ Nom d’hôte du serveur affiche désormais un autre nom. En arrière-plan, l’équilibreur de charge OpenShift a distribué la nouvelle requête et l’a remis à un pod disponible. La vue Jakarta Faces est restaurée à partir de la copie de session HTTP stockée dans le pod qui traite la requête. En effet, vous pouvez voir que le champ ID de session n’a pas changé. Si la session n’est pas répliquée sur vos pods, vous obtenez un Jakarta Faces ViewExpiredExceptionet votre application ne fonctionne pas comme prévu.

Nettoyer les ressources

Supprimer l’application

Si vous souhaitez uniquement supprimer votre application, vous pouvez ouvrir la console OpenShift et, dans la vue développeur, accéder à l’option de menu Helm. Dans ce menu, vous pouvez voir toutes les versions de Helm Chart installées sur votre cluster.

Désinstallation de l’application OpenShift

Localisez le chart Helm eap-todo-list-demo et, à la fin de la ligne, sélectionnez les trois points verticaux pour ouvrir l’entrée du menu contextuel d’action.

Sélectionnez Uninstall Helm Release (Désinstaller la version Helm) pour supprimer l’application. Notez que l’objet secret utilisé pour fournir la configuration de l’application ne fait pas partie du graphique. Vous devez le supprimer séparément si vous n’en avez plus besoin.

Exécutez la commande suivante si vous souhaitez supprimer le secret qui contient la configuration de l’application :

$ oc delete secrets/todo-list-secret
# secret "todo-list-secret" deleted

Supprimer le projet OpenShift

Vous pouvez également supprimer toutes les configurations créées pour cette démonstration en supprimant le projet eap-demo. Pour ce faire, exécutez la commande suivante :

$ oc delete project eap-demo
# project.project.openshift.io "eap-demo" deleted

Supprimer le cluster Azure Red Hat OpenShift

Supprimez le cluster Azure Red Hat OpenShift en suivant les étapes décrites dans le tutoriel : Supprimer un cluster Azure Red Hat OpenShift 4.

Supprimer le groupe de ressources

Si vous souhaitez supprimer toutes les ressources créées par les étapes précédentes, supprimez le groupe de ressources que vous avez créé pour le cluster Azure Red Hat OpenShift.

Étapes suivantes

Dans ce guide, vous avez appris à :

  • Préparer une application JBoss EAP pour OpenShift.
  • L’exécuter localement avec une instance Microsoft SQL Server conteneurisée.
  • Déployez un serveur Microsoft SQL Server sur azure Red Hat OpenShift 4 à l’aide de l’interface CLI OpenShift.
  • Déployez l’application sur azure Red Hat OpenShift 4 à l’aide de JBoss Helm Charts et openShift Web Console.

Vous pouvez en savoir plus sur les références utilisées dans ce guide :