Eventi
Creare app e agenti di intelligenza artificiale
17 mar, 21 - 21 mar, 10
Partecipa alla serie meetup per creare soluzioni di intelligenza artificiale scalabili basate su casi d'uso reali con altri sviluppatori ed esperti.
Iscriviti subitoQuesto browser non è più supportato.
Esegui l'aggiornamento a Microsoft Edge per sfruttare i vantaggi di funzionalità più recenti, aggiornamenti della sicurezza e supporto tecnico.
Questa esercitazione illustra come installare IBM WebSphere Application Server (WAS) Network Deployment (ND) tradizionale e configurare un cluster WAS in Azure Macchine virtuali (VM) in GNU/Linux.
In questa esercitazione apprenderai a:
Se si preferisce una soluzione completamente automatizzata che esegue tutti questi passaggi per conto delle macchine virtuali GNU/Linux, direttamente dalla portale di Azure, vedere Avvio rapido: Distribuire cluster di distribuzione di rete del server applicazioni WebSphere in Azure Macchine virtuali. Un'opzione meno automatizzata, ma ancora accelerata, consiste nell'ignorare i passaggi dell'installazione di Java Development Kit (JDK) e WebSphere nel sistema operativo usando un'immagine di base Di Red Hat Linux preconfigurata. È possibile trovare queste offerte in Azure Marketplace usando una query per l'immagine del server applicazioni WebSphere 9.0.5.x.
Se si è interessati a lavorare a stretto contatto con il team di progettazione che sviluppa soluzioni WebSphere in Azure, compilare questo breve sondaggio sulla migrazione di WebSphere e includere le informazioni di contatto. Il team di responsabili del programma, architetti e ingegneri si metterà immediatamente in contatto con l'utente per avviare una stretta collaborazione.
In questa sezione viene configurata l'infrastruttura in cui si installa IBM Installation Manager e WebSphere Application Server Network Deployment tradizionale.
Questa esercitazione configura un cluster WAS con un gestore di distribuzione e due server gestiti in un totale di tre macchine virtuali. Per configurare il cluster, è necessario creare le tre macchine virtuali di Azure seguenti all'interno dello stesso set di disponibilità:
adminVM
macchina virtuale ) ha il gestore di distribuzione in esecuzione.mspVM1
di vm e mspVM2
) hanno due server gestiti in esecuzione.Se non è già stato fatto, accedere alla sottoscrizione di Azure usando il comando az login e seguire le istruzioni visualizzate.
az login
Nota
Se più tenant di Azure sono associati alle credenziali di Azure, è necessario specificare il tenant a cui si vuole accedere. A tale scopo, usare l'opzione --tenant
. Ad esempio: az login --tenant contoso.onmicrosoft.com
.
Creare un gruppo di risorse usando az group create. I nomi dei gruppi di risorse devono essere univoci a livello globale all'interno di una sottoscrizione. Per questo motivo, prendere in considerazione la possibilità di anteporre un identificatore univoco a tutti i nomi creati che devono essere univoci. Una tecnica utile consiste nell'usare le iniziali, seguite dalla data odierna in mmdd
formato. Questo esempio crea un gruppo di risorse denominato abc1110rg
nel eastus
percorso:
export RESOURCE_GROUP_NAME=abc1110rg
az group create --name $RESOURCE_GROUP_NAME --location eastus
Nota
Per impostazione predefinita, i comandi dell'interfaccia della riga di comando di Azure in questa sezione seguono lo stile Bash, se non diversamente specificato.
Se si eseguono questi comandi in PowerShell, assicurarsi di dichiarare i parametri di ambiente come indicato nei comandi precedenti.
Per suddividere una riga di comando in più righe in PowerShell, è possibile usare il carattere backtick (') alla fine di ogni riga.
Le risorse che compongono il cluster server applicazioni WebSphere devono comunicare tra loro e con la rete Internet pubblica usando una rete virtuale. Per una guida completa alla pianificazione della rete virtuale, vedere la guida di Cloud Adoption Framework per Azure Pianificare le reti virtuali. Per altre informazioni, vedere Azure Rete virtuale domande frequenti.
Usare la procedura seguente per creare la rete virtuale. L'esempio in questa sezione crea una rete virtuale con spazio 192.168.0.0/16
indirizzi e crea una subnet per le macchine virtuali.
Creare una rete virtuale usando az network vnet create. L'esempio seguente crea una rete denominata myVNet
:
az network vnet create \
--resource-group $RESOURCE_GROUP_NAME \
--name myVNet \
--address-prefixes 192.168.0.0/24
Creare una subnet per il cluster WAS usando az network vnet subnet create. Nell'esempio seguente viene creata una subnet denominata mySubnet
:
az network vnet subnet create \
--resource-group $RESOURCE_GROUP_NAME \
--name mySubnet \
--vnet-name myVNet \
--address-prefixes 192.168.0.0/25
Creare una subnet per gateway applicazione usando az network vnet subnet create. Nell'esempio seguente viene creata una subnet denominata wasGateway
:
az network vnet subnet create \
--resource-group $RESOURCE_GROUP_NAME \
--name wasGateway \
--vnet-name myVNet \
--address-prefixes 192.168.0.128/25
Creare un set di disponibilità usando az vm availability-set create, come illustrato nell'esempio seguente. Creare un set di disponibilità è un'operazione facoltativa, ma consigliata. Per altre informazioni, vedere Procedura dettagliata dell'infrastruttura di Azure di esempio per le macchine virtuali Windows.
az vm availability-set create \
--resource-group $RESOURCE_GROUP_NAME \
--name myAvailabilitySet \
--platform-fault-domain-count 2 \
--platform-update-domain-count 2
Le sezioni seguenti descrivono i passaggi per ottenere o installare WAS in GNU/Linux. È possibile scegliere il sistema operativo e la versione WAS in base ai requisiti, ma è necessario verificare che siano disponibili nella documentazione ibm WebSphere Application Server Network Deployment.
Se si vuole usare WAS V9, le istruzioni usano un'immagine di macchina virtuale di Azure che contiene la versione supportata più recente del software. IBM e Microsoft mantengono l'immagine. Per l'elenco completo delle immagini di base WAS gestite da IBM e Microsoft, vedere Azure Marketplace.
IBM e Microsoft mantengono un'immagine di base della macchina virtuale con WAS V9 preinstallata nella versione consigliata di Red Hat Enterprise Linux. Per altre informazioni su questa immagine, vedere il portale di Azure. Se si usa questo approccio, l'immagine di Azure Marketplace usata per creare le macchine virtuali è ibm-usa-ny-armonk-hq-6275750-ibmcloud-aiops:2021-04-27-twas-cluster-base-image:2021-04-27-twas-cluster-base-image:latest
. Usare il comando seguente per salvare il nome dell'immagine in una variabile di ambiente:
export VM_URN="ibm-usa-ny-armonk-hq-6275750-ibmcloud-aiops:2023-03-27-twas-cluster-base-image:2023-03-27-twas-cluster-base-image:latest"
$Env:VM_URN="ibm-usa-ny-armonk-hq-6275750-ibmcloud-aiops:2023-03-27-twas-cluster-base-image:2023-03-27-twas-cluster-base-image:latest"
Usare la procedura seguente per creare una macchina virtuale di base, verificare l'installazione degli strumenti necessari, creare uno snapshot del disco e creare repliche basate su tale snapshot:
Creare una macchina virtuale usando il comando az vm create. Eseguire il gestore di distribuzione in questa macchina virtuale.
L'esempio seguente crea un computer Red Hat Enterprise Linux usando una coppia nome utente/password per l'autenticazione. È invece possibile scegliere di usare l'autenticazione TLS/SSL, che è più sicura.
az vm create \
--resource-group $RESOURCE_GROUP_NAME \
--name adminVM \
--availability-set myAvailabilitySet \
--image $VM_URN \
--size Standard_DS1_v2 \
--admin-username azureuser \
--admin-password Secret123456 \
--public-ip-address "" \
--nsg ""
Creare e collegare un nuovo disco per i file WAS usando il comando seguente:
Questo passaggio viene già eseguito quando si usa l'immagine di base della macchina virtuale.
Questa esercitazione usa l'interfaccia grafica di WAS per completare l'installazione e la configurazione. Si usa una macchina virtuale Windows come jump box ed è possibile eseguire un server X Window System per visualizzare i programmi di installazione grafici nelle tre macchine virtuali del cluster WAS.
Usare la procedura seguente per effettuare il provisioning di un computer Windows 10 e installare un server X. Se si ha già un computer Windows nella stessa rete del computer Red Hat Enterprise Linux, non è necessario effettuarne il provisioning da Azure. È possibile passare direttamente alla sezione che installa il server X.
Usare la procedura seguente per creare una macchina virtuale Windows 10 dalla portale di Azure:
La creazione della macchina virtuale e delle risorse di supporto richiede alcuni minuti.
Al termine della distribuzione, installare il server X e usarlo per configurare il server applicazioni nei computer Linux usando un'interfaccia grafica.
Per installare e avviare il server X, seguire questa procedura:
myWindowsVM
. Per una guida dettagliata, vedere Come connettersi con Desktop remoto e accedere a una macchina virtuale di Azure che esegue Windows. È necessario eseguire i passaggi rimanenti in questa sezione in myWindowsVM
.È possibile che venga visualizzata una finestra di dialogo di avviso Sicurezza di Windows con questo messaggio: "Consenti a VcXsrv windows X-server di comunicare su queste reti". Selezionare Consenti l'accesso.
A questo punto è possibile connettersi al computer Red Hat Enterprise Linux e installare gli strumenti necessari usando l'interfaccia grafica. Le sezioni seguenti illustrano come installare IBM Installation Manager e WebSphere Application Server Network Deployment tradizionale. Si usa myWindowsVM
per l'installazione e la configurazione.
Usare la procedura seguente per installare le dipendenze necessarie per consentire la connessione dal server X e abilitare l'installazione grafica:
Usare la procedura seguente per ottenere l'indirizzo IP privato di adminVM
:
adminVM
.192.168.0.4
.Aprire un prompt dei comandi da myWindowsVM
e quindi connettersi a adminVM
usando ssh
, come illustrato nell'esempio seguente:
set ADMINVM_IP="192.168.0.4"
ssh azureuser@%ADMINVM_IP%
Immettere la password Secret123456.
Usare il comando seguente per passare all'utente root
. Questa esercitazione installa tutti gli strumenti con l'utente root
.
sudo su -
Usare i comandi seguenti per installare le dipendenze:
# dependencies for X server access
yum install -y libXtst libSM libXrender
# dependencies for GUI installation
yum install -y gtk2 libXtst xorg-x11-fonts-Type1 mesa-libGL
Successivamente, si continua a montare il disco dati in adminVM
, quindi mantenere aperto questo terminale.
Questo passaggio viene già eseguito quando si usa l'immagine di base della macchina virtuale.
Quando si usa l'immagine di base, WebSphere Application Server Network Deployment è già installato nella directory /datadrive/IBM/WebSphere/ND/V9.
È stata installata la distribuzione di rete del server applicazioni WebSphere in adminVM
, che esegue lo strumento di gestione distribuzione. È comunque necessario preparare i computer per eseguire i due server gestiti. Successivamente, si crea uno snapshot da dischi di adminVM
e si preparano i computer per i mspVM1
server gestiti e mspVM2
.
Questa sezione presenta un approccio per preparare i computer con lo snapshot di adminVM
. Tornare al terminale in cui si è connessi all'interfaccia della riga di comando di Azure e quindi seguire questa procedura. Questo terminale non è il jump box di Windows.
Usare il comando seguente per arrestare adminVM
:
# export RESOURCE_GROUP_NAME=abc1110rg
az vm stop --resource-group $RESOURCE_GROUP_NAME --name adminVM
Usare az snapshot create per creare uno snapshot del disco del adminVM
sistema operativo:
export ADMIN_OS_DISK_ID=$(az vm show \
--resource-group $RESOURCE_GROUP_NAME \
--name adminVM \
--query storageProfile.osDisk.managedDisk.id \
--output tsv)
az snapshot create \
--resource-group $RESOURCE_GROUP_NAME \
--name myAdminOSDiskSnapshot \
--source $ADMIN_OS_DISK_ID
Usare az snapshot create per creare uno snapshot del adminVM
disco dati:
export ADMIN_DATA_DISK_ID=$(az vm show \
--resource-group $RESOURCE_GROUP_NAME \
--name adminVM \
--query 'storageProfile.dataDisks[0].managedDisk.id' \
--output tsv)
az snapshot create \
--resource-group $RESOURCE_GROUP_NAME \
--name myAdminDataDiskSnapshot \
--source $ADMIN_DATA_DISK_ID
Usare i comandi seguenti per eseguire query sugli ID snapshot usati in un secondo momento:
# Get the snapshot ID.
export OS_SNAPSHOT_ID=$(az snapshot show \
--resource-group $RESOURCE_GROUP_NAME \
--name myAdminOSDiskSnapshot \
--query '[id]' \
--output tsv)
export DATA_SNAPSHOT_ID=$(az snapshot show \
--resource-group $RESOURCE_GROUP_NAME \
--name myAdminDataDiskSnapshot \
--query '[id]' \
--output tsv)
mspVM1
Creare quindi e mspVM2
.
Usare la procedura seguente per creare mspVM1
:
Creare un disco del sistema operativo per mspVM1
usando az disk create:
# Create a new managed disk by using the OS snapshot ID.
# Note that the managed disk is created in the same location as the snapshot.
az disk create \
--resource-group $RESOURCE_GROUP_NAME \
--name mspVM1_OsDisk_1 \
--source $OS_SNAPSHOT_ID
Usare i comandi seguenti per creare la macchina virtuale collegando il disco mspVM1
del mspVM1_OsDisk_1
sistema operativo :
# Get the resource ID of the managed disk.
export MSPVM1_OS_DISK_ID=$(az disk show \
--resource-group $RESOURCE_GROUP_NAME \
--name mspVM1_OsDisk_1 \
--query '[id]' \
--output tsv)
# Create the VM by attaching the existing managed disk as an OS.
az vm create \
--resource-group $RESOURCE_GROUP_NAME \
--name mspVM1 \
--attach-os-disk $MSPVM1_OS_DISK_ID \
--plan-publisher ibm-usa-ny-armonk-hq-6275750-ibmcloud-aiops \
--plan-product 2023-03-27-twas-cluster-base-image \
--plan-name 2023-03-27-twas-cluster-base-image \
--os-type linux \
--availability-set myAvailabilitySet \
--public-ip-address "" \
--nsg ""
# Create the VM by attaching the existing managed disk as an OS.
# For `public-ip-address` and `nsg`, be sure to wrap the value "" in '' in PowerShell.
az vm create `
--resource-group $Env:RESOURCE_GROUP_NAME `
--name mspVM1 `
--attach-os-disk $Env:MSPVM1_OS_DISK_ID `
--plan-publisher ibm-usa-ny-armonk-hq-6275750-ibmcloud-aiops `
--plan-product 2023-03-27-twas-cluster-base-image `
--plan-name 2023-03-27-twas-cluster-base-image `
--os-type linux `
--availability-set myAvailabilitySet `
--public-ip-address '""' `
--nsg '""'
Creare un disco gestito dallo snapshot del disco dati e collegarlo a mspVM1
:
az disk create \
--resource-group $RESOURCE_GROUP_NAME \
--name mspVM1_Data_Disk_1 \
--source $DATA_SNAPSHOT_ID
export MSPVM1_DATA_DISK_ID=$(az disk show \
--resource-group $RESOURCE_GROUP_NAME \
--name mspVM1_Data_Disk_1 \
--query '[id]' \
--output tsv)
az vm disk attach \
--resource-group $RESOURCE_GROUP_NAME \
--vm-name mspVM1 \
--name $MSPVM1_DATA_DISK_ID
mspVM1
Creato con WAS installato. Poiché la macchina virtuale è stata creata da uno snapshot dei adminVM
dischi, le due macchine virtuali hanno lo stesso nome host. Usare az vm run-command invoke per modificare il nome host nel valore mspVM1
:
az vm run-command invoke \
--resource-group $RESOURCE_GROUP_NAME \
--name mspVM1 \
--command-id RunShellScript \
--scripts "sudo hostnamectl set-hostname mspVM1"
Al termine del comando, si ottiene un output simile all'esempio seguente:
{
"value": [
{
"code": "ProvisioningState/succeeded",
"displayStatus": "Provisioning succeeded",
"level": "Info",
"message": "Enable succeeded: \n[stdout]\n\n[stderr]\n",
"time": null
}
]
}
Usare la procedura seguente per creare mspVM2
:
Creare un disco del sistema operativo per mspVM2
usando az disk create:
# Create a new managed disk by using the OS snapshot ID.
# Note that the managed disk is created in the same location as the snapshot.
az disk create \
--resource-group $RESOURCE_GROUP_NAME \
--name mspVM2_OsDisk_1 \
--source $OS_SNAPSHOT_ID
Usare i comandi seguenti per creare la macchina virtuale collegando il disco mspVM2
del mspVM2_OsDisk_1
sistema operativo :
# Get the resource ID of the managed disk.
export MSPVM2_OS_DISK_ID=$(az disk show \
--resource-group $RESOURCE_GROUP_NAME \
--name mspVM2_OsDisk_1 \
--query '[id]' \
--output tsv)
# Create the VM by attaching the existing managed disk as an OS.
az vm create \
--resource-group $RESOURCE_GROUP_NAME \
--name mspVM2 \
--attach-os-disk $MSPVM2_OS_DISK_ID \
--plan-publisher ibm-usa-ny-armonk-hq-6275750-ibmcloud-aiops \
--plan-product 2023-03-27-twas-cluster-base-image \
--plan-name 2023-03-27-twas-cluster-base-image \
--os-type linux \
--availability-set myAvailabilitySet \
--public-ip-address "" \
--nsg ""
# Create the VM by attaching the existing managed disk as an OS.
# For `public-ip-address` and `nsg`, be sure to wrap the value "" in '' in PowerShell.
az vm create `
--resource-group $Env:RESOURCE_GROUP_NAME `
--name mspVM2 `
--attach-os-disk $Env:MSPVM2_OS_DISK_ID `
--plan-publisher ibm-usa-ny-armonk-hq-6275750-ibmcloud-aiops `
--plan-product 2023-03-27-twas-cluster-base-image `
--plan-name 2023-03-27-twas-cluster-base-image `
--os-type linux `
--availability-set myAvailabilitySet `
--public-ip-address '""' `
--nsg '""'
Creare un disco gestito dallo snapshot dei dati e collegarlo a mspVM2
:
az disk create \
--resource-group $RESOURCE_GROUP_NAME \
--name mspVM2_Data_Disk_1 \
--source $DATA_SNAPSHOT_ID
export MSPVM2_DATA_DISK_ID=$(az disk show \
--resource-group $RESOURCE_GROUP_NAME \
--name mspVM2_Data_Disk_1 \
--query '[id]' \
--output tsv)
az vm disk attach \
--resource-group $RESOURCE_GROUP_NAME \
--vm-name mspVM2 \
--name $MSPVM2_DATA_DISK_ID
mspVM2
Creato con WAS installato. Poiché la macchina virtuale è stata creata da uno snapshot dei adminVM
dischi, le due macchine virtuali hanno lo stesso nome host. Usare az vm run-command invoke per modificare il nome host nel valore mspVM2
:
az vm run-command invoke \
--resource-group $RESOURCE_GROUP_NAME \
--name mspVM2 \
--command-id RunShellScript \
--scripts "sudo hostnamectl set-hostname mspVM2"
Al termine del comando, si ottiene un output simile all'esempio seguente:
{
"value": [
{
"code": "ProvisioningState/succeeded",
"displayStatus": "Provisioning succeeded",
"level": "Info",
"message": "Enable succeeded: \n[stdout]\n\n[stderr]\n",
"time": null
}
]
}
Assicurarsi di aver completato i passaggi precedenti sia per che mspVM1
per mspVM2
. Usare quindi i passaggi seguenti per completare la preparazione dei computer:
Usare il comando az vm start per avviare adminVM
, come illustrato nell'esempio seguente:
az vm start --resource-group $RESOURCE_GROUP_NAME --name adminVM
Usare i comandi seguenti per ottenere e visualizzare gli indirizzi IP privati, usati nelle sezioni successive:
export ADMINVM_NIC_ID=$(az vm show \
--resource-group $RESOURCE_GROUP_NAME \
--name adminVM \
--query networkProfile.networkInterfaces'[0]'.id \
--output tsv)
export ADMINVM_IP=$(az network nic show \
--ids $ADMINVM_NIC_ID \
--query ipConfigurations'[0]'.privateIPAddress \
--output tsv)
export MSPVM1_NIC_ID=$(az vm show \
--resource-group $RESOURCE_GROUP_NAME \
--name mspVM1 \
--query networkProfile.networkInterfaces'[0]'.id \
--output tsv)
export MSPVM1_IP=$(az network nic show \
--ids $MSPVM1_NIC_ID \
--query ipConfigurations'[0]'.privateIPAddress \
--output tsv)
export MSPVM2_NIC_ID=$(az vm show \
--resource-group $RESOURCE_GROUP_NAME \
--name mspVM2 \
--query networkProfile.networkInterfaces'[0]'.id \
--output tsv)
export MSPVM2_IP=$(az network nic show \
--ids $MSPVM2_NIC_ID \
--query ipConfigurations'[0]'.privateIPAddress \
--output tsv)
echo "Private IP of adminVM: $ADMINVM_IP"
echo "Private IP of mspVM1: $MSPVM1_IP"
echo "Private IP of mspVM2: $MSPVM2_IP"
Ora, tutti e tre i computer sono pronti. Successivamente, si configura un cluster WAS.
Questa sezione illustra come creare e configurare un cluster WAS. In termini di creazione di profili WAS e cluster, non esiste alcuna differenza significativa tra la serie 9.x e la serie 8.5.x. Tutti gli screenshot di questa sezione mostrano V9 come base.
In questa sezione si usa il server X in myWindowsVM
per creare un profilo di gestione per lo strumento di gestione della distribuzione per amministrare i server all'interno della cella di Deployment Manager usando lo Strumento di gestione profili. Per altre informazioni sui profili, vedere Concetti relativi ai profili. Per altre informazioni sulla creazione del profilo di Deployment Manager, vedere Creazione di profili di gestione con i responsabili della distribuzione.
Usare la procedura seguente per creare e configurare il profilo di gestione:
Assicurarsi di essere ancora nel computer Windows. In caso contrario, usare i comandi seguenti per connettersi in remoto a myWindowsVM
e quindi connettersi a adminVM
da un prompt dei comandi:
set ADMINVM_IP="192.168.0.4"
ssh azureuser@%ADMINVM_IP%
Usare i comandi seguenti per diventare l'utente root
e impostare la DISPLAY
variabile:
sudo su -
export DISPLAY=<my-windows-vm-private-ip>:0.0
# export DISPLAY=192.168.0.5:0.0
Usare i comandi seguenti per avviare lo strumento di gestione dei profili:
cd /datadrive/IBM/WebSphere/ND/V9/bin/ProfileManagement
./pmt.sh
Dopo un po', viene visualizzato lo strumento di gestione dei profili. Se l'interfaccia utente non viene visualizzata, controllare dietro il prompt dei comandi. Seleziona Crea.
Nel riquadro Selezione ambiente selezionare Gestione e quindi avanti.
Nel riquadro Selezione tipo di server selezionare Gestione distribuzione e quindi selezionare Avanti.
Nel riquadro Opzioni di creazione profilo selezionare Creazione avanzata profilo e quindi selezionare Avanti.
Nel riquadro Distribuzione applicazione facoltativa verificare che l'opzione Distribuisci la console di amministrazione (scelta consigliata) sia selezionata e quindi selezionare Avanti.
Nel riquadro Nome profilo e Posizione immettere il nome e la posizione del profilo. In questo esempio il nome del profilo è Dmgr01
. La posizione dipende dalla versione WAS:
Al termine selezionare Avanti.
Nel riquadro Node, Host e Cell Names (Nomi nodo), Host (Host) e Cell Names (Nomi cella) immettere il nome del nodo, il nome host e il nome della cella. L'host è l'indirizzo IP privato di adminVM
. In questo esempio il nome del nodo è adminvmCellManager01
, il valore host è 192.168.0.4
e il nome della cella è adminvmCell01
. Al termine selezionare Avanti.
Nel riquadro Sicurezza amministrativa immettere il nome utente e la password dell'amministratore. In questo esempio il nome utente è websphere
e la password è Secret123456
. Prendere nota del nome utente e della password in modo da poterli usare per accedere alla console IBM. Al termine selezionare Avanti.
Per il certificato di sicurezza (parte 1), immettere il certificato, se disponibile. In questo esempio viene usato il certificato autofirmato predefinito. Quindi seleziona Avanti.
Per il certificato di sicurezza (parte 2), immettere il certificato, se disponibile. In questo esempio viene usato il certificato autofirmato predefinito. Quindi seleziona Avanti.
Nel riquadro Assegnazione valori porta mantenere le porte predefinite e selezionare Avanti.
Nel riquadro Definizione servizio Linux non selezionare Esegui il processo di gestione distribuzione come servizio Linux. Successivamente, si crea il servizio Linux. Selezionare Avanti.
Nel riquadro Riepilogo creazione profilo verificare che le informazioni siano corrette e quindi selezionare Crea.
Per completare la creazione del profilo sono necessari alcuni minuti. Quando viene visualizzato il riquadro Completamento creazione profilo, selezionare Avvia la console Primi passaggi. Quindi selezionare Fine.
Viene visualizzata la console Primi passaggi . Selezionare Verifica installazione.
Viene avviato il processo di verifica e viene visualizzato un output simile all'esempio seguente. In caso di errori, è necessario risolverli prima di procedere.
Viene avviato il processo di gestione della distribuzione. È possibile chiudere la console Primi passaggi chiudendo il riquadro di output e selezionando Esci dalla console.
La creazione del profilo è stata completata. È possibile chiudere la casella degli strumenti di personalizzazione di WebSphere.
Per accedere alla console IBM, aprire le porte del firewall usando i comandi seguenti:
firewall-cmd --zone=public --add-port=9060/tcp --permanent
firewall-cmd --zone=public --add-port=9043/tcp --permanent
firewall-cmd --zone=public --add-port=9809/tcp --permanent
firewall-cmd --zone=public --add-port=7277/tcp --permanent
firewall-cmd --zone=public --add-port=9402/tcp --permanent
firewall-cmd --zone=public --add-port=9403/tcp --permanent
firewall-cmd --zone=public --add-port=9352/tcp --permanent
firewall-cmd --zone=public --add-port=9632/tcp --permanent
firewall-cmd --zone=public --add-port=9100/tcp --permanent
firewall-cmd --zone=public --add-port=9401/tcp --permanent
firewall-cmd --zone=public --add-port=8879/tcp --permanent
firewall-cmd --zone=public --add-port=5555/tcp --permanent
firewall-cmd --zone=public --add-port=7060/tcp --permanent
firewall-cmd --zone=public --add-port=11005/udp --permanent
firewall-cmd --zone=public --add-port=11006/tcp --permanent
firewall-cmd --zone=public --add-port=9420/tcp --permanent
firewall-cmd --reload
Per avviare automaticamente deployment manager all'avvio, creare un servizio Linux per il processo. Eseguire i comandi seguenti per creare un servizio Linux:
export PROFILE_PATH=/datadrive/IBM/WebSphere/ND/V9/profiles/Dmgr01
# Configure SELinux so systemctl has access on server start/stop script files.
semanage fcontext -a -t bin_t "${PROFILE_PATH}/bin(/.*)?"
restorecon -r -v ${PROFILE_PATH}/bin
# Add service.
${PROFILE_PATH}/bin/wasservice.sh -add adminvmCellManager01 -servername dmgr -profilePath ${PROFILE_PATH}
Verificare che venga visualizzato l'output seguente:
CWSFU0013I: Service [adminvmCellManager01] added successfully.
Se l'output non viene visualizzato, risolvere e risolvere il problema prima di continuare.
Il gestore di distribuzione è in esecuzione in adminVM
. Dalla macchina virtuale Windows jump box è possibile accedere alla console IBM all'URL http://<admin-vm-private-ip>:9060/ibm/console/
.
In questa sezione si usa il server X in myWindowsVM
per creare profili personalizzati per i server mspVM1
gestiti e mspVM2.
Assicurarsi di essere ancora nel computer Windows. In caso contrario, connettersi in remoto a myWindowsVM
.
Usare la procedura seguente per configurare un profilo personalizzato per mspVM1
:
Usare i comandi seguenti per connettersi a mspVM1
da un prompt dei comandi:
set MSPVM1VM_IP="192.168.0.6"
ssh azureuser@%MSPVM1VM_IP%
Usare i comandi seguenti per diventare l'utente root
e impostare la DISPLAY
variabile:
sudo su -
export DISPLAY=<my-windows-vm-private-ip>:0.0
# export DISPLAY=192.168.0.5:0.0
Per accedere a Deployment Manager in adminVM
, aprire le porte del firewall usando i comandi seguenti:
firewall-cmd --zone=public --add-port=9080/tcp --permanent
firewall-cmd --zone=public --add-port=9443/tcp --permanent
firewall-cmd --zone=public --add-port=2809/tcp --permanent
firewall-cmd --zone=public --add-port=9405/tcp --permanent
firewall-cmd --zone=public --add-port=9406/tcp --permanent
firewall-cmd --zone=public --add-port=9353/tcp --permanent
firewall-cmd --zone=public --add-port=9633/tcp --permanent
firewall-cmd --zone=public --add-port=5558/tcp --permanent
firewall-cmd --zone=public --add-port=5578/tcp --permanent
firewall-cmd --zone=public --add-port=9100/tcp --permanent
firewall-cmd --zone=public --add-port=9404/tcp --permanent
firewall-cmd --zone=public --add-port=7276/tcp --permanent
firewall-cmd --zone=public --add-port=7286/tcp --permanent
firewall-cmd --zone=public --add-port=5060/tcp --permanent
firewall-cmd --zone=public --add-port=5061/tcp --permanent
firewall-cmd --zone=public --add-port=8880/tcp --permanent
firewall-cmd --zone=public --add-port=11003/udp --permanent
firewall-cmd --zone=public --add-port=11004/tcp --permanent
firewall-cmd --zone=public --add-port=2810/tcp --permanent
firewall-cmd --zone=public --add-port=9201/tcp --permanent
firewall-cmd --zone=public --add-port=9202/tcp --permanent
firewall-cmd --zone=public --add-port=9354/tcp --permanent
firewall-cmd --zone=public --add-port=9626/tcp --permanent
firewall-cmd --zone=public --add-port=9629/tcp --permanent
firewall-cmd --zone=public --add-port=7272/tcp --permanent
firewall-cmd --zone=public --add-port=5001/tcp --permanent
firewall-cmd --zone=public --add-port=5000/tcp --permanent
firewall-cmd --zone=public --add-port=9900/tcp --permanent
firewall-cmd --zone=public --add-port=9901/tcp --permanent
firewall-cmd --zone=public --add-port=8878/tcp --permanent
firewall-cmd --zone=public --add-port=7061/tcp --permanent
firewall-cmd --zone=public --add-port=7062/tcp --permanent
firewall-cmd --zone=public --add-port=11001/udp --permanent
firewall-cmd --zone=public --add-port=11002/tcp --permanent
firewall-cmd --zone=public --add-port=9809/tcp --permanent
firewall-cmd --zone=public --add-port=9402/tcp --permanent
firewall-cmd --zone=public --add-port=9403/tcp --permanent
firewall-cmd --zone=public --add-port=9352/tcp --permanent
firewall-cmd --zone=public --add-port=9632/tcp --permanent
firewall-cmd --zone=public --add-port=9401/tcp --permanent
firewall-cmd --zone=public --add-port=11005/udp --permanent
firewall-cmd --zone=public --add-port=11006/tcp --permanent
firewall-cmd --zone=public --add-port=8879/tcp --permanent
firewall-cmd --zone=public --add-port=9060/tcp --permanent
firewall-cmd --zone=public --add-port=9043/tcp --permanent
firewall-cmd --reload
Usare i comandi seguenti per avviare lo strumento di gestione dei profili:
cd /datadrive/IBM/WebSphere/ND/V9/bin/ProfileManagement
./pmt.sh
Dopo un po', viene visualizzato lo strumento di gestione dei profili. Se l'interfaccia utente non viene visualizzata, risolvere e risolvere il problema prima di continuare. Seleziona Crea.
Nel riquadro Selezione ambiente selezionare Profilo personalizzato e quindi avanti.
Nel riquadro Opzioni di creazione profilo selezionare Creazione avanzata profilo e quindi selezionare Avanti.
Nel riquadro Nome profilo e Posizione immettere il nome e la posizione del profilo. In questo esempio il nome del profilo è Custom01
. La posizione dipende dalla versione WAS:
Al termine selezionare Avanti.
Nel riquadro Nodi e nomi host immettere il nome e l'host del nodo. Il valore dell'host è l'indirizzo IP privato di mspVM1
. In questo esempio l'host è 192.168.0.6
e il nome del nodo è mspvm1Node01
. Al termine selezionare Avanti.
Nel riquadro Federazione immettere il nome host e l'autenticazione del gestore di distribuzione. Per Nome host o indirizzo IP di Deployment Manager, il valore è l'indirizzo IP privato di adminVM
, che è 192.168.0.4
qui. Per l'autenticazione di Deployment Manager, in questo esempio il nome utente è websphere
e la password è Secret123456
. Al termine selezionare Avanti.
Per il certificato di sicurezza (parte 1), immettere il certificato, se disponibile. In questo esempio viene usato il certificato autofirmato predefinito. Quindi seleziona Avanti.
Per il certificato di sicurezza (parte 2), immettere il certificato, se disponibile. In questo esempio viene usato il certificato autofirmato predefinito. Quindi seleziona Avanti.
Nel riquadro Assegnazione valori porta mantenere le porte predefinite e selezionare Avanti.
Nel riquadro Riepilogo creazione profilo verificare che le informazioni siano corrette e quindi selezionare Crea.
La creazione del profilo personalizzato richiede tempo. Nel riquadro Creazione profilo completata deselezionare la casella di controllo Avvia la console Dei primi passaggi. Selezionare quindi Fine per completare la creazione del profilo e chiudere lo strumento di gestione dei profili.
Per avviare automaticamente il server all'avvio, creare un servizio Linux per il processo. I comandi seguenti creano un servizio Linux per avviare nodeagent
:
export PROFILE_PATH=/datadrive/IBM/WebSphere/ND/V9/profiles/Custom01
# Configure SELinux so systemctl has access on server start/stop script files.
semanage fcontext -a -t bin_t "${PROFILE_PATH}/bin(/.*)?"
restorecon -r -v ${PROFILE_PATH}/bin
# Add service to start nodeagent.
${PROFILE_PATH}/bin/wasservice.sh -add mspvm1Node01 -servername nodeagent -profilePath ${PROFILE_PATH}
Verificare che venga visualizzato l'output seguente:
CWSFU0013I: Service [mspvm1Node01] added successfully.
Se l'output non viene visualizzato, risolvere e risolvere il problema prima di continuare.
È stato creato un profilo personalizzato ed nodeagent
è in esecuzione in mspVM1
. Interrompere l'uso dell'utente root
e chiudere la connessione SSH a mspVM1
.
Tornare all'inizio della sezione Configurare il profilo personalizzato per mspVM1 ed eseguire gli stessi passaggi per mspVM2
. Ovvero, ovunque sia stato usato mspVM1
o simile, eseguire la stessa operazione per mspVM2
.
Nel riquadro Node and Host Names (Nomi nodo e host) immettere mspvm2Node01
per Node name (Nome nodo) e 192.168.0.7
per Host name (Nome host).
È stato preparato il profilo personalizzato per due server gestiti: mspVM1
e mspVM2
. Continuare con la creazione di un cluster WAS.
In questa sezione si usa la console IBM per creare un cluster WAS e avviare i server gestiti usando il browser in myWindowsVM
. Assicurarsi di essere ancora nel computer Windows. In caso contrario, connettersi in remoto a myWindowsVM
. Seguire quindi questa procedura:
Aprire il browser Microsoft Edge e passare a http://<adminvm-private-ip>:9060/ibm/console/
. In questo esempio l'URL della console IBM è http://192.168.0.4:9060/ibm/console/
. Trovare il riquadro di accesso. Accedere alla console IBM usando il nome utente e la password amministrativi (websphere/Secret123456
). È ora possibile amministrare cluster e server.
Nel riquadro di spostamento selezionare >server applicazioni WebSphere). Selezionare quindi Nuovo per creare un nuovo cluster.
Nella finestra di dialogo Crea un nuovo cluster immettere il nome del cluster nel passaggio 1: Immettere le informazioni di base sul cluster. In questo esempio il nome del cluster è cluster1
. Al termine selezionare Avanti.
Per Passaggio 2: Creare il primo membro del cluster, immettere il nome del membro e selezionare il nodo mspvm1Node01
. In questo esempio il nome del membro è msp1
. Il nodo dipende dalla versione WAS:
mspvm1Node01 (ND 9.0.5.12)
.mspvm1Node01 (ND 8.5.5.24)
.Al termine selezionare Avanti.
Per Passaggio 3: Creare membri del cluster aggiuntivi, immettere il secondo nome del membro e selezionare node mspvm2Node01
. In questo esempio il nome del membro è msp2
. Il nodo dipende dalla versione WAS:
mspvm2Node01 (ND 9.0.5.12)
.mspvm2Node01 (ND 8.5.5.24)
.Selezionare Aggiungi membro per aggiungere il secondo nodo. La tabella elenca due membri. Al termine selezionare Avanti.
Per Passaggio 4: Riepilogo, selezionare Fine.
La creazione del cluster richiede tempo. Dopo aver creato il cluster, cluster1
viene visualizzato nella tabella .
Selezionare cluster1 e quindi selezionare Rivedi per esaminare le informazioni.
Selezionare Synchronize changes with Nodes (Sincronizza modifiche con nodi) e quindi selezionare Save ( Salva).
La creazione dovrebbe terminare senza errori. Seleziona OK per continuare.
Selezionare cluster1 nella tabella e quindi selezionare il pulsante Start per avviare il cluster.
L'avvio dei due server gestiti richiede tempo. Nella colonna Stato selezionare l'icona di aggiornamento (due frecce che puntano l'una all'altra) per aggiornare lo stato.
Passare il puntatore del mouse sull'icona di aggiornamento. Quando la descrizione comando mostra Avviato, è possibile considerare attendibile il formato del cluster. Continuare ad aggiornare periodicamente e controllare fino a quando non viene visualizzata la descrizione comando Avviata.
Seguire questa procedura per configurare le impostazioni dei criteri di monitoraggio del server applicazioni per avviare automaticamente il server gestito dopo l'avvio dell'agente node.
Usare la procedura seguente per configurare msp1
:
Nel riquadro di spostamento selezionare Server, tipi di server e quindi server applicazioni WebSphere.
Selezionare il collegamento ipertestuale per il server msp1
applicazioni .
Nella sezione Infrastruttura server selezionare Java e gestione dei processi.
Selezionare Criteri di monitoraggio.
Assicurarsi che l'opzione Riavvio automatico sia selezionata e quindi selezionare RUNNING come stato di riavvio del nodo. Seleziona OK.
Tornare al riquadro Servizi middleware. Nel pannello Messaggi selezionare il collegamento Rivedi e quindi selezionare Sincronizza modifiche con nodi. Selezionare Salva per salvare e sincronizzare le modifiche.
Viene visualizzato il messaggio seguente: The configuration synchronization complete for cell.
selezionare OK per uscire dalla configurazione.
Usare la procedura seguente per configurare msp2
:
msp2
applicazioni .The configuration synchronization complete for cell.
selezionare OK per uscire dalla configurazione.È stato configurato cluster1
con due server gestiti e msp1
msp2
. Il cluster è operativo.
Usare la procedura seguente per distribuire l'applicazione:
Nella console di amministrazione in cui è stato eseguito l'accesso in precedenza selezionare Applicazioni>nuova applicazione e quindi nuova applicazione aziendale.
Nel pannello successivo selezionare File system remoto e quindi selezionare Sfoglia per esplorare i file system dei server installati.
Selezionare il sistema che inizia con adminvm. Viene visualizzato il file system della macchina virtuale. Da qui selezionare V9 (o V85) e quindi installableApps.
Nell'elenco delle applicazioni disponibili per l'installazione selezionare DefaultApplication.ear. Quindi, selezionare OK.
Si torna al pannello per selezionare l'applicazione. Selezionare Avanti.
Selezionare Avanti per tutti i passaggi rimanenti nel flusso di lavoro Installa nuova applicazione . Quindi selezionare Fine.
Verrà visualizzato il messaggio seguente: Application DefaultApplication.ear installed successfully.
se questo messaggio non viene visualizzato, risolvere e risolvere il problema prima di continuare.
Selezionare il collegamento Salva direttamente nel collegamento di configurazione master.
È necessario avviare l'applicazione. Passare ad Applicazioni>tutte le applicazioni. Selezionare la casella di controllo DefaultApplication.ear, assicurarsi che Action (Azione) sia impostata su Start e quindi selezionare Submit Action (Invia azione).
Nella colonna Stato della tabella Tutte le applicazioni selezionare l'icona di aggiornamento. Dopo alcune volte l'aggiornamento della tabella in questo modo, viene visualizzata una freccia verde nella colonna Stato per DefaultApplication.ear.
L'applicazione è ora installata nel cluster WAS.
Dopo aver creato il cluster WAS in macchine virtuali GNU/Linux, questa sezione illustra il processo di esposizione di WAS a Internet usando app Azure lication Gateway.
Usare la procedura seguente per creare il gateway applicazione:
Per esporre WAS a Internet, è necessario un indirizzo IP pubblico. Nella shell con l'interfaccia della riga di comando di Azure installata creare l'indirizzo IP usando az network public-ip create, come illustrato nell'esempio seguente:
az network public-ip create \
--resource-group $RESOURCE_GROUP_NAME \
--name myAGPublicIPAddress \
--allocation-method Static \
--sku Standard
export APPGATEWAY_IP=$(az network public-ip show \
--resource-group $RESOURCE_GROUP_NAME \
--name myAGPublicIPAddress \
--query '[ipAddress]' \
--output tsv)
Creare il gateway applicazione da associare all'indirizzo IP. L'esempio seguente crea un gateway applicazione con i server gestiti WebSphere nel pool back-end predefinito:
az network application-gateway create \
--resource-group $RESOURCE_GROUP_NAME \
--name myAppGateway \
--public-ip-address myAGPublicIPAddress \
--location eastus \
--capacity 2 \
--http-settings-port 80 \
--http-settings-protocol Http \
--frontend-port 80 \
--sku Standard_V2 \
--subnet wasGateway \
--vnet-name myVNet \
--priority 1001 \
--servers ${MSPVM1_IP} ${MSPVM2_IP}
I server gestiti espongono i carichi di lavoro con la porta 9080
. Usare i comandi seguenti per aggiornare appGatewayBackendHttpSettings
specificando la porta back-end e creando un probe per tale porta 9080
:
az network application-gateway probe create \
--resource-group $RESOURCE_GROUP_NAME \
--gateway-name myAppGateway \
--name clusterProbe \
--protocol http \
--host-name-from-http-settings true \
--match-status-codes 404 \
--path "/"
az network application-gateway http-settings update \
--resource-group $RESOURCE_GROUP_NAME \
--gateway-name myAppGateway \
--name appGatewayBackendHttpSettings \
--host-name-from-backend-pool true \
--port 9080 \
--probe clusterProbe
Usare i comandi seguenti per effettuare il provisioning di una regola di riscrittura per i reindirizzamenti:
# Create a rewrite rule set.
az network application-gateway rewrite-rule set create \
--resource-group $RESOURCE_GROUP_NAME \
--gateway-name myAppGateway \
--name myRewriteRuleSet
# Associated routing rules.
az network application-gateway rule update \
--resource-group $RESOURCE_GROUP_NAME \
--gateway-name myAppGateway \
--name rule1 \
--rewrite-rule-set myRewriteRuleSet
# Create a rewrite rule 1.
az network application-gateway rewrite-rule create \
--resource-group $RESOURCE_GROUP_NAME \
--gateway-name myAppGateway \
--rule-set-name myRewriteRuleSet \
--name myRewriteRule01 \
--sequence 100 \
--response-headers Location=http://${APPGATEWAY_IP}{http_resp_Location_2}
# Create a rewrite rule condition.
az network application-gateway rewrite-rule condition create \
--resource-group $RESOURCE_GROUP_NAME \
--gateway-name myAppGateway \
--rule-name myRewriteRule01 \
--rule-set-name myRewriteRuleSet \
--variable "http_resp_Location" \
--ignore-case true \
--negate false \
--pattern "(https?):\/\/192.168.0.6:9080(.*)$"
# Create a rewrite rule 2.
az network application-gateway rewrite-rule create \
--resource-group $RESOURCE_GROUP_NAME \
--gateway-name myAppGateway \
--rule-set-name myRewriteRuleSet \
--name myRewriteRule02 \
--sequence 100 \
--response-headers Location=http://${APPGATEWAY_IP}{http_resp_Location_2}
# Create a rewrite rule condition.
az network application-gateway rewrite-rule condition create \
--resource-group $RESOURCE_GROUP_NAME \
--gateway-name myAppGateway \
--rule-name myRewriteRule02 \
--rule-set-name myRewriteRuleSet \
--variable "http_resp_Location" \
--ignore-case true \
--negate false \
--pattern "(https?):\/\/192.168.0.7:9080(.*)$"
È ora possibile accedere all'applicazione usando l'URL prodotto dal comando seguente:
echo "http://${APPGATEWAY_IP}/snoop/"
Nota
In questo esempio viene configurato l'accesso semplice ai server WAS con HTTP. Se si vuole un accesso sicuro, configurare la terminazione TLS/SSL seguendo le istruzioni riportate in TLS end-to-end con gateway applicazione.
Questo esempio non espone la console IBM tramite gateway applicazione. Per accedere alla console IBM, è possibile usare il computer myWindowsVM
Windows o assegnare un indirizzo IP pubblico a adminVM
.
Se non si vuole usare la jump box myWindowsVM
per accedere alla console IBM, ma si vuole esporla a una rete pubblica, usare i comandi seguenti per assegnare un indirizzo IP pubblico a adminVM
:
# Create a public IP address.
az network public-ip create \
--resource-group $RESOURCE_GROUP_NAME \
--name myAdminVMPublicIPAddress \
--allocation-method Static \
--sku Standard
# Create a network security group.
az network nsg create \
--resource-group $RESOURCE_GROUP_NAME \
--name adminnsg
# Create an inbound rule for the network security group.
az network nsg rule create \
--resource-group $RESOURCE_GROUP_NAME \
--nsg-name adminnsg \
--name ALLOW_IBM_CONSOLE \
--access Allow \
--direction Inbound \
--source-address-prefixes '["*"]' \
--destination-port-ranges 9043 \
--protocol Tcp \
--priority 500
# Update the network adapter with the network security group.
az network nic update \
--resource-group $RESOURCE_GROUP_NAME \
--name adminVMVMNic \
--network-security-group adminnsg
# Update the network adapter with the public IP address.
az network nic ip-config update \
--resource-group $RESOURCE_GROUP_NAME \
--name ipconfigadminVM \
--nic-name adminVMVMNic \
--public-ip-address myAdminVMPublicIPAddress
export ADMIN_PUBLIC_IP=$(az network public-ip show \
--resource-group $RESOURCE_GROUP_NAME \
--name myAdminVMPublicIPAddress \
--query '[ipAddress]' \
--output tsv)
echo "IBM Console public URL: https://${ADMIN_PUBLIC_IP}:9043/ibm/console/"
È stata completata la configurazione del cluster WAS e la distribuzione dell'applicazione Java EE. Usare la procedura seguente per accedere all'applicazione per convalidare tutte le impostazioni:
http://<gateway-public-ip-address>/snoop/
.La configurazione del cluster WAS è stata completata. Le sezioni seguenti descrivono come rimuovere le risorse create.
È possibile rimuovere il computer myWindowsVM
Windows usando i comandi seguenti. In alternativa, è possibile arrestare il computer Windows e continuare a usarlo come jump box per le attività di manutenzione del cluster in corso.
export WINDOWSVM_NIC_ID=$(az vm show \
--resource-group ${RESOURCE_GROUP_NAME} \
--name myWindowsVM \
--query networkProfile.networkInterfaces[0].id \
--output tsv)
export WINDOWSVM_NSG_ID=$(az network nic show \
--ids ${WINDOWSVM_NIC_ID} \
--query networkSecurityGroup.id \
--output tsv)
export WINDOWSVM_DISK_ID=$(az vm show \
--resource-group ${RESOURCE_GROUP_NAME} \
--name myWindowsVM \
--query storageProfile.osDisk.managedDisk.id \
--output tsv)
export WINDOWSVM_PUBLIC_IP=$(az network public-ip list \
-g ${RESOURCE_GROUP_NAME} --query [0].id \
--output tsv)
echo "deleting myWindowsVM"
az vm delete --resource-group ${RESOURCE_GROUP_NAME} --name myWindowsVM --yes
echo "deleting nic ${WINDOWSVM_NIC_ID}"
az network nic delete --ids ${WINDOWSVM_NIC_ID}
echo "deleting public-ip ${WINDOWSVM_PUBLIC_IP}"
az network public-ip delete --ids ${WINDOWSVM_PUBLIC_IP}
echo "deleting disk ${WINDOWSVM_DISK_ID}"
az disk delete --yes --ids ${WINDOWSVM_DISK_ID}
echo "deleting nsg ${WINDOWSVM_NSG_ID}"
az network nsg delete --ids ${WINDOWSVM_NSG_ID}
Eliminare abc1110rg
usando il comando seguente:
az group delete --name $RESOURCE_GROUP_NAME --yes --no-wait
Per esplorare le opzioni per eseguire prodotti WebSphere in Azure, vedere Quali sono le soluzioni per eseguire la famiglia di prodotti WebSphere in Azure?
Eventi
Creare app e agenti di intelligenza artificiale
17 mar, 21 - 21 mar, 10
Partecipa alla serie meetup per creare soluzioni di intelligenza artificiale scalabili basate su casi d'uso reali con altri sviluppatori ed esperti.
Iscriviti subitoFormazione
Modulo
Automatizzare l'installazione e la configurazione del software nelle macchine virtuali - Training
Di seguito viene descritto come automatizzare l'installazione e la configurazione del software in Macchine virtuali di Azure.
Certificazione
Microsoft Certified: Windows Server Hybrid Administrator Associate - Certifications
Gli amministratori di ambienti ibridi di Windows Server integrano gli ambienti di Windows Server con i servizi di Azure e gestiscono Windows Server nelle reti locali.