Condividi tramite


Ambiente Chroot in una macchina virtuale di salvataggio linux

Nota

CentOS a cui si fa riferimento in questo articolo è una distribuzione Linux e raggiungerà End Of Life (EOL). Prendere in considerazione l'uso e pianificare di conseguenza. Per altre informazioni, vedere Indicazioni sulla fine del ciclo di vita di CentOS.

Questo articolo descrive come risolvere i problemi relativi all'ambiente chroot nella macchina virtuale di salvataggio (VM) in Linux.

Ubuntu 16.x && Ubuntu 18.x && Ubuntu 20.04

  1. Arrestare o dealloca la macchina virtuale interessata.

  2. Creare una macchina virtuale di salvataggio della stessa generazione, la stessa versione del sistema operativo, nello stesso gruppo di risorse e nello stesso percorso usando il disco gestito.

  3. Usare il portale di Azure per creare uno snapshot del disco del sistema operativo della macchina virtuale interessata.

  4. Creare un disco dallo snapshot del disco del sistema operativo e collegarlo alla macchina virtuale di salvataggio.

  5. Dopo aver creato il disco, risolvere i problemi relativi all'ambiente chroot nella macchina virtuale di salvataggio.

    1. Accedere alla macchina virtuale come utente radice usando il comando seguente:

      sudo su -

    2. Trovare il disco usando dmesg (il metodo usato per individuare il nuovo disco può variare). L'esempio seguente usa dmesg per filtrare i dischi SCSI (Small Computer Systems Interface):

      dmesg | grep SCSI

      L'output del comando è simile all'esempio seguente. In questo esempio il disco /dev/sdc è quello desiderato:

      [    0.294784] SCSI subsystem initialized
      [    0.573458] Block layer SCSI generic (bsg) driver version 0.4 loaded (major 252)
      [    7.110271] sd 2:0:0:0: [sda] Attached SCSI disk
      [    8.079653] sd 3:0:1:0: [sdb] Attached SCSI disk
      [ 1828.162306] sd 5:0:0:0: [sdc] Attached SCSI disk
      
    3. Usare i comandi seguenti per accedere all'ambiente chroot:

      mkdir /rescue
      mount /dev/sdc1 /rescue
      mount /dev/sdc15 /rescue/boot/efi
      
      mount -t proc /proc /rescue/proc
      mount -t sysfs /sys /rescue/sys
      mount -o bind /dev /rescue/dev
      mount -o bind /dev/pts /rescue/dev/pts
      mount -o bind /run /rescue/run
      chroot /rescue
      
    4. Risolvere i problemi relativi all'ambiente chroot.

    5. Usare i comandi seguenti per uscire dall'ambiente chroot:

      exit
      
      umount /rescue/proc/
      umount /rescue/sys/
      umount /rescue/dev/pts
      umount /rescue/dev/
      umount /rescue/run
      cd /
      umount /rescue/boot/efi
      umount /rescue
      

      Nota

      Se viene visualizzato il messaggio di errore "unable to smount /rescue", aggiungere l'opzione -l al umount comando, ad esempio umount -l /rescue.

  6. Scollegare il disco dalla macchina virtuale di salvataggio ed eseguire uno scambio del disco con la macchina virtuale originale.

  7. Avviare la macchina virtuale originale e controllarne la connettività.

RHEL/Centos/Oracle 6.x && Oracle 8.x && RHEL/Centos 7.x con partizioni RAW

  1. Arrestare o dealloca la macchina virtuale interessata.

  2. Creare un'immagine di macchina virtuale di salvataggio della stessa versione del sistema operativo nello stesso gruppo di risorse (RSG) e nella stessa posizione usando un disco gestito.

  3. Usare il portale di Azure per creare uno snapshot del disco del sistema operativo della macchina virtuale interessata.

  4. Creare un disco dallo snapshot del disco del sistema operativo e collegarlo alla macchina virtuale di salvataggio.

  5. Dopo aver creato il disco, risolvere i problemi relativi all'ambiente chroot nella macchina virtuale di salvataggio.

    1. Accedere alla macchina virtuale come utente radice usando il comando seguente:

      sudo su -

    2. Trovare il disco usando dmesg (il metodo usato per individuare il nuovo disco può variare). L'esempio seguente usa dmesg per filtrare i dischi SCSI:

      dmesg | grep SCSI

      L'output del comando è simile all'esempio seguente. In questo esempio il disco /dev/sdc è quello desiderato:

      [    0.294784] SCSI subsystem initialized
      [    0.573458] Block layer SCSI generic (bsg) driver version 0.4 loaded (major 252)
      [    7.110271] sd 2:0:0:0: [sda] Attached SCSI disk
      [    8.079653] sd 3:0:1:0: [sdb] Attached SCSI disk
      [ 1828.162306] sd 5:0:0:0: [sdc] Attached SCSI disk
      
    3. Usare i comandi seguenti per accedere all'ambiente chroot:

      mkdir /rescue
      mount -o nouuid /dev/sdc2 /rescue
      mount -o nouuid /dev/sdc1 /rescue/boot/
      
      mount -t proc /proc /rescue/proc
      mount -t sysfs /sys /rescue/sys
      mount -o bind /dev /rescue/dev
      mount -o bind /dev/pts /rescue/dev/pts
      mount -o bind /run /rescue/run
      chroot /rescue
      
    4. Risolvere i problemi relativi all'ambiente chroot.

    5. Usare i comandi seguenti per uscire dall'ambiente chroot:

      exit
      
      umount /rescue/proc/
      umount /rescue/sys/
      umount /rescue/dev/pts
      umount /rescue/dev/
      umount /rescue/run
      cd /
      umount /rescue/boot/
      umount /rescue
      

      Nota

      Se viene visualizzato il messaggio di errore "unable to smount /rescue", aggiungere l'opzione -l al umount comando, ad esempio umount -l /rescue.

  6. Scollegare il disco dalla macchina virtuale di salvataggio ed eseguire uno scambio del disco con la macchina virtuale originale.

  7. Avviare la macchina virtuale originale e controllarne la connettività.

RHEL/Centos 7.x & 8.X con LVM

Nota

Se la macchina virtuale originale include Logical Volume Manager (LVM) nel disco del sistema operativo, creare la macchina virtuale di salvataggio usando l'immagine con partizioni non elaborate nel disco del sistema operativo.

  1. Arrestare o dealloca la macchina virtuale interessata.

  2. Creare un'immagine di macchina virtuale di salvataggio della stessa versione del sistema operativo nello stesso gruppo di risorse (RSG) e nella stessa posizione usando un disco gestito.

  3. Usare il portale di Azure per creare uno snapshot del disco del sistema operativo della macchina virtuale interessata.

  4. Creare un disco dallo snapshot del disco del sistema operativo e collegarlo alla macchina virtuale di salvataggio.

  5. Dopo aver creato il disco, risolvere i problemi relativi all'ambiente chroot nella macchina virtuale di salvataggio.

    1. Accedere alla macchina virtuale come utente radice usando il comando seguente:

      sudo su -

    2. Trovare il disco usando dmesg (il metodo usato per individuare il nuovo disco può variare). L'esempio seguente usa dmesg per filtrare i dischi SCSI:

      dmesg | grep SCSI

      L'output del comando è simile all'esempio seguente. In questo esempio il disco /dev/sdc è quello desiderato:

      [    0.294784] SCSI subsystem initialized
      [    0.573458] Block layer SCSI generic (bsg) driver version 0.4 loaded (major 252)
      [    7.110271] sd 2:0:0:0: [sda] Attached SCSI disk
      [    8.079653] sd 3:0:1:0: [sdb] Attached SCSI disk
      [ 1828.162306] sd 5:0:0:0: [sdc] Attached SCSI disk
      
    3. Usare i comandi seguenti per attivare il gruppo di volumi logici:

      vgscan --mknodes
      vgchange -ay
      lvscan
      
    4. Usare il lsblk comando per recuperare i nomi di LVM:

      lsblk
      
      NAME              MAJ:MIN RM  SIZE RO TYPE MOUNTPOINT
      sda                 8:0    0   64G  0 disk
      ├─sda1              8:1    0  500M  0 part /boot
      ├─sda2              8:2    0   63G  0 part /
      sdb                 8:16   0    4G  0 disk
      └─sdb1              8:17   0    4G  0 part /mnt/resource
      sdc                 8:0    0   64G  0 disk
      ├─sdc1              8:1    0  500M  0 part
      ├─sdc2              8:2    0   63G  0 part
      ├─sdc3              8:3    0    2M  0 part
      ├─sdc4              8:4    0   63G  0 part
        ├─rootvg-tmplv  253:0    0    2G  0 lvm  
        ├─rootvg-usrlv  253:1    0   10G  0 lvm  
        ├─rootvg-optlv  253:2    0    2G  0 lvm  
        ├─rootvg-homelv 253:3    0    1G  0 lvm  
        ├─rootvg-varlv  253:4    0    8G  0 lvm  
        └─rootvg-rootlv 253:5    0    2G  0 lvm
      
    5. Usare i comandi seguenti per preparare il dir chroot:

      mkdir /rescue
      mount /dev/mapper/rootvg-rootlv /rescue
      mount /dev/mapper/rootvg-varlv /rescue/var
      mount /dev/mapper/rootvg-homelv /rescue/home
      mount /dev/mapper/rootvg-usrlv /rescue/usr
      mount /dev/mapper/rootvg-tmplv /rescue/tmp
      mount /dev/mapper/rootvg-optlv /rescue/opt
      mount /dev/sdc2 /rescue/boot/
      mount /dev/sdc1 /rescue/boot/efi
      

      Le partizioni /rescue/boot/ e /rescue/boot/efi potrebbero non sempre trovarsi in /dev/sdc2 o /dev/sdc1. Se si verifica un errore durante il tentativo di montare queste partizioni, controllare il file /rescue/etc/fstab per determinare i dispositivi corretti per le partizioni /boot e /boot/efi dal disco del sistema operativo danneggiato. Eseguire quindi il blkid comando e confrontare l'identificatore univoco universale (UUID) dal file /rescue/etc/fstab con l'output del blkid comando per determinare il dispositivo corretto per il montaggio di /rescue/boot/ e /rescue/boot/efi nella macchina virtuale di riparazione.

      Il mount /dev/mapper/rootvg-optlv /rescue/opt comando può non riuscire se il gruppo di volumi rootvg-optlv non esiste. In questo caso, è possibile ignorare questo comando.

    6. Accedere all'ambiente chroot usando i comandi seguenti:

      mount -t proc /proc /rescue/proc
      mount -t sysfs /sys /rescue/sys
      mount -o bind /dev /rescue/dev
      mount -o bind /dev/pts /rescue/dev/pts
      mount -o bind /run /rescue/run
      chroot /rescue
      
    7. Risolvere i problemi relativi all'ambiente chroot.

    8. Usare i comandi seguenti per uscire dall'ambiente chroot:

      exit
      
      umount /rescue/proc/
      umount /rescue/sys/
      umount /rescue/dev/pts
      umount /rescue/dev/
      umount /rescue/run
      cd /
      umount /rescue/boot/efi
      umount /rescue/boot
      umount /rescue/home
      umount /rescue/var
      umount /rescue/usr
      umount /rescue/tmp
      umount /rescue/opt
      umount /rescue
      

      Nota

      Se viene visualizzato il messaggio di errore "unable to smount /rescue", aggiungere l'opzione -l al umount comando, ad esempio umount -l /rescue.

  6. Scollegare il disco dalla macchina virtuale di salvataggio ed eseguire uno scambio del disco con la macchina virtuale originale.

  7. Avviare la macchina virtuale originale e controllarne la connettività.

Uso della stessa immagine LVM

Nota

Se è necessario distribuire la macchina virtuale di salvataggio usando la stessa immagine LVM, è necessario modificare alcuni aspetti della macchina virtuale di salvataggio con LVM.

I comandi seguenti devono essere eseguiti nella macchina virtuale di ripristino/salvataggio creata temporaneamente per l'operazione di ripristino.

  1. Usare il comando seguente per controllare lo stato dei dischi prima di collegare il disco da salvare:

    sudo lsblk -f
    
    NAME              FSTYPE      LABEL UUID                                   MOUNTPOINT
    sda
    ├─sda1            vfat              93DA-8C20                              /boot/efi
    ├─sda2            xfs               d5da486e-fdfe-4ad8-bc01-aa72b91fd47d   /boot
    ├─sda3
    └─sda4            LVM2_member       pdSI2Q-ZEzV-oT6P-R2JG-ZW3h-cmnf-iRN6pU
    ├─rootvg-tmplv  xfs               9098eb05-0176-4997-8132-9152a7bef207   /tmp
    ├─rootvg-usrlv  xfs               2f9ff36c-742d-4914-b463-d4152801b95d   /usr
    ├─rootvg-optlv  xfs               aeacea8e-3663-4569-af25-c52357f8a0a3   /opt
    ├─rootvg-homelv xfs               a79e43dc-7adc-41b4-b6e1-4e6b033b15c0   /home
    ├─rootvg-varlv  xfs               c7cb68e9-7865-4187-b3bd-e9a869779d86   /var
    └─rootvg-rootlv xfs               d8dc4d62-ada5-4952-a0d9-1bce6cb6f809   /
    sdb
    └─sdb1            ext4              e72e7c2c-db27-4a73-a97e-01d63d21ccf8   /mnt
    
  2. Collegare il disco da salvare come unità dati.

  3. Controllare di nuovo i dischi usando il comando seguente:

    sudo lsblk -f
    
    NAME              FSTYPE      LABEL UUID                                   MOUNTPOINT
    sda
    ├─sda1            vfat              93DA-8C20                              /boot/efi
    ├─sda2            xfs               d5da486e-fdfe-4ad8-bc01-aa72b91fd47d   /boot
    ├─sda3
    └─sda4            LVM2_member       pdSI2Q-ZEzV-oT6P-R2JG-ZW3h-cmnf-iRN6pU
    ├─rootvg-tmplv  xfs               9098eb05-0176-4997-8132-9152a7bef207   /tmp
    ├─rootvg-usrlv  xfs               2f9ff36c-742d-4914-b463-d4152801b95d   /usr
    ├─rootvg-optlv  xfs               aeacea8e-3663-4569-af25-c52357f8a0a3   /opt
    ├─rootvg-homelv xfs               a79e43dc-7adc-41b4-b6e1-4e6b033b15c0   /home
    ├─rootvg-varlv  xfs               c7cb68e9-7865-4187-b3bd-e9a869779d86   /var
    └─rootvg-rootlv xfs               d8dc4d62-ada5-4952-a0d9-1bce6cb6f809   /
    sdb
    └─sdb1            ext4              e72e7c2c-db27-4a73-a97e-01d63d21ccf8   /mnt
    sdc
    ├─sdc1            vfat              93DA-8C20
    ├─sdc2            xfs               d5da486e-fdfe-4ad8-bc01-aa72b91fd47d
    ├─sdc3
    └─sdc4            LVM2_member       pdSI2Q-ZEzV-oT6P-R2JG-ZW3h-cmnf-iRN6pU
    

    L'output del comando non mostra immediatamente le strutture LVM.

  4. Visualizzare le partizioni LVM fisiche usando il comando seguente:

    sudo pvs
    

    Questo output mostra gli avvisi relativi ai volumi fisici duplicati:This output shows warnings about duplicated physical volumes (PV):

    WARNING: Not using lvmetad because duplicate PVs were found.
    WARNING: Use multipath or vgimportclone to resolve duplicate PVs?
    WARNING: After duplicates are resolved, run "pvscan --cache" to enable lvmetad.
    WARNING: Not using device /dev/sdc4 for PV pdSI2Q-ZEzV-oT6P-R2JG-ZW3h-cmnf-iRN6pU.
    WARNING: PV pdSI2Q-ZEzV-oT6P-R2JG-ZW3h-cmnf-iRN6pU prefers device /dev/sda4 because device is used by LV.
    PV         VG     Fmt  Attr PSize   PFree
    /dev/sda4  rootvg lvm2 a--  <63.02g <38.02g
    
  5. Usare il vmimportclone comando per importare il valore rootvg dall'unità dati usando un altro nome.

    Questo comando modifica l'UUID del pv e lo attiva anche:

    sudo vgimportclone -n rescuemevg /dev/sdc4
    
    WARNING: Not using device /dev/sdc4 for PV <PV>.
    WARNING: PV pdSI2Q-ZEzV-oT6P-R2JG-ZW3h-cmnf-iRN6pU prefers device /dev/sda4 because device is used by LV.
    
    sudo vgchange -a y rescuemevg 
    
    6 logical volume(s) in volume group "rescuemevg" now active
    
  6. Verificare la modifica del nome usando il comando seguente:

    sudo lsblk -f
    
    NAME                  FSTYPE      LABEL UUID                                   MOUNTPOINT
    sda
    ├─sda1                vfat              93DA-8C20                              /boot/efi
    ├─sda2                xfs               d5da486e-fdfe-4ad8-bc01-aa72b91fd47d   /boot
    ├─sda3
    └─sda4                LVM2_member       pdSI2Q-ZEzV-oT6P-R2JG-ZW3h-cmnf-iRN6pU
    ├─rootvg-tmplv      xfs               9098eb05-0176-4997-8132-9152a7bef207   /tmp
    ├─rootvg-usrlv      xfs               2f9ff36c-742d-4914-b463-d4152801b95d   /usr
    ├─rootvg-optlv      xfs               aeacea8e-3663-4569-af25-c52357f8a0a3   /opt
    ├─rootvg-homelv     xfs               a79e43dc-7adc-41b4-b6e1-4e6b033b15c0   /home
    ├─rootvg-varlv      xfs               c7cb68e9-7865-4187-b3bd-e9a869779d86   /var
    └─rootvg-rootlv     xfs               d8dc4d62-ada5-4952-a0d9-1bce6cb6f809   /
    sdb
    └─sdb1                ext4              e72e7c2c-db27-4a73-a97e-01d63d21ccf8   /mnt
    sdc
    ├─sdc1                vfat              93DA-8C20
    ├─sdc2                xfs               d5da486e-fdfe-4ad8-bc01-aa72b91fd47d
    ├─sdc3
    └─sdc4                LVM2_member       BbZsAT-5oOK-nITn-bHFW-IVyS-y0O3-93oDes
    ├─rescuemevg-tmplv  xfs               9098eb05-0176-4997-8132-9152a7bef207
    ├─rescuemevg-usrlv  xfs               2f9ff36c-742d-4914-b463-d4152801b95d
    ├─rescuemevg-optlv  xfs               aeacea8e-3663-4569-af25-c52357f8a0a3
    ├─rescuemevg-homelv xfs               a79e43dc-7adc-41b4-b6e1-4e6b033b15c0
    ├─rescuemevg-varlv  xfs               c7cb68e9-7865-4187-b3bd-e9a869779d86
    └─rescuemevg-rootlv xfs               d8dc4d62-ada5-4952-a0d9-1bce6cb6f809
    
  7. Rinominare il valore rootvg della macchina virtuale di salvataggio usando il comando seguente:

    sudo vgrename rootvg oldvg
    
    Volume group "rootvg" successfully renamed to "oldvg"
    
  8. Controllare i dischi usando il comando seguente:

    sudo lsblk -f
    
    NAME                  FSTYPE      LABEL UUID                                   MOUNTPOINT
    sda
    ├─sda1                vfat              93DA-8C20                              /boot/efi
    ├─sda2                xfs               d5da486e-fdfe-4ad8-bc01-aa72b91fd47d   /boot
    ├─sda3
    └─sda4                LVM2_member       pdSI2Q-ZEzV-oT6P-R2JG-ZW3h-cmnf-iRN6pU
    ├─oldvg-tmplv       xfs               9098eb05-0176-4997-8132-9152a7bef207   /tmp
    ├─oldvg-usrlv       xfs               2f9ff36c-742d-4914-b463-d4152801b95d   /usr
    ├─oldvg-optlv       xfs               aeacea8e-3663-4569-af25-c52357f8a0a3   /opt
    ├─oldvg-homelv      xfs               a79e43dc-7adc-41b4-b6e1-4e6b033b15c0   /home
    ├─oldvg-varlv       xfs               c7cb68e9-7865-4187-b3bd-e9a869779d86   /var
    └─oldvg-rootlv      xfs               d8dc4d62-ada5-4952-a0d9-1bce6cb6f809   /
    sdb
    └─sdb1                ext4              e72e7c2c-db27-4a73-a97e-01d63d21ccf8   /mnt
    sdc
    ├─sdc1                vfat              93DA-8C20
    ├─sdc2                xfs               d5da486e-fdfe-4ad8-bc01-aa72b91fd47d
    ├─sdc3
    └─sdc4                LVM2_member       BbZsAT-5oOK-nITn-bHFW-IVyS-y0O3-93oDes
    ├─rescuemevg-tmplv  xfs               9098eb05-0176-4997-8132-9152a7bef207
    ├─rescuemevg-usrlv  xfs               2f9ff36c-742d-4914-b463-d4152801b95d
    ├─rescuemevg-optlv  xfs               aeacea8e-3663-4569-af25-c52357f8a0a3
    ├─rescuemevg-homelv xfs               a79e43dc-7adc-41b4-b6e1-4e6b033b15c0
    ├─rescuemevg-varlv  xfs               c7cb68e9-7865-4187-b3bd-e9a869779d86
    └─rescuemevg-rootlv xfs               d8dc4d62-ada5-4952-a0d9-1bce6cb6f809
    
  9. Montare il file system proveniente dall'unità dati.

    Quando si usa xfs, specificare l'opzione -o nouuid per evitare conflitti con gli UUID e montare i file system necessari per eseguire un chroot. Questa opzione non è disponibile nei ext4 file system, quindi è necessario rimuoverla dai comandi in uno scenario di questo tipo:

    sudo mkdir /rescue
    sudo mount -o nouuid /dev/mapper/rescuemevg-rootlv /rescue
    sudo mount -o nouuid  /dev/mapper/rescuemevg-homelv /rescue/home
    sudo mount -o nouuid  /dev/mapper/rescuemevg-optlv /rescue/opt 
    sudo mount -o nouuid  /dev/mapper/rescuemevg-tmplv /rescue/tmp 
    sudo mount -o nouuid  /dev/mapper/rescuemevg-usrlv /rescue/usr 
    sudo mount -o nouuid  /dev/mapper/rescuemevg-varlv /rescue/var 
    sudo mount -o nouuid  /dev/sdc2 /rescue/boot
    sudo mount /dev/sdc1 /rescue/boot/efi
    
    sudo mount -t proc /proc /rescue/proc 
    sudo mount -t sysfs /sys /rescue/sys
    sudo mount -o bind /dev /rescue/dev 
    sudo mount -o bind /dev/pts /rescue/dev/pts
    sudo mount -o bind /run /rescue/run
    

    Le partizioni /rescue/boot/ e /rescue/boot/efi potrebbero non sempre trovarsi in /dev/sdc2 o /dev/sdc1. Se si verifica un errore durante il tentativo di montare queste partizioni, controllare il file /rescue/etc/fstab per determinare i dispositivi corretti per le partizioni /boot e /boot/efi dal disco del sistema operativo danneggiato. Eseguire quindi il blkid comando e confrontare l'UUID del file /rescue/etc/fstab con l'output del blkid comando per determinare il dispositivo corretto per il montaggio /rescue/boot/ e /rescue/boot/efi nella macchina virtuale di ripristino. Gli UID duplicati possono essere visualizzati nell'output. In questo scenario montare la partizione corrispondente alla lettera del dispositivo del passaggio 5. Nell'esempio di questa sezione la partizione corretta da montare è /dev/sdc. Dev /sda rappresenta il sistema operativo attualmente in uso e deve essere ignorato.

  10. Verificare i montaggi usando il comando seguente:

    sudo lsblk -f
    
    NAME                  FSTYPE      LABEL UUID                                   MOUNTPOINT
    sda
    ├─sda1                vfat              93DA-8C20                              /boot/efi
    ├─sda2                xfs               d5da486e-fdfe-4ad8-bc01-aa72b91fd47d   /boot
    ├─sda3
    └─sda4                LVM2_member       pdSI2Q-ZEzV-oT6P-R2JG-ZW3h-cmnf-iRN6pU
    ├─oldvg-tmplv       xfs               9098eb05-0176-4997-8132-9152a7bef207   /tmp
    ├─oldvg-usrlv       xfs               2f9ff36c-742d-4914-b463-d4152801b95d   /usr
    ├─oldvg-optlv       xfs               aeacea8e-3663-4569-af25-c52357f8a0a3   /opt
    ├─oldvg-homelv      xfs               a79e43dc-7adc-41b4-b6e1-4e6b033b15c0   /home
    ├─oldvg-varlv       xfs               c7cb68e9-7865-4187-b3bd-e9a869779d86   /var
    └─oldvg-rootlv      xfs               d8dc4d62-ada5-4952-a0d9-1bce6cb6f809   /
    sdb
    └─sdb1                ext4              e72e7c2c-db27-4a73-a97e-01d63d21ccf8   /mnt
    sdc
    ├─sdc1                vfat              93DA-8C20                              /rescue/boot/efi
    ├─sdc2                xfs               d5da486e-fdfe-4ad8-bc01-aa72b91fd47d   /rescue/boot
    ├─sdc3
    └─sdc4                LVM2_member       BbZsAT-5oOK-nITn-bHFW-IVyS-y0O3-93oDes
    ├─rescuemevg-tmplv  xfs               9098eb05-0176-4997-8132-9152a7bef207   /rescue/tmp
    ├─rescuemevg-usrlv  xfs               2f9ff36c-742d-4914-b463-d4152801b95d   /rescue/usr
    ├─rescuemevg-optlv  xfs               aeacea8e-3663-4569-af25-c52357f8a0a3   /rescue/opt
    ├─rescuemevg-homelv xfs               a79e43dc-7adc-41b4-b6e1-4e6b033b15c0   /rescue/home
    ├─rescuemevg-varlv  xfs               c7cb68e9-7865-4187-b3bd-e9a869779d86   /rescue/var
    └─rescuemevg-rootlv xfs               d8dc4d62-ada5-4952-a0d9-1bce6cb6f809   /rescue
    
  11. Usare chroot usando il comando seguente:

    sudo chroot /rescue/
    
  12. Verificare che monta "all'interno" dell'ambiente chroot usando il comando seguente:

    sudo lsblk -f
    
    NAME                  FSTYPE      LABEL UUID                                   MOUNTPOINT
    sda
    ├─sda1                vfat              93DA-8C20
    ├─sda2                xfs               d5da486e-fdfe-4ad8-bc01-aa72b91fd47d
    ├─sda3
    └─sda4                LVM2_member       pdSI2Q-ZEzV-oT6P-R2JG-ZW3h-cmnf-iRN6pU
    ├─oldvg-tmplv       xfs               9098eb05-0176-4997-8132-9152a7bef207
    ├─oldvg-usrlv       xfs               2f9ff36c-742d-4914-b463-d4152801b95d
    ├─oldvg-optlv       xfs               aeacea8e-3663-4569-af25-c52357f8a0a3
    ├─oldvg-homelv      xfs               a79e43dc-7adc-41b4-b6e1-4e6b033b15c0
    ├─oldvg-varlv       xfs               c7cb68e9-7865-4187-b3bd-e9a869779d86
    └─oldvg-rootlv      xfs               d8dc4d62-ada5-4952-a0d9-1bce6cb6f809
    sdb
    └─sdb1                ext4              e72e7c2c-db27-4a73-a97e-01d63d21ccf8
    sdc
    ├─sdc1                vfat              93DA-8C20                              /boot/efi
    ├─sdc2                xfs               d5da486e-fdfe-4ad8-bc01-aa72b91fd47d   /boot
    ├─sdc3
    └─sdc4                LVM2_member       BbZsAT-5oOK-nITn-bHFW-IVyS-y0O3-93oDes
    ├─rescuemevg-tmplv  xfs               9098eb05-0176-4997-8132-9152a7bef207   /tmp
    ├─rescuemevg-usrlv  xfs               2f9ff36c-742d-4914-b463-d4152801b95d   /usr
    ├─rescuemevg-optlv  xfs               aeacea8e-3663-4569-af25-c52357f8a0a3   /opt
    ├─rescuemevg-homelv xfs               a79e43dc-7adc-41b4-b6e1-4e6b033b15c0   /home
    ├─rescuemevg-varlv  xfs               c7cb68e9-7865-4187-b3bd-e9a869779d86   /var
    └─rescuemevg-rootlv xfs               d8dc4d62-ada5-4952-a0d9-1bce6cb6f809   /
    

    A questo momento , rescuemevg-rootlv è quello montato su /.

  13. Rinominare il gruppo di volumi (VG) per mantenerlo coerente usando il comando seguente. La ridenominazione del file VG impedisce di riscontrare problemi durante la rigenerazione dell'initrd e l'avvio del disco nella macchina virtuale originale.

    sudo vgrename rescuemevg rootvg
    
    Volume group "rescuemevg" successfully renamed to "rootvg"
    
  14. Verificare la modifica usando il comando seguente:

    sudo lsblk -f
    
    NAME              FSTYPE      LABEL UUID                                   MOUNTPOINT
    sda
    ├─sda1            vfat              93DA-8C20
    ├─sda2            xfs               d5da486e-fdfe-4ad8-bc01-aa72b91fd47d
    ├─sda3
    └─sda4            LVM2_member       pdSI2Q-ZEzV-oT6P-R2JG-ZW3h-cmnf-iRN6pU
    ├─oldvg-tmplv   xfs               9098eb05-0176-4997-8132-9152a7bef207
    ├─oldvg-usrlv   xfs               2f9ff36c-742d-4914-b463-d4152801b95d
    ├─oldvg-optlv   xfs               aeacea8e-3663-4569-af25-c52357f8a0a3
    ├─oldvg-homelv  xfs               a79e43dc-7adc-41b4-b6e1-4e6b033b15c0
    ├─oldvg-varlv   xfs               c7cb68e9-7865-4187-b3bd-e9a869779d86
    └─oldvg-rootlv  xfs               d8dc4d62-ada5-4952-a0d9-1bce6cb6f809
    sdb
    └─sdb1            ext4              e72e7c2c-db27-4a73-a97e-01d63d21ccf8
    sdc
    ├─sdc1            vfat              93DA-8C20                              /boot/efi
    ├─sdc2            xfs               d5da486e-fdfe-4ad8-bc01-aa72b91fd47d   /boot
    ├─sdc3
    └─sdc4            LVM2_member       BbZsAT-5oOK-nITn-bHFW-IVyS-y0O3-93oDes
    ├─rootvg-tmplv  xfs               9098eb05-0176-4997-8132-9152a7bef207   /tmp
    ├─rootvg-usrlv  xfs               2f9ff36c-742d-4914-b463-d4152801b95d   /usr
    ├─rootvg-optlv  xfs               aeacea8e-3663-4569-af25-c52357f8a0a3   /opt
    ├─rootvg-homelv xfs               a79e43dc-7adc-41b4-b6e1-4e6b033b15c0   /home
    ├─rootvg-varlv  xfs               c7cb68e9-7865-4187-b3bd-e9a869779d86   /var
    └─rootvg-rootlv xfs               d8dc4d62-ada5-4952-a0d9-1bce6cb6f809   /
    
  15. Procedere con le attività necessarie per salvare il sistema operativo. Queste attività possono includere la rigenerazione di initramfs o la configurazione GRUB.

  16. Uscire dall'ambiente chroot usando il comando seguente:

    sudo exit
    
  17. Smontare e scollegare il disco dati dalla macchina virtuale di salvataggio ed eseguire uno scambio di dischi con la macchina virtuale originale usando i comandi seguenti:

    umount /rescue/run/
    umount /rescue/dev/pts/
    umount /rescue/dev/ 
    umount /rescue/sys/
    umount /rescue/proc
    umount /rescue/boot/efi
    umount /rescue/boot
    umount /rescue/var
    umount /rescue/usr
    umount /rescue/tmp
    umount /rescue/opt
    umount /rescue/home
    umount /rescue
    
  18. Avviare la macchina virtuale originale e verificarne la funzionalità.

Oracle 7.x

  1. Arrestare o dealloca la macchina virtuale interessata.

  2. Creare un'immagine di macchina virtuale di salvataggio della stessa versione del sistema operativo, nello stesso gruppo di risorse (RSG) e nella stessa posizione usando un disco gestito.

  3. Usare il portale di Azure per creare uno snapshot del disco del sistema operativo della macchina virtuale interessata.

  4. Creare un disco dallo snapshot del disco del sistema operativo e collegarlo alla macchina virtuale di salvataggio.

  5. Dopo aver creato il disco, risolvere i problemi relativi all'ambiente chroot nella macchina virtuale di salvataggio.

    1. Accedere alla macchina virtuale come utente radice usando il comando seguente:

      sudo su -

    2. Trovare il disco usando dmesg (il metodo usato per individuare il nuovo disco può variare). L'esempio seguente usa dmesg per filtrare i dischi SCSI:

      dmesg | grep SCSI

      L'output del comando è simile all'esempio seguente. In questo esempio, il /dev/sdc disco è quello che si vuole:

      [    0.294784] SCSI subsystem initialized
      [    0.573458] Block layer SCSI generic (bsg) driver version 0.4 loaded (major 252)
      [    7.110271] sd 2:0:0:0: [sda] Attached SCSI disk
      [    8.079653] sd 3:0:1:0: [sdb] Attached SCSI disk
      [ 1828.162306] sd 5:0:0:0: [sdc] Attached SCSI disk
      
    3. Usare i comandi seguenti per accedere all'ambiente chroot:

      mkdir /rescue
      mount -o nouuid /dev/sdc2 /rescue
      mount -o nouuid /dev/sdc1 /rescue/boot/
      mount /dev/sdc15 /rescue/boot/efi
      
      mount -t proc /proc /rescue/proc
      mount -t sysfs /sys /rescue/sys
      mount -o bind /dev /rescue/dev
      mount -o bind /dev/pts /rescue/dev/pts
      mount -o bind /run /rescue/run
      chroot /rescue
      
    4. Risolvere i problemi relativi all'ambiente chroot.

    5. Usare i comandi seguenti per uscire dall'ambiente chroot:

      exit
      
      umount /rescue/proc/
      umount /rescue/sys/
      umount /rescue/dev/pts
      umount /rescue/dev/
      umount /rescue/run
      umount /rescue/boot/efi
      umount /rescue/boot
      umount /rescue
      

      Nota

      Se viene visualizzato il messaggio di errore "unable to smount /rescue", aggiungere l'opzione -l al umount comando, ad esempio umount -l /rescue.

  6. Scollegare il disco dalla macchina virtuale di salvataggio ed eseguire uno scambio del disco con la macchina virtuale originale.

  7. Avviare la macchina virtuale originale e controllarne la connettività.

SUSE-SLES 12 SP4, SUSE-SLES 12 SP4 per SAP && ## SUSE-SLES 15 SP1, SUSE-SLES 15 SP1 per SAP

  1. Arrestare o dealloca la macchina virtuale interessata.

  2. Creare un'immagine di macchina virtuale di salvataggio della stessa versione del sistema operativo, nello stesso gruppo di risorse (RSG) e nella stessa posizione usando un disco gestito.

  3. Usare il portale di Azure per creare uno snapshot del disco del sistema operativo della macchina virtuale interessata.

  4. Creare un disco dallo snapshot del disco del sistema operativo e collegarlo alla macchina virtuale di salvataggio.

  5. Dopo aver creato il disco, risolvere i problemi relativi all'ambiente chroot nella macchina virtuale di salvataggio.

    1. Accedere alla macchina virtuale come utente radice usando il comando seguente:

      sudo su -

    2. Trovare il disco usando dmesg (il metodo usato per individuare il nuovo disco può variare). L'esempio seguente usa dmesg per filtrare i dischi SCSI:

      dmesg | grep SCSI

      L'output del comando è simile all'esempio seguente. In questo esempio, il /dev/sdc disco è quello che si vuole:

      [    0.294784] SCSI subsystem initialized
      [    0.573458] Block layer SCSI generic (bsg) driver version 0.4 loaded (major 252)
      [    7.110271] sd 2:0:0:0: [sda] Attached SCSI disk
      [    8.079653] sd 3:0:1:0: [sdb] Attached SCSI disk
      [ 1828.162306] sd 5:0:0:0: [sdc] Attached SCSI disk
      
    3. Usare i comandi seguenti per accedere all'ambiente chroot:

      mkdir /rescue
      mount -o nouuid /dev/sdc4 /rescue
      mount -o nouuid /dev/sdc3 /rescue/boot/
      mount /dev/sdc2 /rescue/boot/efi
      
      mount -t proc /proc /rescue/proc
      mount -t sysfs /sys /rescue/sys
      mount -o bind /dev /rescue/dev
      mount -o bind /dev/pts /rescue/dev/pts
      mount -o bind /run /rescue/run
      chroot /rescue
      
    4. Risolvere i problemi relativi all'ambiente chroot.

    5. Usare i comandi seguenti per uscire dall'ambiente chroot:

      exit
      
      umount /rescue/proc/
      umount /rescue/sys/
      umount /rescue/dev/pts
      umount /rescue/dev/
      umount /rescue/run
      umount /rescue/boot/efi
      umount /rescue/boot
      umount /rescue
      

      Nota

      Se viene visualizzato il messaggio di errore "unable to smount /rescue", aggiungere l'opzione -l al umount comando, ad esempio umount -l /rescue.

  6. Scollegare il disco dalla macchina virtuale di salvataggio ed eseguire uno scambio del disco con la macchina virtuale originale.

  7. Avviare la macchina virtuale originale e controllarne la connettività.

Operazioni successive

Contattaci per ricevere assistenza

In caso di domande o bisogno di assistenza, creare una richiesta di supporto tecnico oppure formula una domanda nel Supporto della community di Azure. È possibile anche inviare un feedback sul prodotto al feedback della community di Azure.