Rilevamento e registrazione degli eventi per l'ordine di importazione di Azure Data Box e Azure Data Box Heavy
Un ordine di importazione di Data Box o Data Box Heavy esegue i passaggi seguenti: ordine, configurazione, copia dei dati, restituzione, caricamento in Azure e verifica e cancellazione dei dati. Per ogni passaggio nell'ordine, è possibile eseguire più azioni per controllare l'accesso all'ordine, verificare gli eventi, rilevare l'ordine e interpretare i vari log generati.
La tabella seguente fornisce un riepilogo di ogni passaggio nell'elaborazione di un ordine di importazione e degli strumenti disponibili per tenere traccia e controllare l'ordine durante il passaggio.
Fase dell'ordine di importazione Data Box | Strumento di traccia e controllo |
---|---|
Creare un ordine | Configurare il controllo di accesso nell'ordine tramite il controllo degli accessi in base al ruolo di Azure |
Ordine elaborato | Tenere traccia dell'ordine
|
Configurare il dispositivo | Accesso alle credenziali del dispositivo registrato nei log attività |
Copia dati nel dispositivo | Visualizzare i file di error.xml per la copia dei dati |
Preparare per la spedizione | Esaminare i file DBA o i file manifesto nel dispositivo |
Caricamento dati in Azure | Esaminare i log di copia per individuare gli errori durante il caricamento dei dati nel data center di Azure |
Cancellazione dei dati dal dispositivo | Visualizzare la catena di log di custodia, inclusi i log di controllo e la cronologia ordini |
Questo articolo descrive in dettaglio i vari meccanismi o strumenti disponibili per tenere traccia e controllare l'ordine di importazione di Data Box o Data Box Heavy. Le informazioni contenute in questo articolo si applicano sia agli ordini di importazione di Data Box che a Data Box Heavy. Nelle sezioni successive tutti i riferimenti a Data Box si applicano anche a Data Box Heavy.
Nota
Se le regole del firewall sono impostate nell'account di archiviazione per Data Box, potrebbe non essere possibile accedere ai log di copia dal portale di Azure usando COPY LOG PATH nel riquadro Panoramica. Per accedere ai log, modificare le impostazioni del firewall di archiviazione per consentire il sistema corrente o usare un sistema che si trova nella rete firewall.
Configurare il controllo di accesso nell'ordine
È possibile controllare chi può accedere all'ordine al momento della creazione dell'ordine. Configurare i ruoli di Azure in vari ambiti per controllare l'accesso all'ordine di Data Box. Un ruolo di Azure determina il tipo di accesso, ovvero lettura/scrittura, lettura e scrittura in un subset di operazioni.
I due ruoli che possono essere definiti per il servizio Azure Data Box sono:
- Lettore Data Box: ha accesso in sola lettura a uno o più ordini, come definito dall'ambito. Può visualizzare solo i dettagli di un ordine. Non può accedere ad altri dettagli correlati agli account di archiviazione o modificare i dettagli dell'ordine, ad esempio l'indirizzo e così via.
- Collaboratore Data Box: può creare un ordine per trasferire i dati a un determinato account di archiviazione se ha già accesso in scrittura a un account di archiviazione. Se non ha accesso a un account di archiviazione, non può nemmeno creare un ordine di Data Box per copiare i dati nell'account. Questo ruolo non definisce autorizzazioni correlate all'account di archiviazione, né concede l'accesso agli account di archiviazione.
Per limitare l'accesso a un ordine, è possibile:
- Assegnare un ruolo a livello di ordine. L'utente dispone solo delle autorizzazioni definite dai ruoli per interagire con tale ordine specifico di Data Box e nient'altro.
- Assegnare un ruolo a livello di gruppo di risorse. L'utente ha accesso a tutti gli ordini di Data Box all'interno di un gruppo di risorse.
Per altre informazioni sull'uso consigliato del controllo degli accessi in base al ruolo di Azure, vedere Procedure consigliate per il controllo degli accessi in base al ruolo di Azure.
Monitorare l'ordine
È possibile rilevare l'ordine tramite il portale di Azure e il sito Web del vettore di spedizione. I meccanismi seguenti sono disponibili per rilevare l'ordine di Data Box in qualsiasi momento:
Per rilevare l'ordine in cui il dispositivo si trova nel data center di Azure o nell'ambiente locale, passare a Ordine di Data Box > Panoramica nel portale di Azure.
Per rilevare l'ordine mentre il dispositivo è in transito, visitare il sito Web del vettore di spedizione regionale, ad esempio, sito Web UPS negli Stati Uniti. Specificare il numero di monitoraggio associato all'ordine.
Data Box invia anche notifiche tramite posta elettronica ogni volta che lo stato dell'ordine cambia in base agli indirizzi e-mail forniti al momento della creazione dell'ordine. Per un elenco di tutti gli stati dell'ordine di Data Box, vedere Visualizzare lo stato dell'ordine. Per modificare le impostazioni di notifica associate all'ordine, vedere Modificare i dettagli delle notifiche.
Eseguire query sui log attività durante la configurazione
Data Box arriva in locale in uno stato bloccato. È possibile usare le credenziali del dispositivo disponibili nel portale di Azure per l'ordine.
Quando viene configurato un Data Box, potrebbe essere necessario conoscere chi ha eseguito l'accesso alle credenziali del dispositivo. Per capire chi ha eseguito l'accesso al pannello Credenziali dispositivo, è possibile eseguire una query sui log attività. Qualsiasi azione che prevede l'accesso al pannello Dettagli dispositivo > Credenziali viene registrata nei log attività come azione
ListCredentials
.Ogni accesso a Data Box viene registrato in tempo reale. Tuttavia, queste informazioni sono disponibili solo nei log di controllo dopo il completamento dell'ordine.
Visualizzare il log degli errori durante la copia dei dati
Durante la copia dei dati in Data Box o Data Box Heavy, viene generato un file di errore in caso di problemi con i dati copiati.
Error.xml file
Assicurarsi che i processi di copia siano stati completati senza errori. Se si verificano errori durante il processo di copia, scaricare i log dalla pagina Connetti e copia.
- Se è stato copiato un file non allineato a 512 byte in una cartella del disco gestito in Data Box, il file non viene caricato come BLOB di pagine nell'account di archiviazione di staging. Verrà visualizzato un errore nei log. Rimuovere il file e copiare un file allineato su 512 byte.
- Se è stato copiato un VHDX o un disco rigido virtuale dinamico o un disco rigido virtuale diverso, nei log verrà visualizzato un errore. Questi tipi di file non sono supportati.
Di seguito è riportato un esempio di error.xml per errori diversi durante la copia in dischi gestiti.
<file error="ERROR_BLOB_OR_FILE_TYPE_UNSUPPORTED">\StandardHDD\testvhds\differencing-vhd-022019.vhd</file>
<file error="ERROR_BLOB_OR_FILE_TYPE_UNSUPPORTED">\StandardHDD\testvhds\dynamic-vhd-022019.vhd</file>
<file error="ERROR_BLOB_OR_FILE_TYPE_UNSUPPORTED">\StandardHDD\testvhds\insidefixedvhdx-022019.vhdx</file>
<file error="ERROR_BLOB_OR_FILE_TYPE_UNSUPPORTED">\StandardHDD\testvhds\insidediffvhd-022019.vhd</file>
Di seguito è riportato un esempio di error.xml per errori diversi durante la copia nei BLOB di pagine.
<file error="ERROR_BLOB_OR_FILE_SIZE_ALIGNMENT">\PageBlob512NotAligned\File100Bytes</file>
<file error="ERROR_BLOB_OR_FILE_SIZE_ALIGNMENT">\PageBlob512NotAligned\File786Bytes</file>
<file error="ERROR_BLOB_OR_FILE_SIZE_ALIGNMENT">\PageBlob512NotAligned\File513Bytes</file>
<file error="ERROR_BLOB_OR_FILE_SIZE_ALIGNMENT">\PageBlob512NotAligned\File10Bytes</file>
<file error="ERROR_BLOB_OR_FILE_SIZE_ALIGNMENT">\PageBlob512NotAligned\File500Bytes</file>
Di seguito è riportato un esempio di error.xml per errori diversi durante la copia in BLOB in blocchi.
<file error="ERROR_CONTAINER_OR_SHARE_NAME_LENGTH">\ab</file>
<file error="ERROR_CONTAINER_OR_SHARE_NAME_ALPHA_NUMERIC_DASH">\invalid dns name</file>
<file error="ERROR_CONTAINER_OR_SHARE_NAME_LENGTH">\morethan63charactersfortestingmorethan63charactersfortestingmorethan63charactersfortestingmorethan63charactersfortestingmorethan63charactersfortestingmorethan63charactersfortesting</file>
<file error="ERROR_CONTAINER_OR_SHARE_NAME_ALPHA_NUMERIC_DASH">\testdirectory-~!@#$%^&()_+{}</file>
<file error="ERROR_CONTAINER_OR_SHARE_NAME_ALPHA_NUMERIC_DASH">\test__doubleunderscore</file>
<file error="ERROR_CONTAINER_OR_SHARE_NAME_IMPROPER_DASH">\-startingwith-hyphen</file>
<file error="ERROR_CONTAINER_OR_SHARE_NAME_ALPHA_NUMERIC_DASH">\Starting with Capital</file>
<file error="ERROR_CONTAINER_OR_SHARE_NAME_ALPHA_NUMERIC_DASH">\_startingwith_underscore</file>
<file error="ERROR_CONTAINER_OR_SHARE_NAME_IMPROPER_DASH">\55555555--4444--3333--2222--111111111111</file>
<file error="ERROR_CONTAINER_OR_SHARE_NAME_LENGTH">\1</file>
<file error="ERROR_CONTAINER_OR_SHARE_NAME_ALPHA_NUMERIC_DASH">\11111111-_2222-_3333-_4444-_555555555555</file>
<file error="ERROR_CONTAINER_OR_SHARE_NAME_IMPROPER_DASH">\test--doublehyphen</file>
<file error="ERROR_BLOB_OR_FILE_NAME_CHARACTER_ILLEGAL" name_encoding="Base64">XEludmFsaWRVbmljb2RlRmlsZXNcU3BjQ2hhci01NTI5Ni3vv70=</file>
<file error="ERROR_BLOB_OR_FILE_NAME_CHARACTER_ILLEGAL" name_encoding="Base64">XEludmFsaWRVbmljb2RlRmlsZXNcU3BjQ2hhci01NTMwMS3vv70=</file>
<file error="ERROR_BLOB_OR_FILE_NAME_CHARACTER_ILLEGAL" name_encoding="Base64">XEludmFsaWRVbmljb2RlRmlsZXNcU3BjQ2hhci01NTMwMy3vv70=</file>
<file error="ERROR_BLOB_OR_FILE_NAME_CHARACTER_CONTROL">\InvalidUnicodeFiles\Ã.txt</file>
<file error="ERROR_BLOB_OR_FILE_NAME_CHARACTER_ILLEGAL" name_encoding="Base64">XEludmFsaWRVbmljb2RlRmlsZXNcU3BjQ2hhci01NTMwNS3vv70=</file>
<file error="ERROR_BLOB_OR_FILE_NAME_CHARACTER_ILLEGAL" name_encoding="Base64">XEludmFsaWRVbmljb2RlRmlsZXNcU3BjQ2hhci01NTI5OS3vv70=</file>
<file error="ERROR_BLOB_OR_FILE_NAME_CHARACTER_ILLEGAL" name_encoding="Base64">XEludmFsaWRVbmljb2RlRmlsZXNcU3BjQ2hhci01NTMwMi3vv70=</file>
<file error="ERROR_BLOB_OR_FILE_NAME_CHARACTER_ILLEGAL" name_encoding="Base64">XEludmFsaWRVbmljb2RlRmlsZXNcU3BjQ2hhci01NTMwNC3vv70=</file>
<file error="ERROR_BLOB_OR_FILE_NAME_CHARACTER_ILLEGAL" name_encoding="Base64">XEludmFsaWRVbmljb2RlRmlsZXNcU3BjQ2hhci01NTI5OC3vv70=</file>
<file error="ERROR_BLOB_OR_FILE_NAME_CHARACTER_ILLEGAL" name_encoding="Base64">XEludmFsaWRVbmljb2RlRmlsZXNcU3BjQ2hhci01NTMwMC3vv70=</file>
<file error="ERROR_BLOB_OR_FILE_NAME_CHARACTER_ILLEGAL" name_encoding="Base64">XEludmFsaWRVbmljb2RlRmlsZXNcU3BjQ2hhci01NTI5Ny3vv70=</file>
Di seguito è riportato un esempio di error.xml per errori diversi durante la copia in File di Azure.
<file error="ERROR_BLOB_OR_FILE_SIZE_LIMIT">\AzFileMorethan1TB\AzFile1.2TB</file>
<file error="ERROR_CONTAINER_OR_SHARE_NAME_ALPHA_NUMERIC_DASH">\testdirectory-~!@#$%^&()_+{}</file>
<file error="ERROR_CONTAINER_OR_SHARE_NAME_IMPROPER_DASH">\55555555--4444--3333--2222--111111111111</file>
<file error="ERROR_CONTAINER_OR_SHARE_NAME_IMPROPER_DASH">\-startingwith-hyphen</file>
<file error="ERROR_CONTAINER_OR_SHARE_NAME_ALPHA_NUMERIC_DASH">\11111111-_2222-_3333-_4444-_555555555555</file>
<file error="ERROR_CONTAINER_OR_SHARE_NAME_IMPROPER_DASH">\test--doublehyphen</file>
<file error="ERROR_CONTAINER_OR_SHARE_NAME_LENGTH">\ab</file>
<file error="ERROR_CONTAINER_OR_SHARE_NAME_ALPHA_NUMERIC_DASH">\invalid dns name</file>
<file error="ERROR_CONTAINER_OR_SHARE_NAME_ALPHA_NUMERIC_DASH">\test__doubleunderscore</file>
<file error="ERROR_CONTAINER_OR_SHARE_NAME_LENGTH">\morethan63charactersfortestingmorethan63charactersfortestingmorethan63charactersfortestingmorethan63charactersfortestingmorethan63charactersfortestingmorethan63charactersfortesting</file>
<file error="ERROR_CONTAINER_OR_SHARE_NAME_ALPHA_NUMERIC_DASH">\_startingwith_underscore</file>
<file error="ERROR_CONTAINER_OR_SHARE_NAME_LENGTH">\1</file>
<file error="ERROR_CONTAINER_OR_SHARE_NAME_ALPHA_NUMERIC_DASH">\Starting with Capital</file>
In ognuno dei casi precedenti risolvere gli errori prima di procedere con il passaggio successivo. Per altre informazioni sugli errori ricevuti durante la copia dei dati in Data Box tramite protocolli SMB o NFS, vedere Risolvere i problemi di Data Box e Data Box Heavy. Per informazioni sugli errori ricevuti durante la copia dei dati in Data Box tramite REST, vedere Risolvere i problemi di archiviazione BLOB di Data Box.
Ispezionare DBA durante la preparazione per la spedizione
Durante la preparazione alla spedizione, viene creato un elenco di file noti come distinta base o file manifesto.
- Usare questo file per verificare i nomi effettivi e il numero di file copiati in Data Box.
- Usare questo file per verificare le dimensioni effettive dei file.
- Verificare che crc64 corrisponda a una stringa diversa da zero.
Per altre informazioni sugli errori ricevuti durante la preparazione alla spedizione, vedere Risolvere i problemi di Data Box e Data Box Heavy.
DBA o file manifesto
Il file DBA o manifesto contiene l'elenco di tutti i file copiati nel dispositivo Data Box. Il file DBA ha nomi di file e dimensioni del file, e il checksum. Viene creato un file DBA separato per i DBA in blocchi, i DBA di pagine, File di Azure, per la copia tramite le API REST e per la copia in dischi gestiti in Data Box. È possibile scaricare i file DBA dall'interfaccia utente Web locale del dispositivo durante la preparazione per la spedizione.
Questi file si trovano anche nel dispositivo Data Box e vengono caricati nell'account di archiviazione associato nel data center di Azure.
Formato di file DBA
Il file DBA o manifesto ha il formato generale seguente:
<file size = "file-size-in-bytes" crc64="cyclic-redundancy-check-string">\folder-path-on-data-box\name-of-file-copied.md</file>
Ecco un esempio di manifesto generato quando i dati sono stati copiati nella condivisione BLOB in blocchi in Data Box.
<file size="10923" crc64="0x51c78833c90e4e3f">\databox\media\data-box-deploy-copy-data\connect-shares-file-explorer1.png</file>
<file size="15308" crc64="0x091a8b2c7a3bcf0a">\databox\media\data-box-deploy-copy-data\get-share-credentials2.png</file>
<file size="53486" crc64="0x053da912fb45675f">\databox\media\data-box-deploy-copy-data\nfs-client-access.png</file>
<file size="6093" crc64="0xadb61d0d7c6d4deb">\databox\data-box-cable-options.md</file>
<file size="6499" crc64="0x080add29add367d9">\databox\data-box-deploy-copy-data-via-nfs.md</file>
<file size="11089" crc64="0xc3ce6b13a4fe3001">\databox\data-box-deploy-copy-data-via-rest.md</file>
<file size="7749" crc64="0xd2e346a4588e307a">\databox\data-box-deploy-ordered.md</file>
<file size="14275" crc64="0x260296e5d1b1608a">\databox\data-box-deploy-copy-data.md</file>
<file size="4077" crc64="0x2bb0a170225bceec">\databox\data-box-deploy-picked-up.md</file>
<file size="15447" crc64="0xcec0ca8527720b3c">\databox\data-box-portal-admin.md</file>
<file size="9126" crc64="0x820856b5a54321ad">\databox\data-box-overview.md</file>
<file size="10963" crc64="0x5e9a14f9f4784fd8">\databox\data-box-safety.md</file>
<file size="5941" crc64="0x8631d62fbc038760">\databox\data-box-security.md</file>
<file size="12536" crc64="0x8c8ff93e73d665ec">\databox\data-box-system-requirements-rest.md</file>
<file size="3220" crc64="0x7257a263c434839a">\databox\data-box-system-requirements.md</file>
Anche i file DBA o manifesto vengono copiati nell'account di archiviazione di Azure. È possibile usare i file DBA o manifesto per verificare che i file caricati in Azure corrispondano ai dati copiati in Data Box.
Esaminare il log di copia durante il caricamento in Azure
Durante il caricamento dei dati in Azure, viene creato un log di copia.
Log di copia
Per ogni ordine elaborato, il servizio Data Box crea un log di copia nell'account di archiviazione associato. Il log di copia include il numero totale di file caricati e il numero di file che si sono verificati durante la copia dei dati da Data Box all'account di archiviazione di Azure.
Nota
Un calcolo CRC (Cyclic Redundancy Check) viene completato durante il caricamento in Azure. I CRC della copia dei dati e il caricamento dei dati vengono confrontati. Una mancata corrispondenza CRC indica che i file corrispondenti non sono stati caricati.
È possibile usare lo script dello strumento checksum CRC per confrontare i checksum dei dati di origine locali con i dati caricati in Azure. Lo script può essere scaricato da Esempi di Azure. Per altre informazioni, vedere file README.
Per impostazione predefinita, i log vengono scritti in un contenitore denominato copylog
. I log vengono archiviati con la convenzione di denominazione seguente:
storage-account-name/databoxcopylog/ordername_device-serial-number_CopyLog_guid.xml
.
Il percorso del log di copia viene visualizzato anche nel pannello Panoramica del portale.
Nota
Se le regole del firewall sono impostate nell'account di archiviazione per Data Box, potrebbe non essere possibile accedere ai log di copia dal portale di Azure usando COPY LOG PATH nel riquadro Panoramica. Per accedere ai log, modificare le impostazioni del firewall di archiviazione per consentire il sistema corrente o usare un sistema che si trova nella rete firewall.
Caricamento completato
L'esempio seguente descrive il formato generale di un log di copia per un caricamento di Data Box completato correttamente:
<?xml version="1.0"?>
-<CopyLog Summary="Summary">
<Status>Succeeded</Status>
<TotalFiles>45</TotalFiles>
<FilesErrored>0</FilesErrored>
</CopyLog>
Caricamento completato con avvisi
Il caricamento in Azure viene completato con avvisi se i dati hanno nomi di contenitori, BLOB o file non conformi alle convenzioni di denominazione di Azure e i nomi sono stati modificati per caricare i dati in Azure.
Di seguito è riportato un esempio di log di copia in cui i contenitori non conformi alle convenzioni di denominazione di Azure sono stati rinominati durante il caricamento dei dati in Azure.
I nomi univoci per i nuovi contenitori sono nel formato DataBox-GUID
. I dati dei contenitori originali vengono inseriti nei nuovi contenitori rinominati. Il log di copia specifica i nomi dei contenitori precedenti e nuovi.
<ErroredEntity Path="New Folder">
<Category>ContainerRenamed</Category>
<ErrorCode>1</ErrorCode>
<ErrorMessage>The original container/share/blob has been renamed to: DataBox-3fcd02de-bee6-471e-ac62-33d60317c576 :from: New Folder :because either the name has invalid character(s) or length is not supported</ErrorMessage>
<Type>Container</Type>
</ErroredEntity>
Di seguito è riportato un esempio di log di copia in cui i BLOB o i file non conformi alle convenzioni di denominazione di Azure sono stati rinominati durante il caricamento dei dati in Azure. I nuovi nomi di BLOB o file vengono convertiti nel digest SHA256 del percorso relativo nel contenitore e vengono caricati nel percorso in base al tipo di destinazione. La destinazione può essere BLOB in blocchi, BLOB di pagine o File di Azure.
Il copylog
specifica il nome precedente e il nuovo BLOB o file e il percorso in Azure.
<ErroredEntity Path="TesDir028b4ba9-2426-4e50-9ed1-8e89bf30d285\Ã">
<Category>BlobRenamed</Category>
<ErrorCode>1</ErrorCode>
<ErrorMessage>The original container/share/blob has been renamed to: PageBlob/DataBox-0xcdc5c61692e5d63af53a3cb5473e5200915e17b294683968a286c0228054f10e :from: Ã :because either name has invalid character(s) or length is not supported</ErrorMessage>
<Type>File</Type>
</ErroredEntity><ErroredEntity Path="TesDir9856b9ab-6acb-4bc3-8717-9a898bdb1f8c\Ã">
<Category>BlobRenamed</Category>
<ErrorCode>1</ErrorCode>
<ErrorMessage>The original container/share/blob has been renamed to: AzureFile/DataBox-0xcdc5c61692e5d63af53a3cb5473e5200915e17b294683968a286c0228054f10e :from: Ã :because either name has invalid character(s) or length is not supported</ErrorMessage>
<Type>File</Type>
</ErroredEntity><ErroredEntity Path="TesDirf92f6ca4-3828-4338-840b-398b967d810b\Ã">
<Category>BlobRenamed</Category>
<ErrorCode>1</ErrorCode>
<ErrorMessage>The original container/share/blob has been renamed to: BlockBlob/DataBox-0xcdc5c61692e5d63af53a3cb5473e5200915e17b294683968a286c0228054f10e :from: Ã :because either name has invalid character(s) or length is not supported</ErrorMessage>
<Type>File</Type>
</ErroredEntity>
Caricamento completato con errori
Il caricamento in Azure può anche essere completato con errori.
In alcuni casi è possibile che venga visualizzato un errore irreversibile che causa il caricamento di un file. In tal caso, si riceverà una notifica. Per informazioni su come eseguire il completamento della notifica, vedere Esaminare gli errori di copia nei caricamenti di dati dai dispositivi Azure Data Box e Azure Data Box Heavy.
Di seguito è riportato un esempio di log di copia in cui il caricamento è stato completato con errori:
<ErroredEntity Path="iso\samsungssd.iso">
<Category>UploadErrorCloudHttp</Category>
<ErrorCode>409</ErrorCode>
<ErrorMessage>The blob type is invalid for this operation.</ErrorMessage>
<Type>File</Type>
</ErroredEntity><ErroredEntity Path="iso\iSCSI_Software_Target_33.iso">
<Category>UploadErrorCloudHttp</Category>
<ErrorCode>409</ErrorCode>
<ErrorMessage>The blob type is invalid for this operation.</ErrorMessage>
<Type>File</Type>
</ErroredEntity><CopyLog Summary="Summary">
<Status>Failed</Status>
<TotalFiles_Blobs>72</TotalFiles_Blobs>
<FilesErrored>2</FilesErrored>
</CopyLog>
Ottenere la catena di log di custodia dopo la cancellazione dei dati
Dopo che i dati vengono cancellati dai dischi di Data Box in base alle linee guida NIST SP 800-88 Revision 1, è disponibile la catena di log di custodia. Questi log includono i log di controllo e la cronologia degli ordini. Anche i file DBA o manifesto vengono copiati con i log di controllo.
Log di controllo
I log di controllo contengono informazioni su come attivare e accedere alle condivisioni in Data Box o Data Box Heavy quando si trova all'esterno del data center di Azure. I log si trovano in: storage-account/azuredatabox-chainofcustodylogs
Di seguito è riportato un esempio di log di controllo di un Data Box:
9/10/2018 8:23:01 PM : The operating system started at system time 2018-09-10T20:23:01.497758400Z.
9/10/2018 8:23:42 PM : An account was successfully logged on.
Subject:
Security ID: S-1-5-18
Account Name: WIN-DATABOXADMIN
Account Domain: Workgroup
Logon ID: 0x3E7
Logon Information:
Logon Type: 3
Restricted Admin Mode: -
Virtual Account: No
Elevated Token: No
Impersonation Level: Impersonation
New Logon:
Security ID: S-1-5-7
Account Name: ANONYMOUS LOGON
Account Domain: NT AUTHORITY
Logon ID: 0x775D5
Linked Logon ID: 0x0
Network Account Name: -
Network Account Domain: -
Logon GUID: {00000000-0000-0000-0000-000000000000}
Process Information:
Process ID: 0x4
Process Name:
Network Information:
Workstation Name: -
Source Network Address: -
Source Port: -
Detailed Authentication Information:
Logon Process: NfsSvr
Authentication Package:MICROSOFT_AUTHENTICATION_PACKAGE_V1_0
Transited Services: -
Package Name (NTLM only): -
Key Length: 0
This event is generated when a logon session is created. It is generated on the computer that was accessed.
The subject fields indicate the account on the local system which requested the logon. This is most commonly a service such as the Server service, or a local process such as Winlogon.exe or Services.exe.
The logon type field indicates the kind of logon that occurred. The most common types are 2 (interactive) and 3 (network).
The New Logon fields indicate the account for whom the new logon was created, i.e. the account that was logged on.
The network fields indicate where a remote logon request originated. Workstation name is not always available and may be left blank in some cases.
The impersonation level field indicates the extent to which a process in the logon session can impersonate.
The authentication information fields provide detailed information about this specific logon request.
- Logon GUID is a unique identifier that can be used to correlate this event with a KDC event.
- Transited services indicate which intermediate services have participated in this logon request.
- Package name indicates which sub-protocol was used among the NTLM protocols.
- Key length indicates the length of the generated session key. This will be 0 if no session key was requested.
9/10/2018 8:25:58 PM : An account was successfully logged on.
Scaricare la cronologia ordini
La cronologia degli ordini è disponibile nel portale di Azure. Se l'ordine è completo e la pulizia del dispositivo (cancellazione dei dati dai dischi) è stata completata, andare all'ordine del dispositivo e andare a Dettagli ordine. L'opzione Scarica cronologia ordini è disponibile. Per altre informazioni, vedere Scaricare la cronologia degli ordini.
Se si scorre la cronologia degli ordini, viene visualizzato quanto segue:
- Informazioni di rilevamento del vettore di spedizione per il dispositivo.
- Eventi con l'attività SecureErase. Questi eventi corrispondono alla cancellazione dei dati sul disco.
- Collegamenti di log di Data Box. Vengono presentati i percorsi per i log di controllo, i log di copia e i file DBA.
Di seguito è riportato un esempio di log della cronologia degli ordini dal portale di Azure:
-------------------------------
Microsoft Data Box Order Report
-------------------------------
Name : gus-poland
StartTime(UTC) : 9/19/2018 8:49:23 AM +00:00
DeviceType : DataBox
-------------------
Data Box Activities
-------------------
Time(UTC) | Activity | Status | Description
9/19/2018 8:49:26 AM | OrderCreated | Completed |
10/2/2018 7:32:53 AM | DevicePrepared | Completed |
10/3/2018 1:36:43 PM | ShippingToCustomer | InProgress | Shipment picked up. Local Time : 10/3/2018 1:36:43 PM at AMSTERDAM-NLD
10/4/2018 8:23:30 PM | ShippingToCustomer | InProgress | Processed at AMSTERDAM-NLD. Local Time : 10/4/2018 8:23:30 PM at AMSTERDAM-NLD
10/4/2018 11:43:34 PM | ShippingToCustomer | InProgress | Departed Facility in AMSTERDAM-NLD. Local Time : 10/4/2018 11:43:34 PM at AMSTERDAM-NLD
10/5/2018 8:13:49 AM | ShippingToCustomer | InProgress | Arrived at Delivery Facility in BRIGHTON-GBR. Local Time : 10/5/2018 8:13:49 AM at LAMBETH-GBR
10/5/2018 9:13:24 AM | ShippingToCustomer | InProgress | With delivery courier. Local Time : 10/5/2018 9:13:24 AM at BRIGHTON-GBR
10/5/2018 12:03:04 PM | ShippingToCustomer | Completed | Delivered - Signed for by. Local Time : 10/5/2018 12:03:04 PM at BRIGHTON-GBR
1/25/2019 3:19:25 PM | ShippingToDataCenter | InProgress | Shipment picked up. Local Time : 1/25/2019 3:19:25 PM at BRIGHTON-GBR
1/25/2019 8:03:55 PM | ShippingToDataCenter | InProgress | Processed at BRIGHTON-GBR. Local Time : 1/25/2019 8:03:55 PM at LAMBETH-GBR
1/25/2019 8:04:58 PM | ShippingToDataCenter | InProgress | Departed Facility in BRIGHTON-GBR. Local Time : 1/25/2019 8:04:58 PM at BRIGHTON-GBR
1/25/2019 9:06:09 PM | ShippingToDataCenter | InProgress | Arrived at Sort Facility LONDON-HEATHROW-GBR. Local Time : 1/25/2019 9:06:09 PM at LONDON-HEATHROW-GBR
1/25/2019 9:48:54 PM | ShippingToDataCenter | InProgress | Processed at LONDON-HEATHROW-GBR. Local Time : 1/25/2019 9:48:54 PM at LONDON-HEATHROW-GBR
1/25/2019 10:30:20 PM | ShippingToDataCenter | InProgress | Departed Facility in LONDON-HEATHROW-GBR. Local Time : 1/25/2019 10:30:20 PM at LONDON-HEATHROW-GBR
1/28/2019 7:11:35 AM | ShippingToDataCenter | InProgress | Arrived at Delivery Facility in AMSTERDAM-NLD. Local Time : 1/28/2019 7:11:35 AM at AMSTERDAM-NLD
1/28/2019 9:07:57 AM | ShippingToDataCenter | InProgress | With delivery courier. Local Time : 1/28/2019 9:07:57 AM at AMSTERDAM-NLD
1/28/2019 1:35:56 PM | ShippingToDataCenter | InProgress | Scheduled for delivery. Local Time : 1/28/2019 1:35:56 PM at AMSTERDAM-NLD
1/28/2019 2:57:48 PM | ShippingToDataCenter | Completed | Delivered - Signed for by. Local Time : 1/28/2019 2:57:48 PM at AMSTERDAM-NLD
1/29/2019 2:18:43 PM | PhysicalVerification | Completed |
1/29/2019 3:49:50 PM | DeviceBoot | Completed | Appliance booted up successfully.
1/29/2019 3:49:51 PM | AnomalyDetection | Completed | No anomaly detected.
2/12/2019 10:37:03 PM | DataCopy | Resumed |
2/13/2019 12:05:15 AM | DataCopy | Resumed |
2/15/2019 7:07:34 PM | DataCopy | Completed | Copy Completed.
2/15/2019 7:47:32 PM | SecureErase | Started |
2/15/2019 8:01:10 PM | SecureErase | Completed | Azure Data Box:<Device-serial-no> has been sanitized according to NIST 800-88 Rev 1.
------------------
Data Box Log Links
------------------
Account Name : gusacct
Copy Logs Path : databoxcopylog/gus-poland_<Device-serial-no>_CopyLog_<GUID>.xml
Audit Logs Path : azuredatabox-chainofcustodylogs\<GUID>\<Device-serial-no>
BOM Files Path : azuredatabox-chainofcustodylogs\<GUID>\<Device-serial-no>
Passaggi successivi
- Informazioni su come risolvere i problemi relativi a Data Box e Data Box Heavy.