Condividi tramite


Risolvere i problemi relativi alle pipeline di Azure Data Factory e Synapse

SI APPLICA A: Azure Data Factory Azure Synapse Analytics

Suggerimento

Provare Data Factory in Microsoft Fabric, una soluzione di analisi all-in-one per le aziende. Microsoft Fabric copre tutto, dallo spostamento dati al data science, all'analisi in tempo reale, alla business intelligence e alla creazione di report. Vedere le informazioni su come iniziare una nuova prova gratuita!

Questo articolo illustra i metodi di risoluzione dei problemi comuni per le attività di controllo esterno nelle pipeline di Azure Data Factory e Synapse.

Connettore e attività di copia

Per i problemi del connettore, ad esempio un errore durante l'uso dell'attività di copia, vedere l'articolo Risolvere i problemi relativi ai connettori .

Azure Databricks

Codice errore: 3200

  • Messaggio: Errore 403.

  • Causa: The Databricks access token has expired.

  • Raccomandazione: per impostazione predefinita, il token di accesso di Azure Databricks è valido per 90 giorni. Creare un nuovo token e aggiornare il servizio collegato.

Codice errore: 3201

  • Messaggio: Missing required field: settings.task.notebook_task.notebook_path.

  • Causa: Bad authoring: Notebook path not specified correctly.

  • Raccomandazione: specificare il percorso del notebook nell'attività Databricks.


  • Messaggio: Cluster... does not exist.

  • Causa: Authoring error: Databricks cluster does not exist or has been deleted.

  • Raccomandazione: verificare che il cluster Databricks esista.


  • Messaggio: Invalid Python file URI... Please visit Databricks user guide for supported URI schemes.

  • Causa: Bad authoring.

  • Raccomandazione: specificare percorsi assoluti per gli schemi di indirizzamento dell'area di lavoro o dbfs:/folder/subfolder/foo.py per i file archiviati nel file system di Databricks (DFS).


  • Messaggio: {0} LinkedService should have domain and accessToken as required properties.

  • Causa: Bad authoring.

  • Raccomandazione: verificare la definizione del servizio collegato.


  • Messaggio: {0} LinkedService should specify either existing cluster ID or new cluster information for creation.

  • Causa: Bad authoring.

  • Raccomandazione: verificare la definizione del servizio collegato.


  • Messaggio: Node type Standard_D16S_v3 is not supported. Supported node types: Standard_DS3_v2, Standard_DS4_v2, Standard_DS5_v2, Standard_D8s_v3, Standard_D16s_v3, Standard_D32s_v3, Standard_D64s_v3, Standard_D3_v2, Standard_D8_v3, Standard_D16_v3, Standard_D32_v3, Standard_D64_v3, Standard_D12_v2, Standard_D13_v2, Standard_D14_v2, Standard_D15_v2, Standard_DS12_v2, Standard_DS13_v2, Standard_DS14_v2, Standard_DS15_v2, Standard_E8s_v3, Standard_E16s_v3, Standard_E32s_v3, Standard_E64s_v3, Standard_L4s, Standard_L8s, Standard_L16s, Standard_L32s, Standard_F4s, Standard_F8s, Standard_F16s, Standard_H16, Standard_F4s_v2, Standard_F8s_v2, Standard_F16s_v2, Standard_F32s_v2, Standard_F64s_v2, Standard_F72s_v2, Standard_NC12, Standard_NC24, Standard_NC6s_v3, Standard_NC12s_v3, Standard_NC24s_v3, Standard_L8s_v2, Standard_L16s_v2, Standard_L32s_v2, Standard_L64s_v2, Standard_L80s_v2.

  • Causa: Bad authoring.

  • Raccomandazione: fare riferimento al messaggio di errore.


Codice errore: 3202

  • Messaggio: There were already 1000 jobs created in past 3600 seconds, exceeding rate limit: 1000 job creations per 3600 seconds.

  • Causa: Too many Databricks runs in an hour.

  • Raccomandazione: controllare tutte le pipeline che usano questa area di lavoro di Databricks per la velocità di creazione del processo. Se le pipeline avviano troppe esecuzioni di Databricks aggregate, migrare alcune pipeline a una nuova area di lavoro.


  • Messaggio: Could not parse request object: Expected 'key' and 'value' to be set for JSON map field base_parameters, got 'key: "..."' instead.

  • Causa: Authoring error: No value provided for the parameter.

  • Raccomandazione: esaminare il codice JSON della pipeline e assicurarsi che tutti i parametri nel notebook baseParameters specifichino un valore non negativo.


  • Messaggio: User: 'SimpleUserContext{userId=..., name=user@company.com, orgId=...}' is not authorized to access cluster.

  • Causa: l'utente che ha generato il token di accesso non è autorizzato ad accedere al cluster Databricks specificato nel servizio collegato.

  • Raccomandazione: assicurarsi che l'utente disponga delle autorizzazioni necessarie nell'area di lavoro.


  • Messaggio: Job is not fully initialized yet. Please retry later.

  • Causa: il processo non è stato inizializzato.

  • Raccomandazione: attendere e riprovare più tardi.

Codice errore: 3203

  • Messaggio: The cluster is in Terminated state, not available to receive jobs. Please fix the cluster or retry later.

  • Causa: il cluster è stato terminato. In caso di cluster interattivi, il problema potrebbe essere una race condition.

  • Raccomandazione: per evitare questo errore, usare cluster di processi.

Codice errore: 3204

  • Messaggio: Job execution failed.

  • Causa: i messaggi di errore indicano vari problemi, ad esempio uno stato imprevisto del cluster o un'attività specifica. Spesso non vengono visualizzati messaggi di errore.

  • Raccomandazione: N/D

Codice errore: 3208

  • Messaggio: An error occurred while sending the request.

  • Causa: la connessione di rete al servizio Databricks è stata interrotta.

  • Raccomandazione: se si usa un runtime di integrazione self-hosted, assicurarsi che la connessione di rete sia affidabile dai nodi del runtime di integrazione. Se si usa il runtime di integrazione di Azure, in genere l'esecuzione di un nuovo tentativo funziona.

L'output dell'esecuzione booleana viene avviato come stringa anziché come previsto int

  • Sintomi: l'output dell'esecuzione booleana inizia a essere stringa (ad esempio, "0" o "1") invece di previsto int (ad esempio, 0 o 1).

    Screenshot della pipeline di Databricks.

    Questa modifica è stata notata il 28 settembre 2021 alle 9.00 circa quando la pipeline si basa su questo output ha avuto esito negativo. Non è stata apportata alcuna modifica alla pipeline e i dati di output booleani sono arrivati come previsto prima dell'errore.

    Screenshot della differenza nell'output.

  • Causa: questo problema è causato da una modifica recente, che è in fase di progettazione. Dopo la modifica, se il risultato è un numero che inizia con zero, Azure Data Factory convertirà il numero nel valore ottale, ovvero un bug. Questo numero è sempre 0 o 1, che non ha mai causato problemi prima della modifica. Per correggere la conversione ottale, l'output della stringa viene quindi passato dall'esecuzione del notebook così come è.

  • Raccomandazione: modificare la condizione if in un elemento simile if(value=="0")a .

Azure Data Lake Analytics.

La tabella seguente si riferisce a U-SQL.

Codice errore: 2709

  • Messaggio: The access token is from the wrong tenant.

  • Causa: tenant Microsoft Entra non corretto.

  • Raccomandazione: tenant Microsoft Entra non corretto.


  • Messaggio: We cannot accept your job at this moment. The maximum number of queued jobs for your account is 200.

  • Causa: questo errore è causato dalla limitazione in Data Lake Analytics.

  • Raccomandazione: ridurre il numero di processi inviati a Data Lake Analytics. Modificare i trigger e le impostazioni di concorrenza per le attività o aumentare i limiti per Data Lake Analytics.


  • Messaggio: This job was rejected because it requires 24 AUs. This account's administrator-defined policy prevents a job from using more than 5 AUs.

  • Causa: questo errore è causato dalla limitazione in Data Lake Analytics.

  • Raccomandazione: ridurre il numero di processi inviati a Data Lake Analytics. Modificare i trigger e le impostazioni di concorrenza per le attività o aumentare i limiti per Data Lake Analytics.

Codice errore: 2705

  • Messaggio: Forbidden. ACL verification failed. Either the resource does not exist or the user is not authorized to perform the requested operation.<br/> <br/> User is not able to access Data Lake Store. <br/> <br/> User is not authorized to use Data Lake Analytics.

  • Causa: l'entità servizio o il certificato non ha accesso al file nell'archiviazione.

  • Raccomandazione: verificare che l'entità servizio o il certificato fornito dall'utente per i processi di Data Lake Analytics abbia accesso sia all'account Data Lake Analytics che all'istanza predefinita di Data Lake Storage dalla cartella radice.

Codice errore: 2711

  • Messaggio: Forbidden. ACL verification failed. Either the resource does not exist or the user is not authorized to perform the requested operation.<br/> <br/> User is not able to access Data Lake Store. <br/> <br/> User is not authorized to use Data Lake Analytics.

  • Causa: l'entità servizio o il certificato non ha accesso al file nell'archiviazione.

  • Raccomandazione: verificare che l'entità servizio o il certificato fornito dall'utente per i processi di Data Lake Analytics abbia accesso sia all'account Data Lake Analytics che all'istanza predefinita di Data Lake Storage dalla cartella radice.


  • Messaggio: Cannot find the 'Azure Data Lake Store' file or folder.

  • Causa: il percorso del file U-SQL non è corretto o le credenziali del servizio collegato non hanno accesso.

  • Raccomandazione: verificare il percorso e le credenziali forniti nel servizio collegato.

Codice errore: 2704

  • Messaggio: Forbidden. ACL verification failed. Either the resource does not exist or the user is not authorized to perform the requested operation.<br/> <br/> User is not able to access Data Lake Store. <br/> <br/> User is not authorized to use Data Lake Analytics.

  • Causa: l'entità servizio o il certificato non ha accesso al file nell'archiviazione.

  • Raccomandazione: verificare che l'entità servizio o il certificato fornito dall'utente per i processi di Data Lake Analytics abbia accesso sia all'account Data Lake Analytics che all'istanza predefinita di Data Lake Storage dalla cartella radice.

Codice errore: 2707

  • Messaggio: Cannot resolve the account of AzureDataLakeAnalytics. Please check 'AccountName' and 'DataLakeAnalyticsUri'.

  • Causa: l'account Data Lake Analytics nel servizio collegato non è corretto.

  • Raccomandazione: verificare che venga fornito l'account corretto.

Codice errore: 2703

  • Messaggio: Error Id: E_CQO_SYSTEM_INTERNAL_ERROR (or any error that starts with "Error Id:").

  • Causa: l'errore proviene da Data Lake Analytics.

  • Raccomandazione: il processo è stato inviato a Data Lake Analytics e lo script non è riuscito. Cercare la causa in Data Lake Analytics. Accedere all'account Data Lake Analytics dal portale e cercare il processo usando l'ID di esecuzione attività di Data Factory (non usare l'ID di esecuzione della pipeline). Nel processo è possibile trovare più informazioni sull'errore per risolvere il problema.

    Se la soluzione non è chiara, contattare il team di supporto di Data Lake Analytics e fornire l'URL del processo, che contiene il nome dell'account e l'ID del processo.

Funzioni di Azure

Codice errore: 3602

  • Messaggio: Invalid HttpMethod: '%method;'.

  • Causa: il metodo Httpmethod specificato nel payload dell'attività non è supportato dall'attività della funzione di Azure.

  • Raccomandazione: i httpmethods supportati sono: PUT, POST, GET, DELETE, OPTIONS, HEAD e TRACE.

Codice errore: 3603

  • Messaggio: Response Content is not a valid JObject.

  • Causa: la funzione di Azure chiamata non ha restituito un payload JSON nella risposta. L'attività della funzione di Azure data factory e della pipeline synapse di Azure supporta solo il contenuto della risposta JSON.

  • Raccomandazione: aggiornare la funzione di Azure per restituire un payload JSON valido, ad esempio una funzione C#, può restituire (ActionResult)new OkObjectResult("{\"Id\":\"123\"}");

Codice errore: 3606

  • Messaggio: Chiave di funzione mancante dell'attività della funzione di Azure.

  • Causa: la definizione dell'attività della funzione di Azure non è completa.

  • Raccomandazione: verificare che la definizione JSON dell'attività della funzione di Azure di input abbia una proprietà denominata functionKey.

Codice errore: 3607

  • Messaggio: Azure function activity missing function name.

  • Causa: la definizione dell'attività della funzione di Azure non è completa.

  • Raccomandazione: verificare che la definizione JSON dell'attività della funzione di Azure di input abbia una proprietà denominata functionName.

Codice errore: 3608

  • Messaggio: Call to provided Azure function '%FunctionName;' failed with status-'%statusCode;' and message - '%message;'.

  • Causa: i dettagli della funzione di Azure nella definizione dell'attività potrebbero non essere corretti.

  • Raccomandazione: correggere i dettagli della funzione di Azure e riprovare.

Codice errore: 3609

  • Messaggio: Azure function activity missing functionAppUrl.

  • Causa: la definizione dell'attività della funzione di Azure non è completa.

  • Raccomandazione: verificare che la definizione JSON dell'attività della funzione di Azure di input abbia una proprietà denominata functionAppUrl.

Codice errore: 3610

  • Messaggio: There was an error while calling endpoint.

  • Causa: l'URL della funzione potrebbe non essere corretto.

  • Raccomandazione: verificare che il valore per functionAppUrl in JSON dell'attività sia corretto e riprovare.

Codice errore: 3611

  • Messaggio: Azure function activity missing Method in JSON.

  • Causa: la definizione dell'attività della funzione di Azure non è completa.

  • Raccomandazione: verificare che la definizione JSON dell'attività della funzione di Azure di input abbia una proprietà denominata method.

Codice errore: 3612

  • Messaggio: Azure function activity missing LinkedService definition in JSON.

  • Causa: la definizione dell'attività della funzione di Azure non è completa.

  • Raccomandazione: verificare che la definizione JSON dell'attività della funzione di Azure di input abbia i dettagli del servizio collegato.

Azure Machine Learning

Codice errore: 4101

  • Messaggio: AzureMLExecutePipeline activity '%activityName;' has invalid value for property '%propertyName;'.

  • Causa: formato non valido o definizione mancante della proprietà %propertyName;.

  • Raccomandazione: controllare se l'attività %activityName; ha la proprietà %propertyName; definita con i dati corretti.

Codice errore: 4110

  • Messaggio: AzureMLExecutePipeline activity missing LinkedService definition in JSON.

  • Causa: la definizione dell'attività AzureMLExecutePipeline non è completa.

  • Raccomandazione: verificare che la definizione JSON dell'attività AzureMLExecutePipeline di input abbia correttamente i dettagli del servizio collegato.

Codice errore: 4111

  • Messaggio: AzureMLExecutePipeline activity has wrong LinkedService type in JSON. Expected LinkedService type: '%expectedLinkedServiceType;', current LinkedService type: Expected LinkedService type: '%currentLinkedServiceType;'.

  • Causa: definizione di attività non corretta.

  • Raccomandazione: verificare che la definizione JSON dell'attività AzureMLExecutePipeline di input abbia correttamente i dettagli del servizio collegato.

Codice errore: 4112

  • Messaggio: AzureMLService linked service has invalid value for property '%propertyName;'.

  • Causa: formato non valido o definizione mancante della proprietà '%propertyName;'.

  • Raccomandazione: controllare se il servizio collegato ha la proprietà %propertyName; definita con i dati corretti.

Codice errore: 4121

  • Messaggio: Request sent to Azure Machine Learning for operation '%operation;' failed with http status code '%statusCode;'. Error message from Azure Machine Learning: '%externalMessage;'.

  • Causa: le credenziali usate per accedere ad Azure Machine Learning sono scadute.

  • Raccomandazione: verificare che le credenziali siano valide e riprovare.

Codice errore: 4122

  • Messaggio: Request sent to Azure Machine Learning for operation '%operation;' failed with http status code '%statusCode;'. Error message from Azure Machine Learning: '%externalMessage;'.

  • Causa: le credenziali fornite nel servizio collegato di Azure Machine Learning non sono valide o non dispongono dell'autorizzazione per l'operazione.

  • Raccomandazione: verificare che le credenziali nel servizio collegato siano valide e disponga dell'autorizzazione per accedere ad Azure Machine Learning.

Codice errore: 4123

  • Messaggio: Request sent to Azure Machine Learning for operation '%operation;' failed with http status code '%statusCode;'. Error message from Azure Machine Learning: '%externalMessage;'.

  • Causa: le proprietà dell'attività, pipelineParameters ad esempio, non sono valide per la pipeline di Azure Machine Learning (ML).

  • Raccomandazione: verificare che il valore delle proprietà dell'attività corrisponda al payload previsto della pipeline di Azure Machine Learning pubblicata specificata in Servizio collegato.

Codice errore: 4124

  • Messaggio: Request sent to Azure Machine Learning for operation '%operation;' failed with http status code '%statusCode;'. Error message from Azure Machine Learning: '%externalMessage;'.

  • Causa: l'endpoint della pipeline di Azure Machine Learning pubblicato non esiste.

  • Raccomandazione: verificare che l'endpoint della pipeline di Azure Machine Learning pubblicato specificato nel servizio collegato esista in Azure Machine Learning.

Codice errore: 4125

  • Messaggio: Request sent to Azure Machine Learning for operation '%operation;' failed with http status code '%statusCode;'. Error message from Azure Machine Learning: '%externalMessage;'.

  • Causa: si verifica un errore del server in Azure Machine Learning.

  • Raccomandazione: riprovare più tardi. Se il problema persiste, contattare il team di Azure Machine Learning.

Codice errore: 4126

  • Messaggio: Azure ML pipeline run failed with status: '%amlPipelineRunStatus;'. Azure ML pipeline run Id: '%amlPipelineRunId;'. Please check in Azure Machine Learning for more error logs.

  • Causa: l'esecuzione della pipeline di Azure Machine Learning non è riuscita.

  • Raccomandazione: controllare la presenza di altri log degli errori in Azure Machine Learning e quindi correggere la pipeline di Machine Learning.

Azure Synapse Analytics

Codice errore: 3250

  • Messaggio: There are not enough resources available in the workspace, details: '%errorMessage;'

  • Causa: risorse insufficienti

  • Raccomandazione: provare a terminare i processi in esecuzione nell'area di lavoro, riducendo il numero di vCore richiesti, aumentando la quota dell'area di lavoro o usando un'altra area di lavoro.

Codice errore: 3251

  • Messaggio: There are not enough resources available in the pool, details: '%errorMessage;'

  • Causa: risorse insufficienti

  • Raccomandazione: provare a terminare i processi in esecuzione nel pool, riducendo il numero di vCore richiesti, aumentando le dimensioni massime del pool o usando un altro pool.

Codice errore: 3252

  • Messaggio: There are not enough vcores available for your spark job, details: '%errorMessage;'

  • Causa: core virtuali insufficienti

  • Raccomandazione: provare a ridurre il numero di vCore richiesti o ad aumentare la quota di vCore. Per altre informazioni, vedere Concetti di base di Apache Spark.

Codice errore: 3253

  • Messaggio: There are substantial concurrent MappingDataflow executions which is causing failures due to throttling under the Integration Runtime used for ActivityId: '%activityId;'.

  • Causa: è stata raggiunta la soglia di limitazione.

  • Raccomandazione: ripetere la richiesta dopo un periodo di attesa.

Codice errore: 3254

  • Messaggio: AzureSynapseArtifacts linked service has invalid value for property '%propertyName;'.

  • Causa: formato non valido o definizione mancante della proprietà '%propertyName;'.

  • Raccomandazione: controllare se il servizio collegato ha la proprietà '%propertyName;' definita con i dati corretti.

Comune

Codice errore: 2103

  • Messaggio: Please provide value for the required property '%propertyName;'.

  • Causa: il valore obbligatorio per la proprietà non è stato specificato.

  • Raccomandazione: specificare il valore del messaggio e riprovare.

Codice errore: 2104

  • Messaggio: The type of the property '%propertyName;' is incorrect.

  • Causa: il tipo di proprietà specificato non è corretto.

  • Raccomandazione: correggere il tipo della proprietà e riprovare.

Codice errore: 2105

  • Messaggio: An invalid json is provided for property '%propertyName;'. Encountered an error while trying to parse: '%message;'.

  • Causa: il valore della proprietà non è valido o non è nel formato previsto.

  • Raccomandazione: fare riferimento alla documentazione per la proprietà e verificare che il valore fornito includa il formato e il tipo corretti.

Codice errore: 2106

  • Messaggio: The storage connection string is invalid. %errorMessage;

  • Causa: il stringa di connessione per l'archiviazione non è valido o ha un formato non corretto.

  • Raccomandazione: passare al portale di Azure e trovare la risorsa di archiviazione, quindi copiare e incollare il stringa di connessione nel servizio collegato e riprovare.

Codice errore: 2110

  • Messaggio: The linked service type '%linkedServiceType;' is not supported for '%executorType;' activities.

  • Causa: il servizio collegato specificato nell'attività non è corretto.

  • Raccomandazione: verificare che il tipo di servizio collegato sia uno dei tipi supportati per l'attività. Ad esempio, il tipo di servizio collegato per le attività HDI può essere HDInsight o HDInsightOnDemand.

Codice errore: 2111

  • Messaggio: The type of the property '%propertyName;' is incorrect. The expected type is %expectedType;.

  • Causa: il tipo della proprietà specificata non è corretto.

  • Raccomandazione: correggere il tipo di proprietà e riprovare.

Codice errore: 2112

  • Messaggio: The cloud type is unsupported or could not be determined for storage from the EndpointSuffix '%endpointSuffix;'.

  • Causa: il tipo di cloud non è supportato o non è stato possibile determinare per l'archiviazione da EndpointSuffix.

  • Raccomandazione: usare l'archiviazione in un altro cloud e riprovare.

Personalizzazione

La tabella seguente si applica a Azure Batch.

Codice errore: 2500

  • Messaggio: Hit unexpected exception and execution failed.

  • Causa: Can't launch command, or the program returned an error code.

  • Raccomandazione: assicurarsi che il file eseguibile esista. Se il programma si è avviato, verificare che stdout.txt e stderr.txt siano stati caricati nell'account di archiviazione. È consigliabile includere i log nel codice per il debug.

Codice errore: 2501

  • Messaggio: Cannot access user batch account; please check batch account settings.

  • Causa: chiave di accesso batch o nome pool non corretti.

  • Raccomandazione: verificare il nome del pool e la chiave di accesso batch nel servizio collegato.

Codice errore: 2502

  • Messaggio: Cannot access user storage account; please check storage account settings.

  • Causa: nome o chiave di accesso dell'account di archiviazione non corretto.

  • Raccomandazione: verificare il nome dell'account di archiviazione e la chiave di accesso nel servizio collegato.

Codice errore: 2504

  • Messaggio: Operation returned an invalid status code 'BadRequest'.

  • Causa: troppi file nell'oggetto folderPath dell'attività personalizzata. resourceFiles non può contenere più di 32.768 caratteri.

  • Raccomandazione: rimuovere i file non necessari o comprimerli e aggiungere un comando di decompressione per estrarli.

    Ad esempio, usare powershell.exe -nologo -noprofile -command "& { Add-Type -A 'System.IO.Compression.FileSystem'; [IO.Compression.ZipFile]::ExtractToDirectory($zipFile, $folder); }" ; $folder\yourProgram.exe

Codice errore: 2505

  • Messaggio: Cannot create Shared Access Signature unless Account Key credentials are used.

  • Causa: le attività personalizzate supportano solo gli account di archiviazione che usano una chiave di accesso.

  • Raccomandazione: fare riferimento alla descrizione dell'errore.

Codice errore: 2507

  • Messaggio: The folder path does not exist or is empty: ...

  • Causa: nessun file si trova nell'account di archiviazione nel percorso specificato.

  • Raccomandazione: il percorso della cartella deve contenere i file eseguibili da eseguire.

Codice errore: 2508

  • Messaggio: There are duplicate files in the resource folder.

  • Causa: più file con lo stesso nome si trovano in sottocartelle diverse di folderPath.

  • Raccomandazione: le attività personalizzate appiattino la struttura delle cartelle in folderPath. Se è necessario mantenere la struttura di cartelle, comprimere i file ed estrarli in Azure Batch usando un comando di decompressione.

    Ad esempio, usare powershell.exe -nologo -noprofile -command "& { Add-Type -A 'System.IO.Compression.FileSystem'; [IO.Compression.ZipFile]::ExtractToDirectory($zipFile, $folder); }" ; $folder\yourProgram.exe

Codice errore: 2509

  • Messaggio: Batch url ... is invalid; it must be in Uri format.

  • Causa: gli URL di Batch devono essere simili a https://mybatchaccount.eastus.batch.azure.com

  • Raccomandazione: fare riferimento alla descrizione dell'errore.

Codice errore: 2510

  • Messaggio: An error occurred while sending the request.

  • Causa: l'URL del batch non è valido.

  • Raccomandazione: verificare l'URL del batch.

HDInsight

Codice errore: 206

  • Messaggio: The batch ID for Spark job is invalid. Please retry your job.

  • Causa: si è verificato un problema interno con il servizio che ha causato questo errore.

  • Raccomandazione: questo problema potrebbe essere temporaneo. Riprovare il processo dopo qualche minuto.

Codice errore: 207

  • Messaggio: Could not determine the region from the provided storage account. Please try using another primary storage account for the on demand HDI.

  • Causa: si è verificato un errore interno durante il tentativo di determinare l'area dall'account di archiviazione primario.

  • Raccomandazione: provare un'altra risorsa di archiviazione.

Codice errore: 208

  • Messaggio: Service Principal or the MSI authenticator are not instantiated. Please consider providing a Service Principal in the HDI on demand linked service which has permissions to create an HDInsight cluster in the provided subscription and try again.

  • Causa: si è verificato un errore interno durante il tentativo di leggere l'entità servizio o di creare un'istanza dell'autenticazione MSI.

  • Raccomandazione: provare a fornire un'entità servizio, che dispone delle autorizzazioni per creare un cluster HDInsight nella sottoscrizione fornita e riprovare. Verificare che le identità gestite siano configurate correttamente.

Codice errore: 2300

  • Messaggio: Failed to submit the job '%jobId;' to the cluster '%cluster;'. Error: %errorMessage;.

  • Causa: il messaggio di errore contiene un messaggio simile a The remote name could not be resolved.. L'URI cluster fornito potrebbe non essere valido.

  • Raccomandazione: verificare che il cluster non sia stato eliminato e che l'URI specificato sia corretto. Quando si apre l'URI in un browser, dovrebbe essere visualizzata interfaccia utente di Ambari. Se il cluster si trova in una rete virtuale, l'URI dovrebbe essere privato. Per aprirlo, usare una macchina virtuale all'interno della stessa rete virtuale.

    Per altre informazioni, vedere Connettersi direttamente ai servizi Apache Hadoop.


  • Causa: se il messaggio di errore contiene un messaggio simile a A task was canceled., si è verificato il timeout dell'invio del processo.

  • Raccomandazione: il problema potrebbe essere la connettività generale di HDInsight o la connettività di rete. Per prima cosa, verificare che l'interfaccia utente di HDInsight Ambari sia disponibile in qualsiasi browser. In seguito, controllare che le credenziali siano ancora valide.

    Se si usa un runtime di integrazione self-hosted, procedere come segue usando la macchina virtuale o il computer in cui è installato il runtime. Provare quindi a inviare di nuovo il processo.

    Per altre informazioni, vedere Interfaccia utente Web Ambari.


  • Causa: quando il messaggio di errore contiene un messaggio simile a User admin is locked out in Ambari o Unauthorized: Ambari user name or password is incorrect, le credenziali per HDInsight non sono corrette o sono scadute.

  • Raccomandazione: correggere le credenziali e ridistribuire il servizio collegato. Verificare prima di tutto che le credenziali funzionino in HDInsight aprendo l'URI del cluster in qualsiasi browser e tentando di eseguire l'accesso. Se le credenziali non funzionano, è possibile reimpostarle nel portale di Azure.

    Se si usa un cluster ESP, reimpostare la password con Reimpostazione password self-service.


  • Causa: quando il messaggio di errore contiene un messaggio simile a 502 - Web server received an invalid response while acting as a gateway or proxy server, questo errore viene restituito dal servizio HDInsight.

  • Raccomandazione: spesso si verifica un errore 502 quando il processo del server Ambari è stato arrestato. È possibile riavviare i servizi Ambari riavviando il nodo head.

    1. Connettersi a uno dei nodi su HDInsight tramite SSH.

    2. Identificare l'host del nodo head attivo eseguendo ping headnodehost.

    3. Quando il server Ambari si trova sul nodo, connettersi al nodo head attivo tramite SSH.

    4. Riavviare il nodo head attivo.

      Per altre informazioni, vedere la documentazione sulla risoluzione dei problemi di Microsoft Azure HDInsight. Ad esempio:


  • Causa: quando il messaggio di errore contiene un messaggio simile a Unable to service the submit job request as templeton service is busy with too many submit job requests o Queue root.joblauncher already has 500 applications, cannot accept submission of application, troppi processi vengono inviati contemporaneamente a HDInsight.

  • Raccomandazione: limitare il numero di processi simultanei inviati a HDInsight. Fare riferimento alla concorrenza delle attività se i processi vengono inviati dalla stessa attività. Modificare i trigger in modo che le esecuzioni simultanee della pipeline vengano distribuite nel tempo.

    Vedere la documentazione di HDInsight per configurare templeton.parallellism.job.submit come suggerito dall'errore.

Codice errore: 2301

  • Messaggio: Could not get the status of the application '%physicalJobId;' from the HDInsight service. Received the following error: %message;. Please refer to HDInsight troubleshooting documentation or contact their support for further assistance.

  • Causa: il cluster o il servizio HDInsight presenta problemi.

  • Raccomandazione: questo errore si verifica quando il servizio non riceve una risposta dal cluster HDInsight quando tenta di richiedere lo stato del processo in esecuzione. Questo problema potrebbe essere dovuto al cluster stesso oppure a un'interruzione del servizio HDInsight.

    Per altre informazioni, vedere la documentazione sulla risoluzione dei problemi di HDInsight oppure contattare il supporto tecnico Microsoft.

Codice errore: 2302

  • Messaggio: Hadoop job failed with exit code '%exitCode;'. See '%logPath;/stderr' for more details. Alternatively, open the Ambari UI on the HDI cluster and find the logs for the job '%jobId;'. Contact HDInsight team for further support.

  • Causa: il processo è stato inviato al cluster HDI e non è riuscito.

  • Raccomandazione:

  1. Controllare l'interfaccia utente di Ambari:
    1. Verificare che tutti i servizi siano ancora in esecuzione.
    2. Nell'interfaccia utente di Ambari, controllare la sezione degli avvisi della dashboard.
      1. Per altre informazioni su avvisi e relative soluzioni, vedere Gestione e monitoraggio di un cluster.
    3. Controllare la memoria YARN. Se l'uso di memoria YARN è alto, l'elaborazione dei processi potrebbe subire ritardi. Se le risorse disponibili non sono sufficienti per gestire l'applicazione o il processo Spark, aumentare il numero di istanze del cluster per garantire che il cluster abbia memoria e core sufficienti.
  2. Eseguire un processo di esempio.
    1. Se si esegue lo stesso processo nel back-end HDInsight, verificare che sia stato completato. Per esempi di esecuzione, vedere Eseguire gli esempi di MapReduce inclusi in HDInsight
  3. Se il processo non è ancora riuscito in HDInsight, controllare i log e le informazioni dell'applicazione da fornire al supporto tecnico:
    1. Controllare se il processo è stato inviato a YARN. In caso contrario, usare --master yarn.
    2. Se l'esecuzione dell'applicazione è stata completata, recuperare ora di inizio e di fine dell'applicazione YARN. Se l'esecuzione dell'applicazione non è stata completata, recuperare l'ora di inizio/avvio.
    3. Esaminare e recuperare il registro applicazioni con yarn logs -applicationId <Insert_Your_Application_ID>.
    4. Esaminare e recuperare i log di YARN Resource Manager nella directory /var/log/hadoop-yarn/yarn.
    5. Se questa procedura non risolve il problema, contattare il team Microsoft Azure HDInsight per supporto e fornire i log indicati con le indicazioni su data e ora.

Codice errore: 2303

  • Messaggio: Hadoop job failed with transient exit code '%exitCode;'. See '%logPath;/stderr' for more details. Alternatively, open the Ambari UI on the HDI cluster and find the logs for the job '%jobId;'. Try again or contact HDInsight team for further support.

  • Causa: il processo è stato inviato al cluster HDI e non è riuscito.

  • Raccomandazione:

  1. Controllare l'interfaccia utente di Ambari:
    1. Verificare che tutti i servizi siano ancora in esecuzione.
    2. Nell'interfaccia utente di Ambari, controllare la sezione degli avvisi della dashboard.
      1. Per altre informazioni su avvisi e relative soluzioni, vedere Gestione e monitoraggio di un cluster.
    3. Controllare la memoria YARN. Se l'uso di memoria YARN è alto, l'elaborazione dei processi potrebbe subire ritardi. Se le risorse disponibili non sono sufficienti per gestire l'applicazione o il processo Spark, aumentare il numero di istanze del cluster per garantire che il cluster abbia memoria e core sufficienti.
  2. Eseguire un processo di esempio.
    1. Se si esegue lo stesso processo nel back-end HDInsight, verificare che sia stato completato. Per esempi di esecuzione, vedere Eseguire gli esempi di MapReduce inclusi in HDInsight
  3. Se il processo non è ancora riuscito in HDInsight, controllare i log e le informazioni dell'applicazione da fornire al supporto tecnico:
    1. Controllare se il processo è stato inviato a YARN. In caso contrario, usare --master yarn.
    2. Se l'esecuzione dell'applicazione è stata completata, recuperare ora di inizio e di fine dell'applicazione YARN. Se l'esecuzione dell'applicazione non è stata completata, recuperare l'ora di inizio/avvio.
    3. Esaminare e recuperare il registro applicazioni con yarn logs -applicationId <Insert_Your_Application_ID>.
    4. Esaminare e recuperare i log di YARN Resource Manager nella directory /var/log/hadoop-yarn/yarn.
    5. Se questa procedura non risolve il problema, contattare il team Microsoft Azure HDInsight per supporto e fornire i log indicati con le indicazioni su data e ora.

Codice errore: 2304

  • Messaggio: MSI authentication is not supported on storages for HDI activities.

  • Causa: i servizi collegati di archiviazione usati nel servizio collegato HDInsight (HDI) o nell'attività HDI vengono configurati con un'autenticazione MSI non supportata.

  • Raccomandazione: fornire stringa di connessione completi per gli account di archiviazione usati nel servizio collegato HDI o nell'attività HDI.

Codice errore: 2305

  • Messaggio: Failed to initialize the HDInsight client for the cluster '%cluster;'. Error: '%message;'

  • Causa: le informazioni di connessione per il cluster HDI non sono corrette, l'utente specificato non dispone delle autorizzazioni necessarie per eseguire l'azione richiesta oppure il servizio HDInsight presenta problemi durante la risposta alle richieste del servizio.

  • Raccomandazione: verificare che le informazioni utente siano corrette e che l'interfaccia utente di Ambari per il cluster HDI possa essere aperta in un browser dalla macchina virtuale in cui è installato il runtime di integrazione (per un runtime di integrazione self-hosted) o può essere aperta da qualsiasi computer (per Azure IR).

Codice errore: 2306

  • Messaggio: An invalid json is provided for script action '%scriptActionName;'. Error: '%message;'

  • Causa: il codice JSON fornito per l'azione script non è valido.

  • Raccomandazione: il messaggio di errore deve essere utile per identificare il problema. Correggere la configurazione JSON e riprovare.

    Per altre informazioni vedere Servizio collegato Azure HDInsight su richiesta.

Codice errore: 2310

  • Messaggio: Failed to submit Spark job. Error: '%message;'

  • Causa: il servizio ha tentato di creare un batch in un cluster Spark usando l'API Livy (livy/batch), ma ha ricevuto un errore.

  • Raccomandazione: seguire il messaggio di errore per risolvere il problema. Se non sono disponibili informazioni sufficienti per risolverle, contattare il team HDI e fornire loro l'ID batch e l'ID processo, disponibili nell'output dell'esecuzione dell'attività nella pagina Monitoraggio del servizio. Per una risoluzione dei problemi più approfondita, recuperare il log completo del processo batch.

    Per altre informazioni su come recuperare il log completo, vedere Ottenere il log completo di un processo batch.

Codice errore: 2312

  • Messaggio: Spark job failed, batch id:%batchId;. Please follow the links in the activity run Output from the service Monitoring page to troubleshoot the run on HDInsight Spark cluster. Please contact HDInsight support team for further assistance.

  • Causa: il processo non è riuscito nel cluster HDInsight Spark.

  • Raccomandazione: seguire i collegamenti nell'output dell'esecuzione dell'attività nella pagina monitoraggio del servizio per risolvere i problemi di esecuzione nel cluster HDInsight Spark. Contattare il team di supporto di HDInsight per ricevere assistenza.

    Per altre informazioni su come recuperare il log completo, vedere Ottenere il log completo di un processo batch.

Codice errore: 2313

  • Messaggio: The batch with ID '%batchId;' was not found on Spark cluster. Open the Spark History UI and try to find it there. Contact HDInsight support for further assistance.

  • Causa: il batch è stato eliminato nel cluster HDInsight Spark.

  • Raccomandazione: risolvere i problemi dei batch nel cluster HDInsight Spark. Contattare l'assistenza di HDInsight per richiedere supporto.

    Per altre informazioni su come raccogliere il log completo, vedere Ottenere il log completo di un processo batch e condividere il log completo con il supporto di HDInsight per un'assistenza più approfondita.

Codice errore: 2328

  • Messaggio: Failed to create the on demand HDI cluster. Cluster or linked service name: '%clusterName;', error: '%message;'

  • Causa: il messaggio di errore dovrebbe mostrare i dettagli di ciò che è andato storto.

  • Raccomandazione: il messaggio di errore dovrebbe aiutare a risolvere il problema.

Codice errore: 2329

  • Messaggio: Failed to delete the on demand HDI cluster. Cluster or linked service name: '%clusterName;', error: '%message;'

  • Causa: il messaggio di errore dovrebbe mostrare i dettagli di ciò che è andato storto.

  • Raccomandazione: il messaggio di errore dovrebbe aiutare a risolvere il problema.

Codice errore: 2331

  • Messaggio: The file path should not be null or empty.

  • Causa: il percorso del file specificato è vuoto.

  • Raccomandazione: specificare un percorso per un file esistente.

Codice errore: 2340

  • Messaggio: HDInsightOnDemand linked service does not support execution via SelfHosted IR. Your IR name is '%IRName;'. Please select an Azure IR instead.

  • Causa: il servizio collegato HDInsightOnDemand non supporta l'esecuzione tramite il runtime di integrazione SelfHosted.

  • Raccomandazione: selezionare un runtime di integrazione di Azure e riprovare.

Codice errore: 2341

  • Messaggio: HDInsight cluster URL '%clusterUrl;' is incorrect, it must be in URI format and the scheme must be 'https'.

  • Causa: l'URL specificato non è in formato corretto.

  • Raccomandazione: correggere l'URL del cluster e riprovare.

Codice errore: 2342

  • Messaggio: Failed to connect to HDInsight cluster: '%errorMessage;'.

  • Causa: le credenziali specificate non sono errate per il cluster o si è verificato un problema di configurazione o connessione di rete oppure il runtime di integrazione presenta problemi di connessione al cluster.

  • Raccomandazione:

    1. verificare che le credenziali siano corrette aprendo l'interfaccia utente di Ambari per il cluster HDInsight in un browser.

    2. Se il cluster si trova in Rete virtuale (rete virtuale) e viene usato un runtime di integrazione self-hosted, l'URL HDI deve essere l'URL privato nelle reti virtuali e deve essere -int elencato dopo il nome del cluster.

      Puoi ad esempio modificare https://mycluster.azurehdinsight.net/ in https://mycluster-int.azurehdinsight.net/. Notare -int dopo mycluster, ma prima di .azurehdinsight.net

    3. Se il cluster si trova nella VNet, si usa il runtime di integrazione self-hosted e l'URL privato e si verificano ancora problemi di connessione, la macchina virtuale in cui è installato il runtime di integrazione non riesce a connettersi a HDI.

      Collegarsi alla macchina virtuale in cui è installato il runtime di integrazione e aprire l'interfaccia utente di Ambari in un browser. Per il cluster, usare l'URL privato. Dal browser la connessione dovrebbe funzionare. In caso contrario, contattare il team di supporto HDInsight per ricevere assistenza.

    4. Se non si usa un runtime di integrazione self-hosted, dovrebbe essere possibile accedere pubblicamente al cluster HDI. Aprire l'interfaccia utente di Ambari in un browser e verificare che si apra correttamente. In caso di problemi con il cluster o i relativi servizi, contattare il team di supporto HDInsight per ricevere assistenza.

      L'URL del cluster HDI usato nel servizio collegato deve essere accessibile per il runtime di integrazione (self-hosted o Azure) per consentire il superamento della connessione di test e per il funzionamento delle esecuzioni. Questo stato può essere verificato aprendo l'URL da un browser da una macchina virtuale o da un computer pubblico.

Codice errore: 2343

  • Messaggio: User name and password cannot be null or empty to connect to the HDInsight cluster.

  • Causa: il nome utente o la password è vuota.

  • Raccomandazione: specificare le credenziali corrette per connettersi a HDI e riprovare.

Codice errore: 2345

  • Messaggio: Failed to read the content of the hive script. Error: '%message;'

  • Causa: il file di script non esiste o il servizio non è riuscito a connettersi al percorso dello script.

  • Raccomandazione: verificare che lo script esista e che il servizio collegato associato disponga delle credenziali appropriate per una connessione.

Codice errore: 2346

  • Messaggio: Failed to create ODBC connection to the HDI cluster with error message '%message;'.

  • Causa: il servizio ha tentato di stabilire una connessione ODBC (Open Database Connectivity) al cluster HDI e non è riuscito con un errore.

  • Raccomandazione:

    1. verificare di aver configurato correttamente la connessione ODBC/JDBC (Java Database Connectivity) connection.
      1. Per JDBC, se si usa la stessa rete virtuale, è possibile ottenere la connessione da:
        Hive -> Summary -> HIVESERVER2 JDBC URL
      2. Per assicurarsi che la configurazione di JDBC sia corretta, vedere Eseguire una query Apache Hive tramite il driver JDBC in HDInsight.
      3. Per Open Database (ODB), vedere Esercitazione: Eseguire query su Apache Hive con ODBC e PowerShell per assicurarsi di avere la configurazione corretta.
    2. Verificare che Hiveserver2, Hive Metastore e Hiveserver2 Interactive siano attivi e in funzione.
    3. Controllare l'interfaccia utente di Ambari:
      1. Verificare che tutti i servizi siano ancora in esecuzione.
      2. Esaminare la sezione degli avvisi nella dashboard all'interno dell'interfaccia utente di Ambari.
        1. Per altre informazioni su avvisi e relative soluzioni, vedere Gestione e monitoraggio di un cluster.
    4. Se questa procedura non ha consentito di risolvere il problema, contattare il team di Microsoft Azure HDInsight.

Codice errore: 2347

  • Messaggio: Hive execution through ODBC failed with error message '%message;'.

  • Causa: il servizio ha inviato lo script hive per l'esecuzione al cluster HDI tramite connessione ODBC e lo script non è riuscito in HDI.

  • Raccomandazione:

    1. verificare di aver configurato correttamente la connessione ODBC/JDBC (Java Database Connectivity) connection.
      1. Per JDBC, se si usa la stessa rete virtuale, è possibile ottenere la connessione da:
        Hive -> Summary -> HIVESERVER2 JDBC URL
      2. Per assicurarsi che la configurazione di JDBC sia corretta, vedere Eseguire una query Apache Hive tramite il driver JDBC in HDInsight.
      3. Per Open Database (ODB), vedere Esercitazione: Eseguire query su Apache Hive con ODBC e PowerShell per assicurarsi di avere la configurazione corretta.
    2. Verificare che Hiveserver2, Hive Metastore e Hiveserver2 Interactive siano attivi e in funzione.
    3. Controllare l'interfaccia utente di Ambari:
      1. Verificare che tutti i servizi siano ancora in esecuzione.
      2. Esaminare la sezione degli avvisi nella dashboard all'interno dell'interfaccia utente di Ambari.
        1. Per altre informazioni su avvisi e relative soluzioni, vedere Gestione e monitoraggio di un cluster.
    4. Se questa procedura non ha consentito di risolvere il problema, contattare il team di Microsoft Azure HDInsight.

Codice errore: 2348

  • Messaggio: The main storage has not been initialized. Please check the properties of the storage linked service in the HDI linked service.

  • Causa: le proprietà del servizio collegato di archiviazione non sono impostate correttamente.

  • Raccomandazione: nel servizio collegato di archiviazione principale per le attività HDI sono supportate solo le stringa di connessione complete. Verificare che non siano in uso autorizzazioni o applicazioni MSI.

Codice errore: 2350

  • Messaggio: Failed to prepare the files for the run '%jobId;'. HDI cluster: '%cluster;', Error: '%errorMessage;'

  • Causa: le credenziali fornite per connettersi alla risorsa di archiviazione in cui devono trovarsi i file non sono corretti o i file non esistono.

  • Raccomandazione: questo errore si verifica quando il servizio si prepara per le attività HDI e tenta di copiare i file nella risorsa di archiviazione principale prima di inviare il processo a HDI. Verificare che il file sia presente nel percorso specificato e che la connessione alla risorsa di archiviazione funzioni correttamente. Poiché le attività HDI non supportano l'autenticazione MSI sugli account di archiviazione correlati alle attività HDI, verificare che tali servizi collegati abbiano chiavi complete o usino Azure Key Vault.

Codice errore: 2351

  • Messaggio: Could not open the file '%filePath;' in container/fileSystem '%container;'.

  • Causa: il file non esiste nel percorso specificato.

  • Raccomandazione: verificare se il file esiste effettivamente e che il servizio collegato con informazioni di connessione che puntano a questo file disponga delle credenziali corrette.

Codice errore: 2352

  • Messaggio: The file storage has not been initialized. Please check the properties of the file storage linked service in the HDI activity.

  • Causa: le proprietà del servizio collegato archiviazione file non sono impostate correttamente.

  • Raccomandazione: verificare che le proprietà del servizio collegato archiviazione file siano configurate correttamente.

Codice errore: 2353

  • Messaggio: The script storage has not been initialized. Please check the properties of the script storage linked service in the HDI activity.

  • Causa: le proprietà del servizio collegato di archiviazione script non sono impostate correttamente.

  • Raccomandazione: verificare che le proprietà del servizio collegato di archiviazione script siano configurate correttamente.

Codice errore: 2354

  • Messaggio: The storage linked service type '%linkedServiceType;' is not supported for '%executorType;' activities for property '%linkedServicePropertyName;'.

  • Causa: il tipo di servizio collegato di archiviazione non è supportato dall'attività.

  • Raccomandazione: verificare che il servizio collegato selezionato disponga di uno dei tipi supportati per l'attività. Le attività HDI supportano i servizi collegati AzureBlobStorage e AzureBlobFSStorage.

    Per altre informazioni, vedere Confronto delle opzioni di archiviazione disponibili per l'uso con cluster Azure HDInsight

Codice errore: 2355

  • Messaggio: The '%value' provided for commandEnvironment is incorrect. The expected value should be an array of strings where each string has the format CmdEnvVarName=CmdEnvVarValue.

  • Causa: il valore fornito per commandEnvironment non è corretto.

  • Raccomandazione: verificare che il valore specificato sia simile al seguente:

    \"variableName=variableValue\"
    ]
    

    Controllare anche che tutte le variabili siano presenti solo una volta nell'elenco.

Codice errore: 2356

  • Messaggio: The commandEnvironment already contains a variable named '%variableName;'.

  • Causa: il valore fornito per commandEnvironment non è corretto.

  • Raccomandazione: verificare che il valore specificato sia simile al seguente:

    \"variableName=variableValue\"
    ]
    

    Controllare anche che tutte le variabili siano presenti solo una volta nell'elenco.

Codice errore: 2357

  • Messaggio: The certificate or password is wrong for ADLS Gen 1 storage.

  • Causa: le credenziali specificate non sono corrette.

  • Raccomandazione: verificare che le informazioni di connessione in ADLS Gen 1 siano collegate al servizio e verificare che la connessione di test abbia esito positivo.

Codice errore: 2358

  • Messaggio: The value '%value;' for the required property 'TimeToLive' in the on demand HDInsight linked service '%linkedServiceName;' has invalid format. It should be a timespan between '00:05:00' and '24:00:00'.

  • Causa: il valore specificato per la proprietà TimeToLive obbligatoria ha un formato non valido.

  • Raccomandazione: aggiornare il valore all'intervallo suggerito e riprovare.

Codice errore: 2359

  • Messaggio: The value '%value;' for the property 'roles' is invalid. Expected types are 'zookeeper', 'headnode', and 'workernode'.

  • Causa: il valore specificato per la proprietà roles non è valido.

  • Raccomandazione: aggiornare il valore in modo che sia uno dei suggerimenti e riprovare.

Codice errore: 2360

  • Messaggio: The connection string in HCatalogLinkedService is invalid. Encountered an error while trying to parse: '%message;'.

  • Causa: il stringa di connessione specificato per l'oggetto HCatalogLinkedService non è valido.

  • Raccomandazione: aggiornare il valore con un stringa di connessione SQL di Azure corretto e riprovare.

Codice errore: 2361

  • Messaggio: Failed to create on demand HDI cluster. Cluster name is '%clusterName;'.

  • Causa: la creazione del cluster non è riuscita e il servizio non ha restituito un errore dal servizio HDInsight.

  • Raccomandazione: aprire il portale di Azure e provare a trovare la risorsa HDI con il nome specificato, quindi controllare lo stato del provisioning. Contattare il team di supporto di HDInsight per ricevere assistenza.

Codice errore: 2362

  • Messaggio: Only Azure Blob storage accounts are supported as additional storages for HDInsight on demand linked service.

  • Causa: l'archiviazione aggiuntiva fornita non era archiviazione BLOB di Azure.

  • Raccomandazione: fornire un account di archiviazione BLOB di Azure come risorsa di archiviazione aggiuntiva per il servizio collegato HDInsight su richiesta.

Errore SSL quando il servizio collegato usa il cluster ESP HDInsight

  • Messaggio: Failed to connect to HDInsight cluster: 'ERROR [HY000] [Microsoft][DriverSupport] (1100) SSL certificate verification failed because the certificate is missing or incorrect.'

  • Causa: il problema è probabilmente correlato all'archivio attendibilità del sistema.

  • Soluzione: è possibile passare al percorso Microsoft Integration Runtime\4.0\Shared\ODBC Drivers\Microsoft Hive ODBC Driver\lib e aprire DriverConfiguration64.exe per modificare l'impostazione.

    Deselezionare Use System Trust Store (Usa archivio attendibilità sistema)

Attività HDI bloccata durante la preparazione del cluster

Se l'attività HDI è bloccata durante la preparazione del cluster, seguire le linee guida seguenti:

  1. Assicurarsi che il timeout sia maggiore di quello descritto di seguito e attendere il completamento dell'esecuzione o fino al timeout e attendere il timeout di Time To Live (TTL) prima di inviare nuovi processi.

    Il tempo massimo predefinito necessario per lo spin up di un cluster è di 2 ore e, se si dispone di uno script init, verrà aggiunto fino a un'altra 2 ore.

  2. Assicurarsi che sia stato effettuato il provisioning dell'archiviazione e dell'infrastruttura HDI nella stessa area.

  3. Assicurarsi che l'entità servizio usata per accedere al cluster HDI sia valida.

  4. Se il problema persiste, come soluzione alternativa, eliminare il servizio collegato HDI e ricrearlo con un nuovo nome.

Attività Web

Codice errore: 2001

  • Messaggio: The length of execution output is over limit (around 4MB currently).

  • Causa: l'output di esecuzione è maggiore di 4 MB di dimensioni, ma la dimensione massima supportata del payload della risposta di output è di 4 MB.

  • Raccomandazione: assicurarsi che le dimensioni dell'output di esecuzione non superino i 4 MB. Per altre informazioni, vedere Come aumentare le dimensioni dei dati in spostamento con Azure Data Factory.

Codice errore: 2002

  • Messaggio: The payload including configurations on activity/dataSet/linked service is too large. Please check if you have settings with very large value and try to reduce its size.

  • Causa: il payload che si sta tentando di inviare è troppo grande.

  • Raccomandazione: fare riferimento a Payload troppo grande.

Codice errore: 2003

  • Messaggio: There are substantial concurrent external activity executions which is causing failures due to throttling under subscription <subscription id>, region <region code> and limitation <current limit>. Please reduce the concurrent executions. For limits, refer https://aka.ms/adflimits.

  • Causa: troppe attività vengono eseguite simultaneamente. Ciò può verificarsi quando un numero eccessivo di pipeline viene attivato contemporaneamente.

  • Raccomandazione: ridurre la concorrenza della pipeline. Potrebbe essere necessario distribuire il tempo di trigger delle pipeline.

Codice errore: 2010

  • Messaggio: The Self-hosted Integration Runtime ‘<SHIR name>’ is offline

  • Causa: il runtime di integrazione self-hosted è offline o il runtime di integrazione di Azure è scaduto o non è registrato.

  • Raccomandazione: assicurarsi che il runtime di integrazione self-hosted sia operativo. Per altre informazioni, vedere Risolvere i problemi relativi al runtime di integrazione self-hosted.

Codice errore: 2105

  • Messaggio: The value type '<provided data type>', in key '<key name>' is not expected type '<expected data type>'

  • Causa: i dati generati nell'espressione di contenuto dinamico non corrispondono alla chiave e causano un errore di analisi JSON.

  • Raccomandazione: esaminare il campo chiave e correggere la definizione del contenuto dinamico.

Codice errore: 2108

  • Messaggio: Error calling the endpoint '<URL>'. Response status code: 'NA - Unknown'. More details: Exception message: 'NA - Unknown [ClientSideException] Invalid Url: <URL>. Please verify Url or integration runtime is valid and retry. Localhost URLs are allowed only with SelfHosted Integration Runtime'

  • Causa: impossibile raggiungere l'URL specificato. Questo problema può verificarsi perché si è verificato un problema di connessione di rete, l'URL non è risolvibile o è stato usato un URL localhost in un runtime di integrazione di Azure.

  • Raccomandazione: verificare che l'URL specificato sia accessibile.


  • Messaggio: Error calling the endpoint '%url;'. Response status code: '%code;'

  • Causa: la richiesta non è riuscita a causa di un problema sottostante, ad esempio la connettività di rete, un errore DNS, la convalida di un certificato server o un timeout.

  • Raccomandazione: usare Fiddler/Postman/Netmon/Wireshark per convalidare la richiesta.

    Uso di Fiddler

    Uso di Fiddler per creare una sessione HTTP dell'applicazione Web monitorata:

    1. Scaricare, installare e aprire Fiddler.

    2. Se l'applicazione Web usa HTTPS, aprire Tools (Strumenti)>Options (Opzioni)>HTTPS.

      1. Nella scheda HTTPS, selezionare sia Capture HTTPS CONNECTs (Acquisisci connessioni HTTP) che Decrypt HTTPS traffic (Decrittografa traffico HTTPS).

        Opzioni di Fiddler

    3. Se l'applicazione usa certificati TLS/SSL, aggiungere il certificato di Fiddler al dispositivo.

      Vai a: Strumenti>Opzioni fiddler Azioni>>HTTPS>Esporta certificato radice in desktop.

    4. Disattivare l'acquisizione in File>Capture Traffic (Acquisisci traffico). In alternativa, premere F12.

    5. Cancellare la cache del browser in modo che tutti gli elementi presenti vengano rimossi e debbano essere scaricati di nuovo.

    6. Creare una richiesta:

    7. Selezionare la scheda Composer (Compositore).

      1. Configurare il metodo HTTP e l'URL.

      2. Se necessario, aggiungere intestazioni e un corpo della richiesta.

      3. Seleziona Execute.

    8. Attivare di nuovo l'acquisizione del traffico e completare la transazione problematica nella pagina.

    9. Vai a: Salva>>tutte le sessioni.

    Per altre informazioni, vedere Getting started with Fiddler (Introduzione a Fiddler).

Codice errore: 2113

  • Messaggio: ExtractAuthorizationCertificate: Unable to generate a certificate from a Base64 string/password combination

  • Causa: impossibile generare il certificato dalla combinazione di stringa/password Base64.

  • Raccomandazione: verificare che la combinazione di certificati PFX e password con codifica Base64 in uso sia immessa correttamente.

Codice errore: 2403

  • Messaggio: Get access token from MSI failed for Datafactory <DF mname>, region <region code>. Please verify resource url is valid and retry.

  • Causa: impossibile acquisire un token di accesso dall'URL della risorsa specificato.

  • Raccomandazione: verificare di aver specificato l'URL della risorsa corretto per l'identità gestita.

Generali

Errore NULL del token di continuazione REST

Messaggio di errore: {"token":null,"range":{"min":..}

Causa: quando si eseguono query su più partizioni/pagine, il servizio back-end restituisce il token di continuazione in formato JObject con 3 proprietà: token, intervalli di chiavi min e max, ad esempio {"token":null,"range":{"min":"05C1E9AB0DAD76","max":"05C1E9CD673398"}}). A seconda dei dati di origine, l'esecuzione di query può restituire 0 che indica un token mancante anche se sono presenti più dati da recuperare.

Raccomandazione: quando continuationToken è diverso da null, come stringa {"token":null,"range":{"min":"05C1E9AB0DAD76","max":"05C1E9CD673398"}}, è necessario chiamare di nuovo queryActivityRuns API con il token di continuazione della risposta precedente. È necessario passare di nuovo la stringa completa per l'API di query. Le attività verranno restituite nelle pagine successive per il risultato della query. È consigliabile ignorare che in questa pagina è presente una matrice vuota, purché il valore di continuationToken completo != null, è necessario continuare a eseguire query. Per altre informazioni, vedere API REST per la query di esecuzione della pipeline.

Problema di attività bloccata

Quando si osserva che l'attività è in esecuzione molto più lunga delle normali esecuzioni senza progressi, potrebbe verificarsi un blocco. È possibile provare ad annullarlo e riprovare per verificare se è utile. Se si tratta di un'attività di copia, è possibile ottenere informazioni sul monitoraggio delle prestazioni e sulla risoluzione dei problemi di risoluzione dei problemi relativi alle prestazioni dell'attività di copia. Se si tratta di un flusso di dati, vedere La guida alle prestazioni e all'ottimizzazione dei flussi di dati per mapping.

Il Payload è troppo grande

Messaggio di erroreThe payload including configurations on activity/dataSet/linked service is too large. Please check if you have settings with very large value and try to reduce its size.:

Causa: il payload per ogni esecuzione di attività include la configurazione dell'attività, i set di dati associati e le configurazioni dei servizi collegati, se presenti, e una piccola parte delle proprietà di sistema generate per ogni tipo di attività. Il limite di queste dimensioni del payload è di 896 KB, come indicato nella documentazione sui limiti di Azure per Data Factory e Azure Synapse Analytics.

Raccomandazione: è probabile che questo limite venga raggiunto perché si passano uno o più valori di parametri di grandi dimensioni dall'output dell'attività upstream o dall'esterno, soprattutto se si passano dati effettivi tra le attività nel flusso di controllo. Controllare se è possibile ridurre le dimensioni dei valori dei parametri di grandi dimensioni o ottimizzare la logica della pipeline per evitare di passare tali valori tra le attività e gestirli all'interno dell'attività.

La compressione non supportata causa il danneggiamento dei file

Sintomi: si tenta di decomprimere un file archiviato in un contenitore BLOB. Una singola attività di copia in una pipeline ha un'origine con il tipo di compressione impostato su "deflate64" (o qualsiasi tipo non supportato). Questa attività viene eseguita correttamente e produce il file di testo contenuto nel file ZIP. Tuttavia, si è verificato un problema con il testo nel file e questo file viene danneggiato. Quando questo file viene decompresso localmente, è corretto.

Causa: il file ZIP è compresso dall'algoritmo "deflate64", mentre la libreria zip interna di Azure Data Factory supporta solo "deflate". Se il file ZIP è compresso dal sistema Windows e le dimensioni complessive del file superano un determinato numero, Windows userà "deflate64" per impostazione predefinita, che non è supportato in Azure Data Factory. D'altra parte, se le dimensioni del file sono inferiori o si usano alcuni strumenti ZIP di terze parti che supportano la specifica dell'algoritmo di compressione, Windows userà "deflate" per impostazione predefinita.

Suggerimento

In realtà, sia il formato binario in Azure Data Factory che Synapse Analytics e il formato di testo delimitato in Azure Data Factory e Azure Synapse Analytics indicano chiaramente che il formato "deflate64" non è supportato in Azure Data Factory.

Execute Pipeline passa il parametro della matrice come stringa alla pipeline figlio

Messaggio di erroreOperation on target ForEach1 failed: The execution of template action 'MainForEach1' failed: the result of the evaluation of 'foreach' expression '@pipeline().parameters.<parameterName>' is of type 'String'. The result must be a valid array.:

Causa: anche se nella pipeline di esecuzione si crea il parametro di matrice di tipo, come illustrato nell'immagine seguente, la pipeline avrà esito negativo.

Screenshot che mostra i parametri dell'attività Esegui pipeline.

Ciò è dovuto al fatto che il payload viene passato dalla pipeline padre al figlio come stringa. È possibile vederlo quando si controlla l'input passato alla pipeline figlio.

Screenshot che mostra la stringa del tipo di input.

Raccomandazione: per risolvere il problema è possibile sfruttare la funzione create array, come illustrato nell'immagine seguente.

Screenshot che mostra come usare la funzione create array.

La pipeline avrà quindi esito positivo. E possiamo vedere nella casella di input che il parametro passato è una matrice.

Screenshot che mostra la matrice del tipo di input.

Per altre informazioni sulla risoluzione dei problemi, usare le risorse seguenti: