다음을 통해 공유


Azure Data Factory 및 Synapse 파이프라인 문제 해결

적용 대상: Azure Data Factory Azure Synapse Analytics

기업용 올인원 분석 솔루션인 Microsoft Fabric의 Data Factory를 사용해 보세요. Microsoft Fabric은 데이터 이동부터 데이터 과학, 실시간 분석, 비즈니스 인텔리전스 및 보고에 이르기까지 모든 것을 다룹니다. 무료로 새 평가판을 시작하는 방법을 알아봅니다!

이 문서에서는 Azure Data Factory 및 Synapse 파이프라인의 외부 제어 활동에 대한 일반적인 문제 해결 방법을 살펴봅니다.

커넥터 및 복사 활동

복사 작업을 사용하여 발생하는 오류와 같은 커넥터 문제는 커넥터 문제 해결 문서를 참조하세요.

Azure Databricks

오류 코드: 3200

  • 메시지: 오류 403.

  • 원인: The Databricks access token has expired.

  • 권장 사항: 기본적으로 Azure Databricks 액세스 토큰은 90일 동안 유효합니다. 새 토큰을 만들고 연결 서비스를 업데이트하세요.

오류 코드: 3201

  • 메시지: Missing required field: settings.task.notebook_task.notebook_path.

  • 원인: Bad authoring: Notebook path not specified correctly.

  • 권장 사항: Databricks 활동에서 노트북 경로를 지정하세요.


  • 메시지: Cluster... does not exist.

  • 원인: Authoring error: Databricks cluster does not exist or has been deleted.

  • 권장 사항: Databricks 클러스터가 있는지 확인하세요.


  • 메시지: Invalid Python file URI... Please visit Databricks user guide for supported URI schemes.

  • 원인: Bad authoring.

  • 권장 사항: 작업 영역 주소 지정 스키마의 절대 경로를 지정하거나, DFS(Databricks File System)에 저장된 파일에 대한 dbfs:/folder/subfolder/foo.py를 지정하세요.


  • 메시지: {0} LinkedService should have domain and accessToken as required properties.

  • 원인: Bad authoring.

  • 권장 사항: 연결 서비스 정의를 확인하세요.


  • 메시지: {0} LinkedService should specify either existing cluster ID or new cluster information for creation.

  • 원인: Bad authoring.

  • 권장 사항: 연결 서비스 정의를 확인하세요.


  • 메시지: Node type Standard_D16S_v3 is not supported. Supported node types: Standard_DS3_v2, Standard_DS4_v2, Standard_DS5_v2, Standard_D8s_v3, Standard_D16s_v3, Standard_D32s_v3, Standard_D64s_v3, Standard_D3_v2, Standard_D8_v3, Standard_D16_v3, Standard_D32_v3, Standard_D64_v3, Standard_D12_v2, Standard_D13_v2, Standard_D14_v2, Standard_D15_v2, Standard_DS12_v2, Standard_DS13_v2, Standard_DS14_v2, Standard_DS15_v2, Standard_E8s_v3, Standard_E16s_v3, Standard_E32s_v3, Standard_E64s_v3, Standard_L4s, Standard_L8s, Standard_L16s, Standard_L32s, Standard_F4s, Standard_F8s, Standard_F16s, Standard_H16, Standard_F4s_v2, Standard_F8s_v2, Standard_F16s_v2, Standard_F32s_v2, Standard_F64s_v2, Standard_F72s_v2, Standard_NC12, Standard_NC24, Standard_NC6s_v3, Standard_NC12s_v3, Standard_NC24s_v3, Standard_L8s_v2, Standard_L16s_v2, Standard_L32s_v2, Standard_L64s_v2, Standard_L80s_v2.

  • 원인: Bad authoring.

  • 권장 사항: 오류 메시지를 참조하세요.


오류 코드: 3202

  • 메시지: There were already 1000 jobs created in past 3600 seconds, exceeding rate limit: 1000 job creations per 3600 seconds.

  • 원인: Too many Databricks runs in an hour.

  • 권장 사항: 이 Databricks 작업 영역을 사용하는 모든 파이프라인의 작업 생성 비율을 확인하세요. 파이프라인이 집계에 실행되는 Databricks를 너무 많이 시작한 경우 일부 파이프라인을 새 작업 영역으로 마이그레이션하세요.


  • 메시지: Could not parse request object: Expected 'key' and 'value' to be set for JSON map field base_parameters, got 'key: "..."' instead.

  • 원인: Authoring error: No value provided for the parameter.

  • 권장 사항: 파이프라인 JSON을 검사하고 baseParameters 노트북의 모든 매개 변수가 비어 있지 않은 값을 지정하는지 확인하세요.


  • 메시지: User: 'SimpleUserContext{userId=..., name=user@company.com, orgId=...}' is not authorized to access cluster.

  • 원인: 액세스 토큰을 생성한 사용자는 연결 서비스에 지정된 Databricks 클러스터에 액세스할 수 없습니다.

  • 권장 사항: 사용자에게 필요한 권한이 작업 영역에 있는지 확인하세요.


  • 메시지: Job is not fully initialized yet. Please retry later.

  • 원인: 작업이 초기화되지 않았습니다.

  • 권장 사항: 기다렸다가 나중에 다시 시도하세요.

오류 코드: 3203

  • 메시지: The cluster is in Terminated state, not available to receive jobs. Please fix the cluster or retry later.

  • 원인: 클러스터가 종료되었습니다. 대화형 클러스터의 경우 이 문제로 인해 경합 상태가 발생할 수도 있습니다.

  • 권장 사항: 이 오류를 방지 하려면 작업 클러스터를 사용하세요.

오류 코드: 3204

  • 메시지: Job execution failed.

  • 원인: 오류 메시지는 예기치 않은 클러스터 상태 또는 특정 활동과 같은 다양한 문제를 나타냅니다. 종종 오류 메시지가 나타나지 않는 경우가 있습니다.

  • 권장 사항: 해당 없음

오류 코드: 3208

  • 메시지: An error occurred while sending the request.

  • 원인: Databricks 서비스에 대한 네트워크 연결이 중단되었습니다.

  • 권장 사항: 자체 호스팅 통합 런타임을 사용하는 경우 통합 런타임 노드에서 네트워크 연결이 안정적인지 확인합니다. Azure 통합 런타임을 사용하는 경우 다시 시도하면 일반적으로 작동합니다.

부울 실행 출력은 예상되는 int 대신 문자열로 시작됨

  • 증상: 부울 실행 출력이 예상되는 int(예: 0 또는 1)가 아닌 문자열(예: "0" 또는 "1")로 시작됩니다.

    Databricks 파이프라인의 스크린샷.

    이 출력에 의존하는 파이프라인이 실패하기 시작한 2021년 9월 28일 오전 9시 IST에 이런 변화를 발견했습니다. 파이프라인은 변경되지 않았으며 부울 출력 데이터는 실패 이전에 예상대로 도착했습니다.

    출력의 차이점 스크린샷.

  • 원인: 이 문제는 의도적으로 설계된 최근 변경으로 인해 발생합니다. 변경 후 결과가 0으로 시작하는 숫자인 경우 Azure Data Factory는 이 숫자를 8진수 값으로 변환하며, 이것은 버그입니다. 이 숫자는 항상 0 또는 1이며 변경 전에 문제를 일으키지 않았습니다. 따라서 8진수 변환을 수정하기 위해 Notebook 실행에서 문자열 출력이 있는 그대로 전달됩니다.

  • 권장 사항: if 조건을 if(value=="0")와 같이 변경합니다.

Azure 데이터 레이크 분석

다음 표는 U-SQL에 적용됩니다.

오류 코드: 2709

  • 메시지: The access token is from the wrong tenant.

  • 원인: 잘못된 Microsoft Entra 테넌트입니다.

  • 권장 사항: Microsoft Entra 테넌트가 잘못되었습니다.


  • 메시지: We cannot accept your job at this moment. The maximum number of queued jobs for your account is 200.

  • 원인: 이 오류는 Data Lake Analytics에 대한 제한으로 인해 발생합니다.

  • 권장 사항: Data Lake Analytics에 제출된 작업 수를 줄입니다. 활동에 대한 트리거 및 동시성 설정을 변경하거나 Data Lake Analytics의 제한을 늘리세요.


  • 메시지: This job was rejected because it requires 24 AUs. This account's administrator-defined policy prevents a job from using more than 5 AUs.

  • 원인: 이 오류는 Data Lake Analytics에 대한 제한으로 인해 발생합니다.

  • 권장 사항: Data Lake Analytics에 제출된 작업 수를 줄입니다. 활동에 대한 트리거 및 동시성 설정을 변경하거나 Data Lake Analytics의 제한을 늘리세요.

오류 코드: 2705

  • 메시지: Forbidden. ACL verification failed. Either the resource does not exist or the user is not authorized to perform the requested operation.<br/> <br/> User is not able to access Data Lake Store. <br/> <br/> User is not authorized to use Data Lake Analytics.

  • 원인: 서비스 주체 또는 인증서가 스토리지의 파일에 액세스할 수 없습니다.

  • 권장 사항: Data Lake Analytics 작업을 위해 사용자가 제공하는 서비스 주체 또는 인증서에 Data Lake Analytics 계정에 대한 액세스 권한 및 루트 폴더의 기본 Data Lake Storage 인스턴스가 모두 있는지 확인하세요.

오류 코드: 2711

  • 메시지: Forbidden. ACL verification failed. Either the resource does not exist or the user is not authorized to perform the requested operation.<br/> <br/> User is not able to access Data Lake Store. <br/> <br/> User is not authorized to use Data Lake Analytics.

  • 원인: 서비스 주체 또는 인증서가 스토리지의 파일에 액세스할 수 없습니다.

  • 권장 사항: Data Lake Analytics 작업을 위해 사용자가 제공하는 서비스 주체 또는 인증서에 Data Lake Analytics 계정에 대한 액세스 권한 및 루트 폴더의 기본 Data Lake Storage 인스턴스가 모두 있는지 확인하세요.


  • 메시지: Cannot find the 'Azure Data Lake Store' file or folder.

  • 원인: U-SQL 파일의 경로가 잘못되었거나 연결 서비스 자격 증명에 액세스 권한이 없습니다.

  • 권장 사항: 연결된 서비스에 제공된 경로와 자격 증명을 확인합니다.

오류 코드: 2704

  • 메시지: Forbidden. ACL verification failed. Either the resource does not exist or the user is not authorized to perform the requested operation.<br/> <br/> User is not able to access Data Lake Store. <br/> <br/> User is not authorized to use Data Lake Analytics.

  • 원인: 서비스 주체 또는 인증서가 스토리지의 파일에 액세스할 수 없습니다.

  • 권장 사항: Data Lake Analytics 작업을 위해 사용자가 제공하는 서비스 주체 또는 인증서에 Data Lake Analytics 계정에 대한 액세스 권한 및 루트 폴더의 기본 Data Lake Storage 인스턴스가 모두 있는지 확인하세요.

오류 코드: 2707

  • 메시지: Cannot resolve the account of AzureDataLakeAnalytics. Please check 'AccountName' and 'DataLakeAnalyticsUri'.

  • 원인: 연결 서비스의 Data Lake Analytics 계정이 잘못 되었습니다.

  • 권장 사항: 올바른 계정이 제공되었는지 확인합니다.

오류 코드: 2703

  • 메시지: Error Id: E_CQO_SYSTEM_INTERNAL_ERROR (or any error that starts with "Error Id:").

  • 원인: 오류는 Data Lake Analytics에서 발생합니다.

  • 권장 사항: 작업이 Data Lake Analytics에 제출되었고 스크립트가 둘 다 실패했습니다. Data Lake Analytics를 조사하세요. 포털에서 Data Lake Analytics 계정으로 이동하고 Data Factory 활동 실행 ID(파이프라인 실행 ID는 사용 안 함)를 사용하여 작업을 찾으세요. 해당 작업은 오류에 대한 자세한 정보를 제공하며 문제를 해결하는 데 도움이 됩니다.

    해결 방법이 명확하지 않으면 Data Lake Analytics 지원 팀에 문의하여 계정 이름 및 작업 ID가 포함된 작업 URL(Universal Resource Locator)을 제공하세요.

Azure Functions

오류 코드: 3602

  • 메시지: Invalid HttpMethod: '%method;'.

  • 원인: 활동 페이로드에 지정된 Httpmethod는 Azure 함수 활동에서 지원되지 않습니다.

  • 권장 사항: 지원되는 Http메서드는 PUT, POST, GET, DELETE, OPTIONS, HEAD 및 TRACE입니다.

오류 코드: 3603

  • 메시지: Response Content is not a valid JObject.

  • 원인: 호출된 Azure 함수에서 응답에 JSON 페이로드를 반환하지 않았습니다. Azure Data Factory 및 Synapse 파이프라인 Azure 함수 활동은 JSON 응답 콘텐츠만 지원합니다.

  • 권장 사항: C# 함수와 같은 유효한 JSON 페이로드를 반환하도록 Azure 함수를 업데이트합니다. (ActionResult)new OkObjectResult("{\"Id\":\"123\"}");

오류 코드: 3606

  • 메시지: Azure 함수 활동에 함수 키가 없습니다.

  • 원인: Azure 함수 활동 정의가 완료되지 않았습니다.

  • 권장 사항: 입력 Azure 함수 활동 JSON 정의에 functionKey라는 속성이 있는지 확인합니다.

오류 코드: 3607

  • 메시지: Azure function activity missing function name.

  • 원인: Azure 함수 활동 정의가 완료되지 않았습니다.

  • 권장 사항: 입력 Azure 함수 활동 JSON 정의에 functionName이라는 속성이 있는지 확인합니다.

오류 코드: 3608

  • 메시지: Call to provided Azure function '%FunctionName;' failed with status-'%statusCode;' and message - '%message;'.

  • 원인: 활동 정의의 Azure 함수 세부 정보가 잘못되었을 수 있습니다.

  • 권장 사항: Azure 함수 세부 정보를 수정하고 다시 시도합니다.

오류 코드: 3609

  • 메시지: Azure function activity missing functionAppUrl.

  • 원인: Azure 함수 활동 정의가 완료되지 않았습니다.

  • 권장 사항: 입력 Azure 함수 활동 JSON 정의에 functionAppUrl이라는 속성이 있는지 확인합니다.

오류 코드: 3610

  • 메시지: There was an error while calling endpoint.

  • 원인: 함수 URL이 올바르지 않을 수 있습니다.

  • 권장 사항: 작업 JSON의 functionAppUrl 값이 올바른지 확인하고 다시 시도합니다.

오류 코드: 3611

  • 메시지: Azure function activity missing Method in JSON.

  • 원인: Azure 함수 활동 정의가 완료되지 않았습니다.

  • 권장 사항: 입력 Azure 함수 활동 JSON 정의에 method라는 속성이 있는지 확인합니다.

오류 코드: 3612

  • 메시지: Azure function activity missing LinkedService definition in JSON.

  • 원인: Azure 함수 활동 정의가 완료되지 않았습니다.

  • 권장 사항: 입력 Azure 함수 활동 JSON 정의에 연결된 서비스 세부 정보가 있는지 확인합니다.

Azure Machine Learning

오류 코드: 4101

  • 메시지: AzureMLExecutePipeline activity '%activityName;' has invalid value for property '%propertyName;'.

  • 원인: %propertyName; 속성의 형식이 잘못되었거나 정의가 누락되었습니다.

  • 권장 사항: 작업 %activityName;에 올바른 데이터로 정의된 속성 %propertyName;이 있는지 확인합니다.

오류 코드: 4110

  • 메시지: AzureMLExecutePipeline activity missing LinkedService definition in JSON.

  • 원인: AzureMLExecutePipeline 활동 정의가 완료되지 않았습니다.

  • 권장 사항: 입력 AzureMLExecutePipeline 작업 JSON 정의에 서비스 세부 정보가 올바르게 연결되어 있는지 확인합니다.

오류 코드: 4111

  • 메시지: AzureMLExecutePipeline activity has wrong LinkedService type in JSON. Expected LinkedService type: '%expectedLinkedServiceType;', current LinkedService type: Expected LinkedService type: '%currentLinkedServiceType;'.

  • 원인: 작업 정의가 잘못되었습니다.

  • 권장 사항: 입력 AzureMLExecutePipeline 작업 JSON 정의에 서비스 세부 정보가 올바르게 연결되어 있는지 확인합니다.

오류 코드: 4112

  • 메시지: AzureMLService linked service has invalid value for property '%propertyName;'.

  • 원인: '%PropertyName;' 속성의 형식이 잘못되었거나 정의가 누락되었습니다.

  • 권장 사항: 연결된 서비스에 올바른 데이터로 정의된 %propertyName; 속성이 있는지 확인합니다.

오류 코드: 4121

  • 메시지: Request sent to Azure Machine Learning for operation '%operation;' failed with http status code '%statusCode;'. Error message from Azure Machine Learning: '%externalMessage;'.

  • 원인: Azure Machine Learning에 액세스하는 데 사용된 자격 증명이 만료되었습니다.

  • 권장 사항: 자격 증명이 유효한지 확인하고 다시 시도합니다.

오류 코드: 4122

  • 메시지: Request sent to Azure Machine Learning for operation '%operation;' failed with http status code '%statusCode;'. Error message from Azure Machine Learning: '%externalMessage;'.

  • 원인: Azure Machine Learning 연결 서비스에 제공된 자격 증명이 유효하지 않거나 작업에 대한 권한이 없습니다.

  • 권장 사항: 연결된 서비스의 자격 증명이 유효하고 Azure Machine Learning에 액세스할 수 있는 권한이 있는지 확인합니다.

오류 코드: 4123

  • 메시지: Request sent to Azure Machine Learning for operation '%operation;' failed with http status code '%statusCode;'. Error message from Azure Machine Learning: '%externalMessage;'.

  • 원인: pipelineParameters와 같은 활동의 속성은 Azure ML(Machine Learning) 파이프라인에 유효하지 않습니다.

  • 권장 사항: 작업 속성 값이 연결된 서비스에 지정된 게시된 Azure Machine Learning 파이프라인의 예상 페이로드와 일치하는지 확인합니다.

오류 코드: 4124

  • 메시지: Request sent to Azure Machine Learning for operation '%operation;' failed with http status code '%statusCode;'. Error message from Azure Machine Learning: '%externalMessage;'.

  • 원인: 게시된 Azure Machine Learning 파이프라인 엔드포인트가 존재하지 않습니다.

  • 권장 사항: 연결된 서비스에 지정된 게시된 Azure Machine Learning 파이프라인 엔드포인트가 Azure Machine Learning에 있는지 확인합니다.

오류 코드: 4125

  • 메시지: Request sent to Azure Machine Learning for operation '%operation;' failed with http status code '%statusCode;'. Error message from Azure Machine Learning: '%externalMessage;'.

  • 원인: Azure Machine Learning에 서버 오류가 있습니다.

  • 권장 사항: 나중에 다시 시도하세요. 문제가 계속되는 경우 Azure Machine Learning 팀에 도움을 요청하세요.

오류 코드: 4126

  • 메시지: Azure ML pipeline run failed with status: '%amlPipelineRunStatus;'. Azure ML pipeline run Id: '%amlPipelineRunId;'. Please check in Azure Machine Learning for more error logs.

  • 원인: Azure Machine Learning 파이프라인 실행이 실패했습니다.

  • 권장 사항: Azure Machine Learning에서 더 많은 오류 로그를 확인한 다음 ML 파이프라인을 수정합니다.

Azure Synapse Analytics

오류 코드: 3250

  • 메시지: There are not enough resources available in the workspace, details: '%errorMessage;'

  • 원인: 리소스 부족

  • 권장 사항: 작업 영역에서 실행 중인 작업을 종료하고, 요청된 vCore 수를 줄이거나, 작업 영역 할당량을 늘리거나, 다른 작업 영역을 사용해 보세요.

오류 코드: 3251

  • 메시지: There are not enough resources available in the pool, details: '%errorMessage;'

  • 원인: 리소스 부족

  • 권장 사항: 풀에서 실행 중인 작업을 종료하고, 요청된 vCore 수를 줄이거나, 풀 최대 크기를 늘리거나, 다른 풀을 사용해 보세요.

오류 코드: 3252

  • 메시지: There are not enough vcores available for your spark job, details: '%errorMessage;'

  • 원인: 가상 코어 부족

  • 권장 사항: 요청된 vCore 수를 줄이거나 vCore 할당량을 늘려 보세요. 자세한 내용은 Apache Spark 핵심 개념을 참조하세요.

오류 코드: 3253

  • 메시지: There are substantial concurrent MappingDataflow executions which is causing failures due to throttling under the Integration Runtime used for ActivityId: '%activityId;'.

  • 원인: 제한 임계값에 도달했습니다.

  • 권장 사항: 대기 기간 후에 요청을 다시 시도합니다.

오류 코드: 3254

  • 메시지: AzureSynapseArtifacts linked service has invalid value for property '%propertyName;'.

  • 원인: '%PropertyName;' 속성의 형식이 잘못되었거나 정의가 누락되었습니다.

  • 권장 사항: 연결 서비스에 올바른 데이터로 정의된 '%propertyName;' 속성이 있는지 확인하세요.

공통

오류 코드: 2103

  • 메시지: Please provide value for the required property '%propertyName;'.

  • 원인: 속성에 필요한 값이 제공되지 않았습니다.

  • 권장 사항: 메시지의 값을 제공하고 다시 시도합니다.

오류 코드: 2104

  • 메시지: The type of the property '%propertyName;' is incorrect.

  • 원인: 제공된 속성 형식이 올바르지 않습니다.

  • 권장 사항: 속성 형식을 수정하고 다시 시도합니다.

오류 코드: 2105

  • 메시지: An invalid json is provided for property '%propertyName;'. Encountered an error while trying to parse: '%message;'.

  • 원인: 속성의 값이 유효하지 않거나 필요한 형식이 아닙니다.

  • 권장 사항: 속성에 대한 설명서를 참조하고 제공된 값에 올바른 형식과 형식이 포함되어 있는지 확인합니다.

오류 코드: 2106

  • 메시지: The storage connection string is invalid. %errorMessage;

  • 원인: 스토리지에 대한 연결 문자열이 유효하지 않거나 형식이 잘못되었습니다.

  • 권장 사항: Azure Portal로 이동하여 스토리지를 찾은 다음 연결 문자열을 복사하여 연결된 서비스에 붙여넣고 다시 시도합니다.

오류 코드: 2110

  • 메시지: The linked service type '%linkedServiceType;' is not supported for '%executorType;' activities.

  • 원인: 활동에 지정된 연결 서비스가 잘못되었습니다.

  • 권장 사항: 연결된 서비스 형식이 작업에 지원되는 형식 중 하나인지 확인합니다. 예를 들어 HDI 활동에 대한 연결 서비스 유형은 HDInsight 또는 HDInsightOnDemand일 수 있습니다.

오류 코드: 2111

  • 메시지: The type of the property '%propertyName;' is incorrect. The expected type is %expectedType;.

  • 원인: 제공된 속성의 형식이 올바르지 않습니다.

  • 권장 사항: 속성 형식을 수정하고 다시 시도합니다.

오류 코드: 2112

  • 메시지: The cloud type is unsupported or could not be determined for storage from the EndpointSuffix '%endpointSuffix;'.

  • 원인: 클라우드 유형이 지원되지 않거나 EndpointSuffix에서 스토리지를 확인할 수 없습니다.

  • 권장 사항: 다른 클라우드의 스토리지를 사용하고 다시 시도해 보세요.

사용자 지정

다음 표는 Azure Batch에 적용됩니다.

오류 코드: 2500

  • 메시지: Hit unexpected exception and execution failed.

  • 원인: Can't launch command, or the program returned an error code.

  • 권장 사항: 실행 파일이 있는지 확인합니다. 프로그램이 시작되면 stdout.txtstderr.txt가 저장소 계정에 업로드되었는지 확인하세요. 디버깅을 위해 코드에 로그를 포함하는 것이 좋습니다.

오류 코드: 2501

  • 메시지: Cannot access user batch account; please check batch account settings.

  • 원인: 잘못된 Batch 액세스 키 또는 풀 이름입니다.

  • 권장 사항: 연결된 서비스에서 풀 이름과 Batch 액세스 키를 확인합니다.

오류 코드: 2502

  • 메시지: Cannot access user storage account; please check storage account settings.

  • 원인: 스토리지 계정 이름 또는 액세스 키가 잘못되었습니다.

  • 권장 사항: 연결된 서비스의 스토리지 계정 이름과 액세스 키를 확인합니다.

오류 코드: 2504

  • 메시지: Operation returned an invalid status code 'BadRequest'.

  • 원인: 사용자 지정 작업의 folderPath에 파일이 너무 많습니다. resourceFiles의 총 크기는 32,768자를 초과할 수 없습니다.

  • 권장 사항: 불필요한 파일을 제거하거나 압축한 후 unzip 명령을 추가하여 압축을 풉니다.

    예를 들어 powershell.exe -nologo -noprofile -command "& { Add-Type -A 'System.IO.Compression.FileSystem'; [IO.Compression.ZipFile]::ExtractToDirectory($zipFile, $folder); }" ; $folder\yourProgram.exe를 사용합니다.

오류 코드: 2505

  • 메시지: Cannot create Shared Access Signature unless Account Key credentials are used.

  • 원인: 사용자 지정 활동은 액세스 키를 사용하는 스토리지 계정만 지원합니다.

  • 권장 사항: 오류 설명을 참조하세요.

오류 코드: 2507

  • 메시지: The folder path does not exist or is empty: ...

  • 원인: 지정된 경로의 스토리지 계정에 파일이 없습니다.

  • 권장 사항: 폴더 경로에는 실행하려는 실행 파일이 포함되어야 합니다.

오류 코드: 2508

  • 메시지: There are duplicate files in the resource folder.

  • 원인: 이름이 동일한 여러 파일이 folderPath의 여러 하위 폴더에 있습니다.

  • 권장 사항: 사용자 지정 작업은 폴더 경로 아래의 폴더 구조를 평면화합니다. 폴더 구조를 유지해야 하는 경우 파일을 압축한 후 압축 풀기 명령을 사용하여 Azure Batch에서 압축을 풉니다.

    예를 들어 powershell.exe -nologo -noprofile -command "& { Add-Type -A 'System.IO.Compression.FileSystem'; [IO.Compression.ZipFile]::ExtractToDirectory($zipFile, $folder); }" ; $folder\yourProgram.exe를 사용합니다.

오류 코드: 2509

  • 메시지: Batch url ... is invalid; it must be in Uri format.

  • 원인: 일괄 처리 URL은 https://mybatchaccount.eastus.batch.azure.com과 유사해야 합니다.

  • 권장 사항: 오류 설명을 참조하세요.

오류 코드: 2510

  • 메시지: An error occurred while sending the request.

  • 원인: 일괄 처리 URL이 잘못되었습니다.

  • 권장 사항: 일괄 처리 URL을 확인합니다.

HDInsight

오류 코드: 206

  • 메시지: The batch ID for Spark job is invalid. Please retry your job.

  • 원인: 이 오류를 초래한 서비스에 내부 문제가 발생했습니다.

  • 권장 사항: 이 문제는 일시적일 수 있습니다. 잠시 후 작업을 다시 시도하세요.

오류 코드: 207

  • 메시지: Could not determine the region from the provided storage account. Please try using another primary storage account for the on demand HDI.

  • 원인: 기본 스토리지 계정에서 지역을 확인하는 동안 내부 오류가 발생했습니다.

  • 권장 사항: 다른 스토리지를 사용해 보세요.

오류 코드: 208

  • 메시지: Service Principal or the MSI authenticator are not instantiated. Please consider providing a Service Principal in the HDI on demand linked service which has permissions to create an HDInsight cluster in the provided subscription and try again.

  • 원인: 서비스 주체를 읽거나 MSI 인증을 인스턴스화하는 중 내부 오류가 발생했습니다.

  • 권장 사항: 제공된 구독에서 HDInsight 클러스터를 만들 수 있는 권한이 있는 서비스 주체 제공을 고려하고 다시 시도합니다. ID 관리가 올바르게 설정되어 있는지 확인하세요.

오류 코드: 2300

  • 메시지: Failed to submit the job '%jobId;' to the cluster '%cluster;'. Error: %errorMessage;.

  • 원인: 오류 메시지에는 The remote name could not be resolved.와 유사한 메시지가 포함되어 있습니다. 제공된 클러스터 URI가 유효하지 않을 수 있습니다.

  • 권장 사항: 클러스터가 삭제되지 않았는지, 제공된 URI가 올바른지 확인합니다. 브라우저에서 URI를 열 때 Ambari UI가 표시되어야 합니다. 클러스터가 가상 네트워크에 있는 경우 URI는 비공개 URI여야 합니다. 이 URI를 열려면 동일한 가상 네트워크에 속한 VM(가상 머신)을 사용합니다.

    자세한 내용은 Apache Hadoop 서비스에 직접 연결을 참조하세요.


  • 원인: 오류 메시지에 A task was canceled.와 유사한 메시지가 포함되었다면 작업 제출 시간이 초과된 것입니다.

  • 권장 사항: 문제는 일반 HDInsight 연결 또는 네트워크 연결일 수 있습니다. 먼저 브라우저에서 HDInsight Ambari UI를 사용할 수 있는지 확인하세요. 그리고 나서 자격 증명이 여전히 유효한지 확인합니다.

    자체 호스팅 IR(Integrated Runtime)을 사용하는 경우 자체 호스팅 IR이 설치된 VM 또는 컴퓨터에서 이 단계를 수행합니다. 그런 다음, 작업을 다시 제출해 보세요.

    자세한 내용은 Ambari Web UI를 참조하세요.


  • 원인: 오류 메시지에 User admin is locked out in Ambari 또는 Unauthorized: Ambari user name or password is incorrect와 유사한 메시지가 포함되어 있는 경우 HDInsight의 자격 증명이 잘못되었거나 만료된 상태입니다.

  • 권장 사항: 자격 증명을 수정하고 연결된 서비스를 다시 배포합니다. 먼저 브라우저에서 클러스터 URI를 열고 로그인을 시도하여 자격 증명이 HDInsight에서 작동하는지 확인합니다. 자격 증명이 작동하지 않으면 Azure Portal에서 재설정할 수 있습니다.

    ESP 클러스터의 경우 셀프 서비스 암호 재설정을 통해 암호를 재설정합니다.


  • 원인: 오류 메시지에 502 - Web server received an invalid response while acting as a gateway or proxy server와 유사한 메시지가 포함 되어 있으면 HDInsight 서비스에서 이 오류가 반환 됩니다.

  • 권장 사항: Ambari 서버 프로세스가 종료되면 502 오류가 자주 발생합니다. 헤드 노드를 다시 부팅하여 Ambari 서비스를 다시 시작할 수 있습니다.

    1. SSH를 사용하여 HDInsight의 노드 중 하나에 연결합니다.

    2. ping headnodehost를 실행하여 활성 헤드 노드 호스트를 식별합니다.

    3. SSH를 사용해 활성 헤드 노드에 Ambari 서버를 배치하여 활성 헤드 노드에 연결합니다.

    4. 활성 헤드 노드를 다시 부팅합니다.

      자세한 내용은 Azure HDInsight 문제 해결 설명서를 참조하세요. 예시:


  • 원인: 오류 메시지에 Unable to service the submit job request as templeton service is busy with too many submit job requests 또는 Queue root.joblauncher already has 500 applications, cannot accept submission of application과 유사한 메시지가 포함되어 있으면 동시에 너무 많은 작업이 HDInsight에 전송됩니다.

  • 권장 사항: HDInsight에 제출된 동시 작업 수를 제한합니다. 동일한 활동으로 작업을 전송하는 경우 작업 동시성을 참조하세요. 동시 파이프라인 실행이 시간이 지남에 따라 분산되도록 트리거를 변경합니다.

    오류에서 제안된 대로 templeton.parallellism.job.submit을 조정하려면 HDInsight 설명서를 참조하세요.

오류 코드: 2301

  • 메시지: Could not get the status of the application '%physicalJobId;' from the HDInsight service. Received the following error: %message;. Please refer to HDInsight troubleshooting documentation or contact their support for further assistance.

  • 원인: HDInsight 클러스터 또는 서비스에 문제가 있습니다.

  • 권장 사항: 이 오류는 실행 중인 작업의 상태를 요청할 때 서비스가 HDInsight 클러스터로부터 응답을 받지 못하는 경우에 발생합니다. 클러스터 자체에서 이 문제가 발생할 수 있습니다. 또는 HDInsight 서비스에서 중단이 발생할 수 있습니다.

    HDInsight 문제 해결 설명서를 참조하거나 Microsoft 지원에 추가 지원을 문의하세요.

오류 코드: 2302

  • 메시지: Hadoop job failed with exit code '%exitCode;'. See '%logPath;/stderr' for more details. Alternatively, open the Ambari UI on the HDI cluster and find the logs for the job '%jobId;'. Contact HDInsight team for further support.

  • 원인: 작업이 HDI 클러스터에 제출되었지만 작업이 실패했습니다.

  • 권장 사항:

  1. 다음과 같이 Ambari UI를 확인하세요.
    1. 모든 서비스가 계속 실행 중인지 확인합니다.
    2. Ambari UI에서 대시보드의 경고 섹션을 확인합니다.
      1. 경고 및 경고 관련 해결 방법에 대한 자세한 내용은 클러스터 관리 및 모니터링을 참조하세요.
    3. YARN 메모리를 검토합니다. YARN 메모리가 높으면 작업 처리가 지연될 수 있습니다. Spark 애플리케이션/작업을 수용할 리소스가 부족한 경우 클러스터에 메모리와 코어가 충분하도록 클러스터를 확장합니다.
  2. 샘플 테스트 작업을 실행합니다.
    1. HDInsight 백엔드에서 동일한 작업을 실행하는 경우 작업이 성공적으로 수행되었는지 확인하세요. 샘플 실행에 대한 예제를 보려면 MapReduce 예제 실행을 참조하세요.
  3. HDInsight에서 작업이 계속 실패하면 지원 팀에 제공할 응용 프로그램 로그 및 정보를 확인하세요.
    1. 작업이 YARN에 제출되었는지 확인합니다. 작업이 YARN에 제출되지 않은 경우 --master yarn을 사용합니다.
    2. 응용 프로그램의 실행이 완료되면 YARN 응용 프로그램의 시작 시간 및 종료 시간을 수집합니다. 응용 프로그램이 실행을 완료하지 못한 경우 시작 시간/실행 시간을 수집합니다.
    3. yarn logs -applicationId <Insert_Your_Application_ID>로 응용 프로그램 로그를 확인 및 수집합니다.
    4. /var/log/hadoop-yarn/yarn 디렉터리 아래에서 YARN 리소스 관리자 로그를 확인하고 수집합니다.
    5. 이러한 단계를 수행해도 문제가 해결되지 않으면 Azure HDInsight 팀에 문의하여 지원을 요청하고 위의 로그 및 타임스탬프를 제공하세요.

오류 코드: 2303

  • 메시지: Hadoop job failed with transient exit code '%exitCode;'. See '%logPath;/stderr' for more details. Alternatively, open the Ambari UI on the HDI cluster and find the logs for the job '%jobId;'. Try again or contact HDInsight team for further support.

  • 원인: 작업이 HDI 클러스터에 제출되었지만 작업이 실패했습니다.

  • 권장 사항:

  1. 다음과 같이 Ambari UI를 확인하세요.
    1. 모든 서비스가 계속 실행 중인지 확인합니다.
    2. Ambari UI에서 대시보드의 경고 섹션을 확인합니다.
      1. 경고 및 경고 관련 해결 방법에 대한 자세한 내용은 클러스터 관리 및 모니터링을 참조하세요.
    3. YARN 메모리를 검토합니다. YARN 메모리가 높으면 작업 처리가 지연될 수 있습니다. Spark 애플리케이션/작업을 수용할 리소스가 부족한 경우 클러스터에 메모리와 코어가 충분하도록 클러스터를 확장합니다.
  2. 샘플 테스트 작업을 실행합니다.
    1. HDInsight 백엔드에서 동일한 작업을 실행하는 경우 작업이 성공적으로 수행되었는지 확인하세요. 샘플 실행에 대한 예제를 보려면 MapReduce 예제 실행을 참조하세요.
  3. HDInsight에서 작업이 계속 실패하면 지원 팀에 제공할 응용 프로그램 로그 및 정보를 확인하세요.
    1. 작업이 YARN에 제출되었는지 확인합니다. 작업이 YARN에 제출되지 않은 경우 --master yarn을 사용합니다.
    2. 응용 프로그램의 실행이 완료되면 YARN 응용 프로그램의 시작 시간 및 종료 시간을 수집합니다. 응용 프로그램이 실행을 완료하지 못한 경우 시작 시간/실행 시간을 수집합니다.
    3. yarn logs -applicationId <Insert_Your_Application_ID>로 응용 프로그램 로그를 확인 및 수집합니다.
    4. /var/log/hadoop-yarn/yarn 디렉터리 아래에서 YARN 리소스 관리자 로그를 확인하고 수집합니다.
    5. 이러한 단계를 수행해도 문제가 해결되지 않으면 Azure HDInsight 팀에 문의하여 지원을 요청하고 위의 로그 및 타임스탬프를 제공하세요.

오류 코드: 2304

  • 메시지: MSI authentication is not supported on storages for HDI activities.

  • 원인: HDI(HDInsight) 연결 서비스 또는 HDI 활동에 사용된 스토리지 연결 서비스는 지원되지 않는 MSI 인증으로 구성됩니다.

  • 권장 사항: HDI 연결 서비스 또는 HDI 작업에 사용되는 스토리지 계정에 대한 전체 연결 문자열을 제공합니다.

오류 코드: 2305

  • 메시지: Failed to initialize the HDInsight client for the cluster '%cluster;'. Error: '%message;'

  • 원인: HDI 클러스터에 대한 연결 정보가 잘못되었거나, 제공된 사용자에게 필요한 작업을 수행할 수 있는 권한이 없거나, HDInsight 서비스에서 서비스의 요청에 응답하는 동안 문제가 발생했습니다.

  • 권장 사항:사용자 정보가 올바른지 확인하고, HDI 클러스터의 Ambari UI가 IR이 설치된 VM(자체 호스팅 IR)의 브라우저에서 열리거나 어떤 컴퓨터(Azure IR)에서든 열 수 있는지 확인하세요.

오류 코드: 2306

  • 메시지: An invalid json is provided for script action '%scriptActionName;'. Error: '%message;'

  • 원인: 스크립트 작업에 제공된 JSON이 잘못되었습니다.

  • 권장 사항: 오류 메시지는 문제를 식별하는 데 도움이 됩니다. Json 구성을 수정하고 다시 시도하세요.

    자세한 내용은 Azure HDInsight 주문형 연결 서비스를 확인하세요.

오류 코드: 2310

  • 메시지: Failed to submit Spark job. Error: '%message;'

  • 원인: 서비스가 Livy API(Livy/일괄 처리)를 사용하여 Spark 클러스터에서 일괄 처리를 만들려고 했지만 오류가 발생했습니다.

  • 권장 사항: 오류 메시지에 따라 문제를 해결합니다. 해결하는 데 정보가 부족한 경우 HDI 팀에 문의하여 일괄 처리 ID 및 작업 ID를 제공하세요. 이 ID는 서비스 모니터링의 활동 실행 출력 페이지에서 찾을 수 있습니다. 문제를 추가로 해결하려면 일괄 처리 작업의 전체 로그를 수집하세요.

    전체 로그를 수집하는 방법에 대한 자세한 내용은 일괄 처리 작업의 전체 로그 가져오기를 참조하세요.

오류 코드: 2312

  • 메시지: Spark job failed, batch id:%batchId;. Please follow the links in the activity run Output from the service Monitoring page to troubleshoot the run on HDInsight Spark cluster. Please contact HDInsight support team for further assistance.

  • 원인: HDInsight Spark 클러스터에서 작업이 실패했습니다.

  • 권장 사항: 서비스 모니터링의 활동 실행 출력 페이지 링크를 따라 HDInsight Spark 클러스터에서 실행 문제를 해결할 수 있습니다. 추가 지원이 필요한 경우 HDInsight 지원 팀에 문의하세요.

    전체 로그를 수집하는 방법에 대한 자세한 내용은 일괄 처리 작업의 전체 로그 가져오기를 참조하세요.

오류 코드: 2313

  • 메시지: The batch with ID '%batchId;' was not found on Spark cluster. Open the Spark History UI and try to find it there. Contact HDInsight support for further assistance.

  • 원인: HDInsight Spark 클러스터에서 일괄 처리가 삭제되었습니다.

  • 권장 사항: HDInsight Spark 클러스터에서 일괄 처리 문제를 해결합니다. 추가 지원이 필요한 경우 HDInsight 지원 팀에 문의하세요.

    전체 로그를 수집하는 방법에 대한 자세한 내용은 일괄 처리 작업의 전체 로그 가져오기를 참조하고, 추가 지원이 필요한 경우 HDInsight 지원 팀에 전체 로그를 공유하세요.

오류 코드: 2328

  • 메시지: Failed to create the on demand HDI cluster. Cluster or linked service name: '%clusterName;', error: '%message;'

  • 원인: 발생한 문제에 대한 세부 정보가 오류 메시지에 표시됩니다.

  • 권장 사항: 오류 메시지는 문제를 해결하는 데 도움이 됩니다.

오류 코드: 2329

  • 메시지: Failed to delete the on demand HDI cluster. Cluster or linked service name: '%clusterName;', error: '%message;'

  • 원인: 발생한 문제에 대한 세부 정보가 오류 메시지에 표시됩니다.

  • 권장 사항: 오류 메시지는 문제를 해결하는 데 도움이 됩니다.

오류 코드: 2331

  • 메시지: The file path should not be null or empty.

  • 원인: 제공된 파일 경로가 비어 있습니다.

  • 권장 사항: 존재하는 파일의 경로를 제공합니다.

오류 코드: 2340

  • 메시지: HDInsightOnDemand linked service does not support execution via SelfHosted IR. Your IR name is '%IRName;'. Please select an Azure IR instead.

  • 원인: HDInsight 주문형 연결 서비스는 자체 호스팅 IR을 통한 실행을 지원하지 않습니다.

  • 권장 사항: Azure IR을 선택하고 다시 시도합니다.

오류 코드: 2341

  • 메시지: HDInsight cluster URL '%clusterUrl;' is incorrect, it must be in URI format and the scheme must be 'https'.

  • 원인: 제공된 URL의 형식이 올바르지 않습니다.

  • 권장 사항: 클러스터 URL을 수정하고 다시 시도합니다.

오류 코드: 2342

  • 메시지: Failed to connect to HDInsight cluster: '%errorMessage;'.

  • 원인: 클러스터에 제공된 자격 증명이 잘못되었거나, 네트워크 구성 또는 연결 문제가 있거나, IR에 클러스터 연결 문제가 있습니다.

  • 권장 사항:

    1. 브라우저에서 HDInsight 클러스터의 Ambari UI를 열어 자격 증명이 올바른지 확인하세요.

    2. 클러스터가 VNet(가상 네트워크)에 있고 자체 호스팅 IR을 사용 중인 경우 HDI URL은 VNet의 프라이빗 URL이어야 하며 클러스터 이름 뒤에 -int가 있어야 합니다.

      예를 들어 https://mycluster.azurehdinsight.net/https://mycluster-int.azurehdinsight.net/로 변경합니다. -intmycluster 뒤, .azurehdinsight.net 앞이어야 합니다.

    3. 클러스터가 VNet에 있고 자체 호스팅 IR을 사용 중이며 비공개 URL이 사용되었지만 연결에 계속 실패하는 경우에는 IR이 설치된 VM이 HDI에 연결하는 데 문제가 있는 것입니다.

      IR이 설치된 VM에 연결하고 브라우저에서 Ambari UI를 엽니다. 클러스터에 비공개 URL을 사용합니다. 이 연결은 브라우저에서 작동해야 합니다. 작동하지 않는 경우 HDInsight 지원 팀에 문의하여 추가 지원을 요청하세요.

    4. 자체 호스팅 IR을 사용하지 않는 경우에는 HDI 클러스터에 공개적으로 액세스할 수 있어야 합니다. 브라우저에서 Ambari UI를 열고 열리는지 확인합니다. 클러스터 또는 서비스에 문제가 있는 경우 HDInsight 지원 팀에 문의하여 도움을 요청하세요.

      연결 서비스에 사용된 HDI 클러스터 URL은 테스트 연결이 통과되고 실행이 작동하도록 IR(자체 호스팅 또는 Azure)에서 액세스할 수 있어야 합니다. 이 상태는 VM 또는 모든 공용 컴퓨터의 브라우저에서 URL을 열어 확인할 수 있습니다.

오류 코드: 2343

  • 메시지: User name and password cannot be null or empty to connect to the HDInsight cluster.

  • 원인: 사용자 이름 또는 암호가 비어 있습니다.

  • 권장 사항: HDI에 연결하려면 올바른 자격 증명을 제공하고 다시 시도합니다.

오류 코드: 2345

  • 메시지: Failed to read the content of the hive script. Error: '%message;'

  • 원인: 스크립트 파일이 없거나 서비스가 스크립트 위치에 연결할 수 없습니다.

  • 권장 사항: 스크립트가 있는지, 연결된 서비스에 연결에 대한 적절한 자격 증명이 있는지 확인합니다.

오류 코드: 2346

  • 메시지: Failed to create ODBC connection to the HDI cluster with error message '%message;'.

  • 원인: 서비스가 HDI 클러스터에 대한 ODBC(Open Database Connectivity) 연결을 설정하려고 했지만 오류로 인해 실패했습니다.

  • 권장 사항:

    1. ODBC/JDBC(Java Database Connectivity) 연결을 올바르게 설정했는지 확인하세요.
      1. JDBC의 경우 동일한 가상 네트워크를 사용한다면 다음을 통해 이 연결을 가져올 수 있습니다.
        Hive -> Summary -> HIVESERVER2 JDBC URL
      2. JDBC를 올바르게 설정하려면 HDInsight에서 JDBC 드라이버를 통해 Apache Hive 쿼리를 참조하세요.
      3. ODB(개방형 데이터베이스)의 경우 자습서: ODBC 및 PowerShell을 사용하여 Apache Hive 쿼리를 참조하여 올바르게 설정되었는지 확인합니다.
    2. Hiveserver2, Hive Metastore 및 Hiveserver2 Interactive가 활성 상태이고 작동되는지 확인합니다.
    3. Ambari UI(사용자 인터페이스)를 확인합니다.
      1. 모든 서비스가 계속 실행 중인지 확인합니다.
      2. Ambari UI에서 대시보드의 경고 섹션을 확인합니다.
        1. 경고 및 경고 관련 해결 방법에 대한 자세한 내용은 클러스터 관리 및 모니터링을 참조하세요.
    4. 이러한 단계를 수행해도 문제를 해결할 수 없는 경우 Azure HDInsight 팀에 문의하세요.

오류 코드: 2347

  • 메시지: Hive execution through ODBC failed with error message '%message;'.

  • 원인: 서비스는 ODBC 연결을 통해 HDI 클러스터에 실행할 하이브 스크립트를 제출했지만 HDI에서 스크립트가 실패했습니다.

  • 권장 사항:

    1. ODBC/JDBC(Java Database Connectivity) 연결을 올바르게 설정했는지 확인하세요.
      1. JDBC의 경우 동일한 가상 네트워크를 사용한다면 다음을 통해 이 연결을 가져올 수 있습니다.
        Hive -> Summary -> HIVESERVER2 JDBC URL
      2. JDBC를 올바르게 설정하려면 HDInsight에서 JDBC 드라이버를 통해 Apache Hive 쿼리를 참조하세요.
      3. ODB(개방형 데이터베이스)의 경우 자습서: ODBC 및 PowerShell을 사용하여 Apache Hive 쿼리를 참조하여 올바르게 설정되었는지 확인합니다.
    2. Hiveserver2, Hive Metastore 및 Hiveserver2 Interactive가 활성 상태이고 작동되는지 확인합니다.
    3. Ambari UI(사용자 인터페이스)를 확인합니다.
      1. 모든 서비스가 계속 실행 중인지 확인합니다.
      2. Ambari UI에서 대시보드의 경고 섹션을 확인합니다.
        1. 경고 및 경고 관련 해결 방법에 대한 자세한 내용은 클러스터 관리 및 모니터링을 참조하세요.
    4. 이러한 단계를 수행해도 문제를 해결할 수 없는 경우 Azure HDInsight 팀에 문의하세요.

오류 코드: 2348

  • 메시지: The main storage has not been initialized. Please check the properties of the storage linked service in the HDI linked service.

  • 원인: 스토리지 연결 서비스 속성이 올바르게 설정되지 않았습니다.

  • 권장 사항: HDI 작업을 위한 기본 스토리지 연결 서비스에서는 전체 연결 문자열만 지원됩니다. MSI 권한 부여 또는 응용 프로그램을 사용하고 있지 않은지 확인합니다.

오류 코드: 2350

  • 메시지: Failed to prepare the files for the run '%jobId;'. HDI cluster: '%cluster;', Error: '%errorMessage;'

  • 원인: 파일을 배치해야 할 스토리지에 연결하기 위해 제공한 자격 증명이 올바르지 않거나 해당 파일이 존재하지 않습니다.

  • 권장 사항: 이 오류는 서비스가 HDI 활동을 준비하고, HDI에 작업을 제출하기 전에 기본 스토리지에 파일을 복사하려고 하는 경우에 발생합니다. 파일이 제공된 위치에 있고 저장소 연결이 올바른지 확인하세요. HDI 활동은 HDI 활동과 관련된 스토리지 계정에서 MSI 인증을 지원하지 않으므로 연결된 서비스에 전체 키가 있거나 Azure Key Vault를 사용하는지 확인하세요.

오류 코드: 2351

  • 메시지: Could not open the file '%filePath;' in container/fileSystem '%container;'.

  • 원인: 파일이 지정된 경로에 존재하지 않습니다.

  • 권장 사항: 파일이 실제로 존재하는지, 연결 정보가 이 파일을 가리키는 연결 서비스에 올바른 자격 증명이 있는지 확인하세요.

오류 코드: 2352

  • 메시지: The file storage has not been initialized. Please check the properties of the file storage linked service in the HDI activity.

  • 원인: 파일 스토리지 연결 서비스 속성이 올바르게 설정되지 않았습니다.

  • 권장 사항: 파일 스토리지 연결 서비스의 속성이 올바르게 구성되었는지 확인합니다.

오류 코드: 2353

  • 메시지: The script storage has not been initialized. Please check the properties of the script storage linked service in the HDI activity.

  • 원인: 스크립트 스토리지 연결 서비스 속성이 올바르게 설정되지 않았습니다.

  • 권장 사항: 스크립트 스토리지 연결된 서비스의 속성이 올바르게 구성되었는지 확인합니다.

오류 코드: 2354

  • 메시지: The storage linked service type '%linkedServiceType;' is not supported for '%executorType;' activities for property '%linkedServicePropertyName;'.

  • 원인: 스토리지 연결 서비스 유형은 활동에서 지원되지 않습니다.

  • 권장 사항: 선택한 연결된 서비스에 해당 작업에 대해 지원되는 형식 중 하나가 있는지 확인합니다. HDI 활동은 AzureBlobStorage 및 AzureBlobFSStorage 연결 서비스를 지원합니다.

    자세한 내용은 Azure HDInsight 클러스터에 사용할 저장소 옵션 비교를 참조하세요.

오류 코드: 2355

  • 메시지: The '%value' provided for commandEnvironment is incorrect. The expected value should be an array of strings where each string has the format CmdEnvVarName=CmdEnvVarValue.

  • 원인: commandEnvironment에 대해 제공된 값이 올바르지 않습니다.

  • 권장 사항: 제공된 값이 다음과 유사한지 확인합니다.

    \"variableName=variableValue\"
    ]
    

    또한 각 변수가 목록에 한 번만 표시되는지 확인합니다.

오류 코드: 2356

  • 메시지: The commandEnvironment already contains a variable named '%variableName;'.

  • 원인: commandEnvironment에 대해 제공된 값이 올바르지 않습니다.

  • 권장 사항: 제공된 값이 다음과 유사한지 확인합니다.

    \"variableName=variableValue\"
    ]
    

    또한 각 변수가 목록에 한 번만 표시되는지 확인합니다.

오류 코드: 2357

  • 메시지: The certificate or password is wrong for ADLS Gen 1 storage.

  • 원인: 제공된 자격 증명이 올바르지 않습니다.

  • 권장 사항: ADLS Gen 1의 연결 정보가 서비스에 연결되어 있는지 확인하고 연결 테스트가 성공하는지 확인합니다.

오류 코드: 2358

  • 메시지: The value '%value;' for the required property 'TimeToLive' in the on demand HDInsight linked service '%linkedServiceName;' has invalid format. It should be a timespan between '00:05:00' and '24:00:00'.

  • 원인: 필수 속성 TimeToLive에 제공된 값의 형식이 유효하지 않습니다.

  • 권장 사항: 값을 제안된 범위로 업데이트하고 다시 시도합니다.

오류 코드: 2359

  • 메시지: The value '%value;' for the property 'roles' is invalid. Expected types are 'zookeeper', 'headnode', and 'workernode'.

  • 원인: roles 속성에 제공된 값이 잘못되었습니다.

  • 권장 사항: 값을 제안 사항 중 하나로 업데이트하고 다시 시도합니다.

오류 코드: 2360

  • 메시지: The connection string in HCatalogLinkedService is invalid. Encountered an error while trying to parse: '%message;'.

  • 원인: HCatalogLinkedService에 대해 제공된 연결 문자열이 잘못되었습니다.

  • 권장 사항: 값을 올바른 Azure SQL 연결 문자열로 업데이트하고 다시 시도합니다.

오류 코드: 2361

  • 메시지: Failed to create on demand HDI cluster. Cluster name is '%clusterName;'.

  • 원인: 클러스터를 만들지 못했으며 서비스가 HDInsight 서비스에서 오류를 가져오지 못했습니다.

  • 권장 사항: Azure Portal을 열고 제공된 이름의 HDI 리소스를 찾은 다음 프로비전 상태를 확인합니다. 추가 지원이 필요한 경우 HDInsight 지원 팀에 문의하세요.

오류 코드: 2362

  • 메시지: Only Azure Blob storage accounts are supported as additional storages for HDInsight on demand linked service.

  • 원인: 제공된 추가 스토리지가 Azure Blob Storage가 아닙니다.

  • 권장 사항: Azure Blob Storage 계정을 HDInsight 주문형 연결 서비스에 대한 추가 스토리지로 제공합니다.

HDInsight ESP 클러스터를 사용하여 연결된 서비스에 대한 SSL 오류

  • 메시지: Failed to connect to HDInsight cluster: 'ERROR [HY000] [Microsoft][DriverSupport] (1100) SSL certificate verification failed because the certificate is missing or incorrect.'

  • 원인:이 문제는 System Trust Store와 관련이 있을 수 있습니다.

  • 해결 방법: Microsoft Integration Runtime\4.0\Shared\ODBC Drivers\Microsoft Hive ODBC Driver\lib 경로로 이동해 DriverConfiguration64.exe를 열어 설정을 변경할 수 있습니다.

    System Trust Store 사용 선택 취소

클러스터 준비 중에 HDI 작업이 멈춤

클러스터 준비 중에 HDI 작업이 멈춘 경우 아래 지침을 따르세요.

  1. 제한 시간이 아래에 설명된 것보다 큰지 확인하고 실행이 완료되거나 제한 시간이 초과될 때까지 기다렸다가 새 작업을 제출하기 전에 TTL(Time To Live) 시간을 기다립니다.

    클러스터를 스핀업하는 데 걸리는 최대 기본 시간은 2시간이며, init 스크립트가 있는 경우 추가로 최대 2시간이 추가됩니다.

  2. 스토리지와 HDI가 동일한 지역에 프로비전되어 있는지 확인합니다.

  3. HDI 클러스터에 액세스하는 데 사용되는 서비스 주체가 유효한지 확인합니다.

  4. 문제가 계속 지속되면 해결 방법으로 HDI 연결된 서비스를 삭제하고 새 이름으로 다시 만듭니다.

웹 작업

오류 코드: 2001

오류 코드: 2002

  • 메시지: The payload including configurations on activity/dataSet/linked service is too large. Please check if you have settings with very large value and try to reduce its size.

  • 원인: 보내려는 페이로드가 너무 큽니다.

  • 권장 사항: 페이로드가 너무 큽니다를 참조하세요.

오류 코드: 2003

  • 메시지: There are substantial concurrent external activity executions which is causing failures due to throttling under subscription <subscription id>, region <region code> and limitation <current limit>. Please reduce the concurrent executions. For limits, refer https://aka.ms/adflimits.

  • 원인: 너무 많은 활동이 동시에 실행되고 있습니다. 이는 너무 많은 파이프라인이 한 번에 트리거될 때 발생할 수 있습니다.

  • 권장 사항: 파이프라인 동시성을 줄입니다. 파이프라인의 트리거 시간을 분산해야 할 수도 있습니다.

오류 코드: 2010

  • 메시지: The Self-hosted Integration Runtime ‘<SHIR name>’ is offline

  • 원인: 자체 호스팅 통합 런타임이 오프라인이거나 Azure 통합 런타임이 만료되었거나 등록되지 않았습니다.

  • 권장 사항: 자체 호스팅 통합 런타임이 실행 중인지 확인합니다. 자세한 내용은 자체 호스팅 통합 런타임 문제 해결을 참조하세요.

오류 코드: 2105

  • 메시지: The value type '<provided data type>', in key '<key name>' is not expected type '<expected data type>'

  • 원인: 동적 콘텐츠 식에서 생성된 데이터가 키와 일치하지 않아 JSON 구문 분석 오류가 발생합니다.

  • 권장 사항: 키 필드를 살펴보고 동적 콘텐츠 정의를 수정합니다.

오류 코드: 2108

  • 메시지: Error calling the endpoint '<URL>'. Response status code: 'NA - Unknown'. More details: Exception message: 'NA - Unknown [ClientSideException] Invalid Url: <URL>. Please verify Url or integration runtime is valid and retry. Localhost URLs are allowed only with SelfHosted Integration Runtime'

  • 원인: 제공된 URL에 연결할 수 없습니다. 네트워크 연결 문제가 있거나, URL을 확인할 수 없거나, Azure 통합 런타임에서 localhost URL을 사용 중이었기 때문에 이 문제가 발생할 수 있습니다.

  • 권장 사항: 제공된 URL에 액세스할 수 있는지 확인합니다.


  • 메시지: Error calling the endpoint '%url;'. Response status code: '%code;'

  • 원인: 네트워크 연결, DNS 오류, 서버 인증서 유효성 검사 또는 시간 초과와 같은 기본 문제로 인해 요청이 실패했습니다.

  • 권장 사항: Fiddler/Netmon/Wireshark를 사용하여 요청의 유효성을 검사합니다.

    Fiddler 사용

    Fiddler를 사용하여 모니터링되는 웹 응용 프로그램의 HTTP 세션을 만들려면 다음을 수행하세요.

    1. Fiddler를 다운로드하여 설치하고 엽니다.

    2. 웹 응용 프로그램에서 HTTPS를 사용하는 경우 도구>Fiddler 옵션>HTTPS로 이동합니다.

      1. HTTPS 탭에서 HTTPS 연결 캡처HTTPS 트래픽 암호 해독을 모두 선택합니다.

        Fiddler 옵션

    3. 응용 프로그램에서 TLS/SSL 인증서를 사용하는 경우 Fiddler 인증서를 디바이스에 추가합니다.

      이동: 도구>Fiddler 옵션>HTTPS>작업>데스크톱으로 루트 인증서 내보내기

    4. 파일>트래픽 캡처로 이동하여 캡처 설정을 끕니다. 또는 F12 키를 누릅니다.

    5. 캐시된 모든 항목을 제거하도록 브라우저의 캐시를 지우고 다시 다운로드해야 합니다.

    6. 다음과 같이 요청을 생성합니다.

    7. 작성기 탭을 선택합니다.

      1. HTTP 메서드 및 URL을 설정합니다.

      2. 필요한 경우 헤더 및 요청 본문을 추가합니다.

      3. 실행을 선택합니다.

    8. 트래픽 캡처를 다시 켜고 페이지에서 문제 있는 트랜잭션을 완료합니다.

    9. 파일>저장>모든 세션으로 이동합니다.

    자세한 내용은 Fiddler 시작을 참조하세요.

오류 코드: 2113

  • 메시지: ExtractAuthorizationCertificate: Unable to generate a certificate from a Base64 string/password combination

  • 원인: Base64 문자열/암호 조합에서 인증서를 생성할 수 없습니다.

  • 권장 사항: 사용 중인 Base64로 인코딩된 PFX 인증서 및 암호 조합이 올바르게 입력되었는지 확인합니다.

오류 코드: 2403

  • 메시지: Get access token from MSI failed for Datafactory <DF mname>, region <region code>. Please verify resource url is valid and retry.

  • 원인: 제공된 리소스 URL에서 액세스 토큰을 가져올 수 없습니다.

  • 권장 사항: 관리 ID에 대한 올바른 리소스 URL을 제공했는지 확인합니다.

일반

REST 연속 토큰 NULL 오류

오류 메시지: {"token":null,"range":{"min":..}

원인: 여러 파티션/페이지에서 쿼리할 때 백 엔드 서비스는 3가지 속성(token, min 및 max 키 범위)이 있는 JObject 형식의 연속 토큰(예: {"token":null,"range":{"min":"05C1E9AB0DAD76","max":"05C1E9CD673398"}})을 반환합니다. 원본 데이터에 따라 쿼리하면 가져올 데이터가 더 있지만 누락된 토큰을 나타내는 0이 발생할 수 있습니다.

추천: continuationToken이 null이 아닌 경우 {"token":null,"range":{"min":"05C1E9AB0DAD76","max":"05C1E9CD673398"}} 문자열로 이전 응답의 연속 토큰을 사용하여 queryActivityRuns API를 다시 호출해야 합니다. 쿼리 API에 대한 전체 문자열을 다시 전달해야 합니다. 작업은 쿼리 결과에 대한 후속 페이지에서 반환됩니다. 전체 continuationToken 값 != null이면 쿼리를 계속해야 하므로 이 페이지에 빈 배열이 있다는 것을 무시해야 합니다. 자세한 내용은 파이프라인 실행 쿼리에 대한 REST API를 참조하세요.

작업 중단 문제

작업이 거의 진행되지 않으며 정상적인 실행보다 훨씬 더 오래 실행되는 현상이 확인되는 경우 문제가 발생했을 수 있습니다. 취소하고 다시 시도한 후 작동 여부를 살피세요. 복사 작업인 경우 복사 작업 성능 문제 해결에서 성능 모니터링 및 문제 해결에 대해 알아볼 수 있습니다. 데이터 흐름의 경우 매핑 데이터 흐름 성능 및 튜닝 가이드에서 알아보세요.

페이로드가 너무 큽니다.

오류 메시지: The payload including configurations on activity/dataSet/linked service is too large. Please check if you have settings with very large value and try to reduce its size.

원인: 각 작업 실행에 대한 페이로드에는 활동 구성, 연결된 데이터 세트, 연결된 서비스 구성(있는 경우), 활동 유형별로 생성된 시스템 속성의 일부가 포함됩니다. 해당 페이로드 크기의 한도는 Data FactoryAzure Synapse Analytics에 대한 Azure 한도 설명서에 언급된 대로 896KB입니다.

권장 사항: 이 제한은 업스트림 활동 출력 또는 외부에서 하나 이상의 큰 매개 변수 값을 전달하는 경우, 특히 제어 흐름의 활동 간에 실제 데이터를 전달하는 경우에 발생할 가능성이 높습니다. 큰 매개 변수 값의 크기를 줄이거나 파이프라인 논리를 튜닝하여 활동 간에 이러한 값을 전달하지 않고 활동 내에서 처리할 수 있는지 확인합니다.

지원되지 않는 압축으로 인해 파일이 손상됨

증상: Blob 컨테이너에 저장된 파일의 압축을 풀려고 합니다. 파이프라인의 단일 복사 작업에 압축 형식이 "deflate64"(또는 지원되지 않는 형식)로 설정된 원본이 있습니다. 이 작업은 성공적으로 실행되고 zip 파일에 포함된 텍스트 파일을 생성합니다. 그러나 파일의 텍스트에 문제가 있어 이 파일이 손상된 것으로 나타납니다. 이 파일의 압축을 로컬에서 풀면 괜찮습니다.

원인: zip 파일은 'deflate64' 알고리즘으로 압축되지만 Azure Data Factory의 내부 zip 라이브러리는 'deflate'만 지원합니다. zip 파일이 Windows 시스템에 의해 압축되고 전체 파일 크기가 특정 수치를 초과하는 경우 Windows는 기본적으로 "deflate64"를 사용하는데 이것이 Azure Data Factory에서 지원되지 않습니다. 반면에 파일 크기가 더 작거나 압축 알고리즘 지정을 지원하는 타사 zip 도구를 사용하는 경우 Windows는 기본적으로 "deflate"를 사용합니다.

사실 Azure Data Factory 및 Synapse Analytics의 이진 형식Azure Data Factory 및 Azure Synapse Analytics의 구분된 텍스트 형식에는 "deflate64" 형식이 Azure Data Factory에서 지원되지 않는다고 분명히 명시되어 있습니다.

파이프라인 실행에서 배열 매개 변수를 문자열로 자식 파이프라인에 전달합니다.

오류 메시지: Operation on target ForEach1 failed: The execution of template action 'MainForEach1' failed: the result of the evaluation of 'foreach' expression '@pipeline().parameters.<parameterName>' is of type 'String'. The result must be a valid array.

원인: 파이프라인 실행에서 아래 이미지와 같이 배열 형식의 매개 변수를 만들더라도 파이프라인은 실패합니다.

파이프라인 실행 작업의 매개 변수를 보여 주는 스크린샷.

이는 페이로드가 부모 파이프라인에서 자식 파이프라인으로 문자열로 전달되기 때문입니다. 자식 파이프라인에 전달된 입력을 검사할 때 확인할 수 있습니다.

입력 형식 문자열을 보여 주는 스크린샷.

추천: 이 문제를 해결하기 위해 아래 이미지와 같이 배열 만들기 함수를 활용할 수 있습니다.

배열 만들기 함수를 사용하는 방법을 보여 주는 스크린샷.

그러면 파이프라인이 성공합니다. 그리고 입력 상자에서 전달된 매개 변수가 배열임을 확인할 수 있습니다.

입력 형식 배열을 보여 주는 스크린샷.

자세한 문제 해결 도움말은 다음 리소스를 참조하세요.