다음을 통해 공유


Azure Data Lake Analytics에 대한 진단 로그에 액세스

중요

Azure Data Lake Analytics 2024년 2월 29일에 사용 중지되었습니다. 이 공지 사항을 통해 자세히 알아봅니다.

데이터 분석의 경우 organization Azure Synapse Analytics 또는 Microsoft Fabric을 사용할 수 있습니다.

진단 로깅을 사용하면 데이터 액세스 감사 내역을 수집할 수 있습니다. 이러한 로그는 다음과 같은 정보를 제공합니다.

  • 데이터에 액세스하는 사용자의 목록.
  • 데이터가 액세스되는 빈도.
  • 계정에 저장된 데이터의 양.

로깅 사용

  1. Azure Portal에 로그인합니다.

  2. Data Lake Analytics 계정을 열고 모니터링 섹션에서 진단 설정을 선택합니다. 그런 다음, +진단 설정 추가를 선택합니다.

    선택된

  3. 진단 설정에서 이 로깅 구성에 이름을 입력하고 로깅 옵션을 선택합니다.

    감사를 수집하고 로그를 요청하는 진단을 켜는 설정을 보여 주는 스크린샷

    • 네 가지 방법으로 데이터를 저장/처리하도록 선택할 수 있습니다.

      • Azure Storage 계정에 로그를 저장하려면 스토리지 계정에 보관을 선택합니다. 데이터를 보관하려는 경우 이 옵션을 사용합니다. 이 옵션을 선택하는 경우 Azure Storage 계정을 제공하여 로그를 저장해야 합니다.

      • Azure Event Hubs에 로그 데이터를 스트리밍하려면 이벤트 허브로 스트리밍을 선택합니다. 들어오는 로그를 실시간으로 분석하는 다운스트림 처리 파이프라인을 사용하는 경우 이 옵션을 사용합니다. 이 옵션을 선택하는 경우 사용하려는 Azure Event Hubs에 대한 세부 정보를 제공해야 합니다.

      • Log Analytics 작업 영역으로 보내기를 선택하여 데이터를 Azure Monitor 서비스로 보냅니다. Azure Monitor 로그를 사용하여 로그를 수집하고 분석하려는 경우 이 옵션을 사용합니다.

      • 파트너 통합을 사용하려면 파트너 솔루션으로 보내기를 선택합니다. 자세한 내용은 이 링크를 따라가세요.

    • 감사 로그 또는 요청 로그를 가져올지, 혹은 둘 모두를 가져올지를 지정합니다. 요청 로그는 모든 API 요청을 캡처합니다. 감사 로그는 해당 API 요청에 의해 트리거되는 모든 작업을 기록합니다.

    • 스토리지 계정에 보관의 경우 데이터를 보관할 일 수를 지정합니다.

    • 저장을 선택합니다.

      참고

      스토리지 계정에 보관, 이벤트 허브로 스트리밍, Log Analytics 작업 영역으로 보내기 또는 파트너 솔루션으로 보내기를 선택한 후에 저장 단추를 선택해야 합니다.

로그 데이터를 포함하는 Azure Storage 계정 사용

  1. 로깅 데이터를 유지하는 Blob 컨테이너를 표시하려면 로깅을 위해 Data Lake Analytics에 사용되는 Azure Storage 계정을 열고 컨테이너를 클릭합니다.

    • insights-logs-audit 컨테이너는 감사 로그를 포함합니다.
    • insights-logs-requests 컨테이너는 요청 로그를 포함합니다.
  2. 이러한 컨테이너 내에서 로그는 다음 파일 구조로 저장됩니다.

    resourceId=/
      SUBSCRIPTIONS/
        <<SUBSCRIPTION_ID>>/
          RESOURCEGROUPS/
            <<RESOURCE_GRP_NAME>>/
              PROVIDERS/
                MICROSOFT.DATALAKEANALYTICS/
                  ACCOUNTS/
                    <DATA_LAKE_ANALYTICS_NAME>>/
                      y=####/
                        m=##/
                          d=##/
                            h=##/
                              m=00/
                                PT1H.json
    

    참고

    ## 항목은 로그가 생성된 연도, 월, 일 및 시간을 포함합니다. Data Lake Analytics는 1시간마다 하나의 파일을 만들므로 m=은(는) 항상 00의 값을 포함합니다.

    예를 들어, 감사 로그에 대한 전체 경로는 다음과 같을 수 있습니다.

    https://adllogs.blob.core.windows.net/insights-logs-audit/resourceId=/SUBSCRIPTIONS/<sub-id>/RESOURCEGROUPS/myresourcegroup/PROVIDERS/MICROSOFT.DATALAKEANALYTICS/ACCOUNTS/mydatalakeanalytics/y=2016/m=07/d=18/h=04/m=00/PT1H.json

    마찬가지로 요청 로그에 대한 전체 경로는 다음과 같을 수 있습니다.

    https://adllogs.blob.core.windows.net/insights-logs-requests/resourceId=/SUBSCRIPTIONS/<sub-id>/RESOURCEGROUPS/myresourcegroup/PROVIDERS/MICROSOFT.DATALAKEANALYTICS/ACCOUNTS/mydatalakeanalytics/y=2016/m=07/d=18/h=14/m=00/PT1H.json

로그 데이터 처리

Azure Data Lake Analytics에서는 로그 데이터를 처리하고 분석하는 방법에 대한 샘플을 제공합니다. https://github.com/Azure/AzureDataLake/tree/master/Samples/AzureDiagnosticsSample에서 샘플을 찾을 수 있습니다.

로그 구조

감사 로그 및 요청 로그는 구조화된 JSON 형식입니다.

요청 로그

다음은 JSON 형식인 요청 로그의 샘플 항목입니다. 각 Blob는 레코드 라는 하나의 루트 개체를 포함하며 여기에는 로그 개체의 배열이 포함됩니다.

{
"records":
  [
    . . . .
    ,
    {
         "time": "2016-07-07T21:02:53.456Z",
         "resourceId": "/SUBSCRIPTIONS/<subscription_id>/RESOURCEGROUPS/<resource_group_name>/PROVIDERS/MICROSOFT.DATALAKEANALYTICS/ACCOUNTS/<data_lake_analytics_account_name>",
         "category": "Requests",
         "operationName": "GetAggregatedJobHistory",
         "resultType": "200",
         "callerIpAddress": "::ffff:1.1.1.1",
         "correlationId": "4a11c709-05f5-417c-a98d-6e81b3e29c58",
         "identity": "1808bd5f-62af-45f4-89d8-03c5e81bac30",
         "properties": {
             "HttpMethod":"POST",
             "Path":"/JobAggregatedHistory",
             "RequestContentLength":122,
             "ClientRequestId":"3b7adbd9-3519-4f28-a61c-bd89506163b8",
             "StartTime":"2016-07-07T21:02:52.472Z",
             "EndTime":"2016-07-07T21:02:53.456Z"
             }
    }
    ,
    . . . .
  ]
}

요청 로그 스키마

이름 형식 Description
time String 로그의 타임스탬프(UTC)
resourceId String 작업이 수행되는 리소스의 식별자
category String 로그 범주 예: Requests
operationName String 기록된 작업의 이름 예를 들어 GetAggregatedJobHistory
resultType String 작업의 상태, 예를 들어 200
callerIpAddress String 요청한 클라이언트의 IP 주소
correlationId String 로그의 식별자입니다. 이 값을 사용하여 관련된 로그 항목의 집합을 그룹화할 수 있습니다.
identity Object 로그를 생성하는 ID
properties JSON 자세한 내용은 다음 섹션(요청 로그 속성 스키마)을 참조하세요.

요청 로그 속성 스키마

이름 형식 설명
HttpMethod String 작업에 사용된 HTTP 메서드 예를 들어 GET
경로 String 작업이 수행된 경로
RequestContentLength int HTTP 요청의 콘텐츠 길이
ClientRequestId String 이 요청을 고유하게 식별하는 식별자
StartTime String 서버가 요청을 받은 시간
EndTime String 서버가 응답을 전송한 시간

감사 로그

다음은 JSON 형식인 감사 로그의 샘플 항목입니다. 각 Blob는 레코드 라는 하나의 루트 개체를 포함하며 여기에는 로그 개체의 배열이 포함됩니다.

{
"records":
  [
    {
         "time": "2016-07-28T19:15:16.245Z",
         "resourceId": "/SUBSCRIPTIONS/<subscription_id>/RESOURCEGROUPS/<resource_group_name>/PROVIDERS/MICROSOFT.DATALAKEANALYTICS/ACCOUNTS/<data_lake_ANALYTICS_account_name>",
         "category": "Audit",
         "operationName": "JobSubmitted",
         "identity": "user@somewhere.com",
         "properties": {
             "JobId":"D74B928F-5194-4E6C-971F-C27026C290E6",
             "JobName": "New Job",
             "JobRuntimeName": "default",
             "SubmitTime": "7/28/2016 7:14:57 PM"
             }
    }
  ]
}

감사 로그 스키마

이름 형식 Description
time String 로그의 타임스탬프(UTC)
resourceId String 작업이 수행되는 리소스의 식별자
category String 로그 범주 예: Audit.
operationName String 기록된 작업의 이름 예를 들어 JobSubmitted
resultType String 작업 상태(operationName)에 대한 하위 상태입니다.
resultSignature String 작업 상태(operationName)에 추가 세부 정보입니다.
identity String 작업을 요청한 사용자입니다. 예들 들어 susan@contoso.com입니다.
properties JSON 자세한 내용은 다음 섹션(감사 로그 속성 스키마)을 참조하세요.

참고

resultTyperesultSignature는 작업의 결과에 대한 정보를 제공하고 작업이 완료되었을 경우에 값을 포함합니다. 예를 들어 operationNameJobStarted 또는 JobEnded의 값을 포함할 때 값을 포함합니다.

감사 로그 속성 스키마

이름 형식 설명
JobId String 작업에 할당된 ID
JobName String 작업에 대해 제공된 이름
JobRunTime String 작업을 처리하는 데 사용된 런타임
SubmitTime String 작업이 제출된 시간(UTC)
StartTime String 제출 후(UTC) 작업이 실행을 시작한 시간
EndTime String 작업이 종료된 시간
병렬 처리 String 제출하는 동안 이 작업에 대해 요청된 Data Lake Analytics 단위의 수

참고

SubmitTime, StartTime, EndTimeParallelism은 작업에 대한 정보를 제공합니다. 해당 작업이 시작 또는 완료되는 경우 이러한 항목만 값을 포함합니다. 예를 들어 operationNameJobSubmitted 값을 가진 후 SubmitTime은 값을 포함합니다.

다음 단계