Azure Monitor 로그 비용 계산 및 옵션
대부분의 Azure Monitor 구현에 대한 가장 중요한 요금은 일반적으로 Log Analytics 작업 영역의 데이터 수집 및 보존입니다. Azure Monitor의 여러 기능은 직접적인 비용이 들지 않지만 수집된 작업 영역 데이터에는 직접 요금이 추가됩니다. 이 문서에서는 Log Analytics 작업 영역에 대한 데이터 요금이 계산되는 방법과 요금에 영향을 미치는 다양한 구성 옵션에 대해 설명합니다.
팁
Azure Monitor 비용을 줄이기 위한 전략은 비용 최적화 및 Azure Monitor를 참조하세요.
가격 책정 모델
Log Analytics의 기본 가격 책정 모델은 수집된 데이터의 볼륨과 보존 기간에 따라 요금이 부과되는 종량제입니다. 각 Log Analytics 작업 영역은 별도의 서비스로 요금이 부과되며 Azure 구독에 대한 청구서에 추가됩니다. Azure Monitor 로그 에 대한 가격 책정은 지역적으로 설정됩니다. 데이터 수집량은 다음에 따라 상당 부분 달라질 수 있습니다.
- 사용하도록 설정된 관리 솔루션 집합과 해당 구성.
- 모니터링되는 리소스의 수 및 유형.
- 모니터링된 각 리소스에서 수집된 데이터 형식.
Azure Monitor 요금 미터 이름 목록은 여기에서 확인할 수 있습니다.
데이터 크기 계산
Azure Monitor 로그는 Log Analytics 작업 영역으로 보내는 데이터의 양에 대해 GB(10^9바이트)를 청구합니다.
Azure Monitor 로그는 다음을 기준으로 단일 레코드의 청구 크기를 계산합니다.
Azure Monitor 로그가 해당 레코드에 대한 Log Analytics 작업 영역에 추가해야 하는 열 항목의 문자열 표현입니다.
대상 테이블 스키마와 일치하지 않는 열 항목을 보내는 경우 Azure Monitor 로그는 대상 테이블에서 데이터를 저장할 수 없더라도 해당 열 항목에 대해 요금을 청구합니다. 데이터 수집 규칙이 대상 테이블 스키마와 일치하여 대상 테이블에 저장할 수 없는 데이터에 대한 요금이 청구되지 않도록 합니다.
참고 항목
청구 가능한 데이터 볼륨 계산은 일반적으로 들어오는 전체 JSON 패키지 이벤트의 크기보다 훨씬 작습니다. 모든 이벤트 유형에서 평균적으로 청구되는 크기는 들어오는 데이터 크기보다 약 25% 적습니다. 작은 이벤트의 경우 최대 50%까지 가능합니다. 백분율에는 청구에서 제외된 표준 열의 효과가 포함됩니다. 비용을 예측하고 다른 가격 책정 모델을 비교하는 경우 청구된 데이터 크기에 대한 이 계산을 이해해야 합니다.
데이터가 데이터 원본에서 수집되거나 수집 프로세스 중에 추가되는지 여부에 관계없이 레코드의 모든 데이터입니다. 이 계산에는 로그 수집 API, 변환 및 사용자 지정 필드에 의해 추가된 모든 사용자 지정 열이 포함됩니다.
제외되는 열
다음 표준 열은 모든 테이블에 공통적이며 레코드 크기 계산에서 제외됩니다. Log Analytics에 저장된 그 외의 열은 레코드 크기 계산에 포함됩니다. 표준 열은 다음과 같습니다.
_ResourceId
_SubscriptionId
_ItemId
_IsBillable
_BilledSize
Type
제외되는 테이블
AzureActivity, Heartbeat, Usage 및 Operation을 포함한 일부 테이블은 데이터 수집 요금이 전혀 발생하지 않습니다. 이 정보는 항상 데이터 수집 및 보존에 대한 청구에서 레코드가 제외되었는지 여부를 보여 주는 _IsBillable 열로 표시됩니다.
다른 솔루션 및 서비스 요금
일부 솔루션은 무료 데이터 수집에 대한 보다 구체적인 정책을 갖고 있습니다. 예를 들어 Azure Migrate는 서버 평가의 처음 180일 동안 종속성 시각화 데이터 비용을 청구하지 않습니다. 클라우드용 Microsoft Defender, Microsoft Sentinel 및 구성 관리와 같은 서비스는 자체적인 가격 책정 모델이 있습니다.
고유한 요금 청구 계산법은 다양한 서비스 및 솔루션에 대한 설명서를 참조하세요.
약정 계층
종량제 모델 외에도 Log Analytics에는 종량제 가격 대비 최대 30%의 비용을 절약할 수 있는 약정 계층이 있습니다. 약정 계층 가격 책정을 사용하면 종량제 가격보다 낮은 가격으로 100GB/일부터 시작하는 작업 영역의 데이터 수집을 구매할 수 있습니다. 약정 수준을 초과하는 사용량(초과분)은 현재 약정 계층에서 제공하는 것과 동일한 GB당 가격으로 청구됩니다. (초과분은 동일한 약정 계층 청구 기준을 사용하여 청구됩니다. 예를 들어, 작업 영역이 200GB/일 약정 계층에 있고 하루에 300GB를 수집하는 경우 해당 사용량은 200GB/일 약정 계층의 1.5단위로 청구됩니다. 약정 계층의 약정 기간은 약정 계층이 선택되거나 변경된 시점부터 31일입니다.
- 약정 기간 동안 더 높은 약정 계층으로 변경하여 31일 약정 기간을 다시 시작할 수 있습니다. 약정 기간을 마칠 때까지 종량제 또는 더 낮은 약정 계층으로 다시 이동할 수 없습니다.
- 약정 기간이 끝나면 작업 영역은 선택한 약정 계층을 유지하며 작업 영역은 언제든지 종량제 또는 더 낮은 약정 계층으로 옮길 수 있습니다.
- 작업 영역이 실수로 약정 계층으로 이동된 경우 Microsoft 지원에 문의하여 약정 기간을 다시 설정하여 종량제 가격 책정 계층으로 다시 이동할 수 있습니다.
약정 계층에 대한 요금은 일일 작업별로 청구됩니다. 작업 영역이 전용 클러스터의 일부인 경우 클러스터에 대한 청구가 수행됩니다. 다음 "전용 클러스터" 섹션을 참조하세요. 약정 계층 및 해당 가격 목록은 Azure Monitor 가격 책정을 참조하세요.
Microsoft 기업계약 할인과 같은 Azure 약정 할인은 종량제 가격 책정과 마찬가지로 Azure Monitor 로그 약정 계층 가격 책정에 적용됩니다. 사용량이 작업 영역당 또는 전용 클러스터당 청구되는지에 관계없이 할인이 적용됩니다.
팁
각 Log Analytics 작업 영역에 대한 사용량 및 예상 비용 메뉴 항목에는 데이터 수집 패턴에 대한 최적의 약정 계층을 선택하는 데 도움이 되도록 각 약정 수준에서 데이터 수집에 대해 예상되는 청구 금액이 표시됩니다. 이 정보를 정기적으로 검토하여 다른 계층으로 이동하면 요금을 줄일 수 있는지 확인하세요. 이 보기에 대한 자세한 내용은 사용량 및 예상 비용을 참조하세요. 실제 요금을 검토하려면 Azure Cost Management = 청구를 사용합니다.
Dedicated 클러스터
Azure Monitor 로그 전용 클러스터는 단일 관리형 Azure Data Explorer 클러스터의 작업 영역 컬렉션입니다. 전용 클러스터는 고객 관리형 키와 같은 고급 기능을 지원하며, 작업 영역과 동일한 약정 계층 가격 책정 모델을 사용하지만 약정 수준이 일일 100GB 이상이어야 합니다. 약정 수준을 초과하는 사용량(초과분)은 현재 약정 계층에서 제공하는 것과 동일한 GB당 가격으로 청구됩니다. 클러스터에 대한 종량제 옵션은 없습니다.
약정 수준을 늘린 후 클러스터 약정 계층은 31일의 약정 기간이 생깁니다. 약정 기간 동안에는 약정 계층 수준을 낮출 수는 없지만 언제든지 늘릴 수는 있습니다. 작업 영역이 클러스터에 연결되면 해당 작업 영역에 대한 데이터 수집 청구는 구성된 약정 계층 수준을 사용하여 클러스터 수준에서 수행됩니다.
클러스터를 만들 때 두 가지 클러스터 요금 청구 모드를 지정하게 됩니다.
클러스터(기본값): 수집된 데이터에 대한 청구가 클러스터 수준에서 수행됩니다. 클러스터에 연결된 각 작업 영역에서 수집된 데이터 양을 집계하여 클러스터에 대한 일일 청구액을 계산합니다. 클라우드용 Microsoft Defender의 노드당 할당량은 클러스터의 모든 작업 영역에서 데이터를 이 방식으로 집계하기 전에 작업 영역 수준에서 적용됩니다.
작업 영역: 클러스터의 약정 계층 비용은 각 작업 영역에 대한 클라우드용 Microsoft Defender의 노드별 할당량을 고려한 후 각 작업 영역의 데이터 수집 볼륨에 따라 클러스터의 작업 영역을 기준으로 비례적으로 계산됩니다.
클러스터에 하루 동안 수집된 총 데이터 볼륨이 약정 계층보다 적으면 각 작업 영역에서 수집된 데이터에 대해 약정 계층의 일부만 청구하여 효율적인 GB당 약정 계층 요금으로 청구됩니다. 약정 계층의 사용되지 않는 부분은 클러스터 리소스 요금에 청구됩니다.
클러스터에 하루 동안 수집된 총 데이터 볼륨이 약정 계층보다 많은 경우 각 작업 영역에 대한 요금은 해당 일에 수집된 데이터의 일부를 기준으로 약정 계층의 일부 및 약정 계층을 초과하여 수집된 데이터의 일부에 대해 청구됩니다. 작업 영역에 하루 동안 수집된 총 데이터 볼륨이 약정 계층을 초과하는 경우 클러스터 리소스에 대한 요금이 청구되지 않습니다.
이러한 각 모드에서 클러스터 청구가 작동하는 방법의 예는 여기에서 찾을 수 있습니다.
데이터 보존 요금은 클러스터에 조인되지 않은 작업 영역의 경우와 동일하게 각 작업 영역에 대해 청구됩니다.
클러스터 요금 청구는 작업 영역이 클러스터에 연결되었는지 여부에 관계 없이 클러스터를 만들 때부터 시작됩니다.
작업 영역을 클러스터에 연결하면 가격 책정 계층이 클러스터로 변경되고 클러스터의 약정 계층에 따라 수집 요금이 청구됩니다. 클러스터에 연결된 작업 영역에는 더 이상 가격 책정 계층이 없습니다. 작업 영역은 언제든지 클러스터에서 연결 해제할 수 있으며 가격 책정 계층은 GB당으로 변경될 수 있습니다.
연결된 작업 영역에서 레거시 노드당 가격 책정 계층을 사용하는 경우 클러스터의 약정 계층에 대해 수집된 데이터에 따라 요금이 청구되며 더 이상 노드당 요금이 청구되지 않습니다. 클라우드용 Microsoft Defender의 노드별 데이터 할당량은 계속 적용됩니다.
클러스터가 삭제되면 클러스터가 31일의 약정 기간 내에 있더라도 클러스터에 대한 청구가 중지됩니다.
전용 클러스터를 만들고 해당 청구 유형을 지정하는 방법에 대한 자세한 내용은 전용 클러스터 만들기를 참조하세요.
기본 및 보조 테이블 계획
Log Analytics 작업 영역에서 특정 테이블을 구성하여 기본 및 보조 테이블 계획을 사용할 수 있습니다. 이러한 테이블의 데이터는 수집 요금이 크게 절감됩니다. 이러한 테이블의 데이터를 쿼리하는 데에는 요금이 부과됩니다.
기본 및 보조 테이블의 데이터 쿼리 요금은 검색 수행 시 검사된 데이터 양(GB)을 기준으로 청구됩니다.
기본 및 보조 테이블 계획에 대한 자세한 내용은 Azure Monitor 로그 개요: 테이블 계획을 참조하세요.
로그 데이터 보존
데이터 수집 외에도 각 Log Analytics 작업 영역에서 데이터 보존 요금이 발생합니다. 전체 작업 영역 또는 각 테이블의 보존 기간을 설정할 수 있습니다. 이 기간이 지나면 데이터는 제거되거나 장기 보존됩니다. 장기 보존 기간 동안에는 할인된 보존 요금을 지불하고 검색 작업을 사용하여 데이터를 검색하는 데에는 요금이 부과됩니다. 장기 보존을 사용하면 규정 준수 또는 가끔 조사를 위해 저장해야 하는 데이터와 관련된 비용을 절감할 수 있습니다.
사용자 지정 테이블을 삭제해도 해당 테이블과 관련된 데이터는 제거되지 않으므로 대화형 및 장기 보존 요금이 계속 적용됩니다.
이러한 설정을 구성하고 장기 보존 데이터에 액세스하는 방법을 포함하여 데이터 보존에 대한 자세한 내용은 Log Analytics 작업 영역에서 데이터 보존 관리를 참조하세요.
참고 항목
Log Analytics 제거 기능을 사용하여 Log Analytics 작업 영역에서 데이터를 삭제해도 보존 비용에는 영향을 미치지 않습니다. 보존 비용을 줄이려면 작업 영역 또는 특정 테이블에 대한 보존 기간을 줄입니다.
작업 검색
검색 작업을 실행하여 장기 보존에서 데이터를 검색합니다. 검색 작업은 추가 분석을 위해 작업 영역 내의 새 검색 테이블로 레코드를 가져오는 비동기 쿼리입니다. 검색 작업 요금은 검색을 수행하기 위해 매일 액세스하여 검사되는 데이터 GB를 기준으로 청구됩니다.
로그 데이터 복원
전체 분석 쿼리 기능을 사용하여 대용량 데이터 또는 장기 보존 데이터를 집중적으로 쿼리해야 하는 경우 데이터 복원 기능은 강력한 도구입니다. 복원 작업은 테이블에 있는 특정 시간 범위의 데이터를 고성능 쿼리용 핫 캐시에서 사용할 수 있도록 합니다. 나중에 작업이 끝나면 데이터를 해제할 수 있습니다. 로그 데이터 복원 요금은 복원된 데이터의 양과 복원이 활성 상태로 유지되는 시간을 기준으로 청구됩니다. 모든 데이터 복원에 대해 청구되는 최소 값은 2TB 및 12시간입니다. 2TB 및/또는 12시간을 초과하여 복원된 데이터는 비례 배분 방식으로 요금이 청구됩니다.
로그 데이터 내보내기
Log Analytics 작업 영역의 데이터 내보내기를 사용하면 데이터가 Azure Monitor 파이프라인에 도착할 때 작업 영역에서 선택한 테이블별로 데이터를 지속적으로 Azure Storage 계정 또는 Azure Event Hubs로 내보낼 수 있습니다. 데이터 내보내기 사용 요금은 내보낸 데이터의 양을 기준으로 청구됩니다. 내보낸 데이터 크기는 내보낸 JSON 형식 데이터의 바이트 수입니다.
Application Insights 요금 청구
작업 영역 기반 Application Insights 리소스는 데이터를 Log Analytics 작업 영역에 저장하므로, 데이터 수집 및 보존에 대한 요금 청구는 Application Insights 데이터가 위치한 작업 영역에서 이루어집니다. 이러한 이유로 종량제와 함께 약정 계층을 포함하여 Log Analytics 가격 책정 모델의 모든 옵션을 사용할 수 있습니다.
팁
Application Insights 테이블에서 보존 설정을 조정하려고 하나요? 작업 영역 기반 구성 요소에 대한 테이블 이름이 변경되었습니다. Application Insights 테이블 구조를 참조하세요.
클래식 Application Insights 리소스의 데이터 수집 및 데이터 보존은 작업 영역 기반 리소스와 동일한 종량제 가격 책정 기준을 따르지만 약정 계층을 사용할 수는 없습니다.
ping 테스트와 다단계 테스트의 원격 분석 요금은 앱의 다른 원격 분석과 동일한 데이터 사용량을 기준으로 청구됩니다. 웹 테스트 사용과 사용자 지정 메트릭 차원에 대한 경고 사용은 계속해서 Application Insights를 통해 보고됩니다. 라이브 메트릭 스트림 사용에 대한 데이터 볼륨 요금은 없습니다.
Application Insights 얼리어답터에게 제공되는 레거시 계층에 대한 자세한 내용은 Application Insights 레거시 엔터프라이즈(노드당) 가격 책정 계층을 참조하세요.
Microsoft Sentinel을 사용하는 작업 영역
Log Analytics 작업 영역에서 Microsoft Sentinel을 사용하도록 설정하면 해당 작업 영역에서 수집된 모든 데이터에는 Log Analytics 요금 외에도 Microsoft Sentinel 요금이 부과됩니다. 이러한 이유로 운영 데이터에 대한 Microsoft Sentinel 요금이 발생하지 않도록 보안 및 운영 데이터를 다른 작업 영역에 분리하는 경우가 많습니다.
일부 시나리오에서는 이 데이터를 결합하여 비용을 절감할 수 있습니다. 일반적으로 이러한 상황은 각각 약정 계층에 도달할 만큼 충분한 보안 및 운영 데이터를 수집하지 않지만 결합된 데이터는 약정 계층에 도달하기에 충분한 경우 발생합니다. 자세한 내용은 다음을 참조하세요.
클라우드용 Microsoft Defender가 적용된 작업 영역
서버용 Microsoft Defender(클라우드용 Defender의 일부)는 모니터링되는 서비스 수에 따라 요금을 청구합니다. 일별 서버당 보안 데이터 형식의 다음 하위 집합에 적용되는 데이터 할당 500MB를 제공합니다.
- SecurityAlert
- SecurityBaseline
- SecurityBaselineSummary
- SecurityDetection
- SecurityEvent
- WindowsFirewall
- SysmonEvent
- ProtectionStatus
- 업데이트 관리 솔루션이 작업 영역에서 실행되고 있지 않거나 솔루션 대상 지정을 사용하는 경우 Update 및 UpdateSummary 데이터 형식.
- MDCFileIntegrityMonitoringEvents
작업 영역이 레거시 노드당 가격 책정 계층에 있는 경우 Defender for Cloud 및 Log Analytics 할당량이 결합되어 청구 가능한 모든 수집된 데이터에 공동으로 적용됩니다. 작업 영역에서 Microsoft Sentinel을 사용하도록 설정한 경우 Sentinel이 클래식 가격 책정 계층을 사용하는 경우 Defender 데이터 할당은 Log Analytics 데이터 수집 청구에만 적용되지만 클래식 Sentinel 청구에는 적용되지 않습니다. Sentinel이 간소화된 가격 책정 계층을 사용하는 경우 Defender 데이터 할당은 통합 Sentinel 청구에 적용됩니다. Microsoft Sentinel 고객이 어떤 이점을 활용할 수 있는지 자세히 알아보려면 Microsoft Sentinel 가격 책정 페이지를 참조하세요.
모니터링되는 서버 수는 시간 단위로 계산됩니다. 모니터링되는 각 서버의 일별 데이터 할당량 기여도는 작업 영역 수준에서 집계됩니다. 작업 영역이 레거시 노드당 가격 책정 계층에 있는 경우 클라우드용 Microsoft Defender 및 Log Analytics 할당량이 결합되어 청구 가능한 모든 수집된 데이터에 공동으로 적용됩니다.
레거시 가격 책정 계층
2018년 4월 2일에 Log Analytics 작업 영역 또는 Application Insights 리소스가 포함되거나, 2019년 2월 1일 이전에 시작되어 여전히 활성 상태인 기업계약에 연결된 구독은 다음과 같은 레거시 가격 책정 계층을 계속 사용할 수 있습니다.
- 독립 실행형(GB당)
- 노드당(Operations Management Suite [OMS])
레거시 무료 평가판 가격 책정 계층에 대한 액세스는 2022년 7월 1일에 제한되었습니다. 독립 실행형 및 노드당 가격 책정 계층에 대한 가격 정보는 여기에서 확인할 수 있습니다.
레거시 계층을 포함한 Azure Monitor 요금 미터 이름 목록은 여기에서 확인할 수 있습니다.
Important
레거시 가격 책정 계층은 비용 효율적인 기본 및 보조 테이블 계획을 사용하여 테이블에 데이터를 수집하는 등 Log Analytics의 일부 최신 기능에 대한 액세스를 지원하지 않습니다.
평가판 가격 책정 계층
평가판 가격 책정 계층의 작업 영역에는 일일 데이터 수집이 500MB로 제한됩니다(클라우드용 Microsoft Defender에서 수집된 보안 데이터 형식 제외). 데이터 보존은 7일로 제한됩니다. 평가판 가격 책정 계층은 프로덕션 워크로드가 아닌 평가 목적으로만 사용됩니다. 무료 평가판 계층에 대해서는 SLA가 제공되지 않습니다.
참고 항목
2022년 7월 1일까지만 레거시 평가판 가격 책정 계층에서 새 작업 영역을 만들거나 기존 작업 영역으로 이동할 수 있었습니다.
독립 실행형 가격 책정 계층
독립 실행형 가격 책정 계층의 사용량은 수집된 데이터 볼륨을 기준으로 청구됩니다. Log Analytics 서비스에서 보고되고 미터의 이름은 "Data Analyzed"입니다. 독립 실행형 가격 책정 계층의 작업 영역에는 사용자가 구성할 수 있는 보존 기간이 30일에서 730일로 지정됩니다. 독립형 가격 책정 계층의 작업 영역은 기본 및 보조 테이블 계획 사용을 지원하지 않습니다.
노드 가격 책정 계층당
노드당 가격 책정 계층은 모니터링되는 VM(노드)당 1시간 단위로 요금이 청구됩니다. 모니터링되는 각 노드에 대한 작업 영역에는 일일 500MB의 데이터 용량이 할당되며 이에 대한 요금은 청구되지 않습니다. 이 할당량은 시간별 세분성으로 계산되며, 매일 작업 영역 수준에서 집계됩니다. 일일 총 데이터 할당량을 초과하는 데이터 수집량에 대해서는 GB당 데이터 초과분 요금이 청구됩니다. 노드당 가격 책정 계층은 레거시 가격 책정 계층에 대한 요구 사항을 충족하는 기존 구독에서만 사용할 수 있는 레거시 계층입니다.
작업 영역이 노드당 가격 책정 계층에 있는 경우, 청구서에 명시되는 해당 서비스는 Log Analytics 사용량에 대한 Insight and Analytics입니다. 노드당 가격 책정 계층의 작업 영역은 사용자 구성 가능 보존 기간이 30~730일입니다. 노드당 가격 책정 계층의 작업 영역은 기본 및 보조 테이블 계획 사용을 지원하지 않습니다. 사용량은 다음 세 가지 미터로 보고됩니다.
- 노드: 노드 개월 단위로 모니터링되는 노드(VM) 수에 대한 사용량입니다.
- 노드당 데이터 초과분: 집계된 데이터 할당량을 초과하여 수집된 데이터의 GB 수입니다.
- 노드당 포함된 데이터: 집계된 데이터 할당량에 포함된 수집된 데이터의 양입니다. 이 미터는 작업 영역이 모든 가격 책정 계층에 있는 경우에도 클라우드용 Microsoft Defender에서 처리하는 데이터 양을 표시하는 데 사용됩니다.
팁
작업 영역에서 노드당 가격 책정 계층에 액세스할 수 있으며 다만 종량제 계층에서 비용이 더 저렴한지 여부가 궁금한 경우, 아래의 쿼리를 사용하여 권장 사항을 확인할 수 있습니다.
표준 및 프리미엄 가격 책정 계층
2016년 10월 1일 이후부터 작업 영역을 표준 또는 프리미엄 가격 책정 계층에서 만들거나 이러한 계층으로 이동할 수 없습니다. 이러한 가격 책정 계층에 이미 있는 작업 영역은 계속 사용할 수 있지만 이러한 계층 외부로 이동했던 작업 영역은 다시 원래 계층으로 이동할 수 없습니다. 표준 및 프리미엄 가격 책정 계층의 데이터 보존 기간은 각각 30일과 365일로 고정되어 있습니다. 이러한 가격 책정 계층의 작업 영역은 기본 및 보조 테이블 계획 사용과 장기 데이터 보존을 지원하지 않습니다. 이러한 레거시 계층에 대한 Azure 청구서의 데이터 수집 미터를 "분석된 데이터"라고 합니다.
레거시 가격 책정 계층을 사용하는 클라우드용 Microsoft Defender
다음 고려사항은 레거시 Log Analytics 계층 간과 클라우드용 Microsoft Defender의 요금 청구 방식과 관련됩니다.
- 작업 영역이 레거시 표준 또는 프리미엄 계층에 있는 경우 클라우드용 Microsoft Defender는 노드당이 아니라 Log Analytics 데이터 수집에 대해서만 요금이 청구됩니다.
- 작업 영역이 레거시 노드당 계층에 있는 경우 클라우드용 Microsoft Defender는 현재 클라우드용 Microsoft Defender 노드 기반 가격 책정 모델을 사용하여 요금이 청구됩니다.
- 그 밖의 다른 가격 책정 계층(약정 계층 포함)에서 클라우드용 Microsoft Defender가 2017년 6월 19일 이전에 사용하도록 설정된 경우 클라우드용 Microsoft Defender에 대한 요금은 Log Analytics 데이터 수집에 대해서만 청구됩니다. 그렇지 않으면 클라우드용 Microsoft Defender는 현재 클라우드용 Microsoft Defender 노드 기반 가격 책정 모델을 사용하여 요금이 청구됩니다.
가격 책정 계층 제한 사항에 대한 자세한 내용은 Azure 구독 및 서비스 제한, 할당량 및 제약 조건에서 확인할 수 있습니다.
레거시 가격 책정 계층에는 지역 기반 가격 책정이 없습니다.
참고 항목
System Center용 OMS E1 Suite, OMS E2 Suite 또는 OMS 추가 기능을 구매할 때 제공되는 자격을 사용하려면 Log Analytics의 노드별 가격 책정 계층을 선택합니다.
레거시 노드당 가격 책정 계층 평가
레거시 노드당 가격 책정 계층에 액세스할 수 있는 작업 영역이 해당 계층, 현재 종량제, 약정 계층 중 어느 곳에 가장 적합한지 결정하기 어려운 경우가 많습니다. 노드당 가격 책정 계층에서 모니터링되는 노드당 고정 비용과 이 계층에 포함된 일일 노드당 500MB의 데이터 할당량 그리고 종량제(GB당) 계층의 수집 데이터에 대한 요금 결제 비용 간에 절충값을 파악해야 합니다.
다음 쿼리를 사용하면 작업 영역의 사용 패턴을 기반으로 최적의 가격 책정 계층을 추천할 수 있습니다. 이 쿼리는 지난 7일 동안 모니터링된 노드 및 작업 영역으로 수집된 데이터를 확인합니다. 매일 최적의 가격 책정 계층을 평가합니다. 쿼리를 사용하려면 다음을 지정해야 합니다.
workspaceHasSecurityCenter
를true
또는false
로 설정하여 작업 영역에서 클라우드용 Microsoft Defender를 사용할지 여부를 지정합니다.- 특정 할인이 있는 경우 가격을 업데이트합니다.
daysToEvaluate
를 설정하여 다시 확인 및 분석할 일수를 지정해야 합니다. 이 옵션은 쿼리가 7일간의 데이터를 확인하는 데 너무 많은 시간이 걸리는 경우에 도움이 됩니다.
// Set these parameters before running query
// For pay-as-you-go (per-GB) and commitment tier pricing details, see https://azure.microsoft.com/pricing/details/monitor/.
// You can see your per-node costs in your Azure usage and charge data. For more information, see https://learn.microsoft.com/azure/cost-management-billing/understand/download-azure-daily-usage.
let workspaceHasSecurityCenter = true;
let daysToEvaluate = 7;
let PerNodePrice = 15.; // Monthly price per monitored node
let PerNodeOveragePrice = 2.30; // Price per GB for data overage in the Per Node pricing tier
let PerGBPrice = 2.30; // Enter the pay-as-you-go price for your workspace's region (from https://azure.microsoft.com/pricing/details/monitor/)
let CommitmentTier100Price = 196.; // Enter your price for the 100 GB/day commitment tier
let CommitmentTier200Price = 368.; // Enter your price for the 200 GB/day commitment tier
let CommitmentTier300Price = 540.; // Enter your price for the 300 GB/day commitment tier
let CommitmentTier400Price = 704.; // Enter your price for the 400 GB/day commitment tier
let CommitmentTier500Price = 865.; // Enter your price for the 500 GB/day commitment tier
let CommitmentTier1000Price = 1700.; // Enter your price for the 1000 GB/day commitment tier
let CommitmentTier2000Price = 3320.; // Enter your price for the 2000 GB/day commitment tier
let CommitmentTier5000Price = 8050.; // Enter your price for the 5000 GB/day commitment tier
// ---------------------------------------
let SecurityDataTypes=dynamic(["SecurityAlert", "SecurityBaseline", "SecurityBaselineSummary", "SecurityDetection", "SecurityEvent", "WindowsFirewall", "MaliciousIPCommunication", "LinuxAuditLog", "SysmonEvent", "ProtectionStatus", "WindowsEvent", "Update", "UpdateSummary"]);
let StartDate = startofday(datetime_add("Day",-1*daysToEvaluate,now()));
let EndDate = startofday(now());
union *
| where TimeGenerated >= StartDate and TimeGenerated < EndDate
| extend computerName = tolower(tostring(split(Computer, '.')[0]))
| where computerName != ""
| summarize nodesPerHour = dcount(computerName) by bin(TimeGenerated, 1h)
| summarize nodesPerDay = sum(nodesPerHour)/24. by day=bin(TimeGenerated, 1d)
| join kind=leftouter (
Heartbeat
| where TimeGenerated >= StartDate and TimeGenerated < EndDate
| where Computer != ""
| summarize ASCnodesPerHour = dcount(Computer) by bin(TimeGenerated, 1h)
| extend ASCnodesPerHour = iff(workspaceHasSecurityCenter, ASCnodesPerHour, 0)
| summarize ASCnodesPerDay = sum(ASCnodesPerHour)/24. by day=bin(TimeGenerated, 1d)
) on day
| join (
Usage
| where TimeGenerated >= StartDate and TimeGenerated < EndDate
| where IsBillable == true
| extend NonSecurityData = iff(DataType !in (SecurityDataTypes), Quantity, 0.)
| extend SecurityData = iff(DataType in (SecurityDataTypes), Quantity, 0.)
| summarize DataGB=sum(Quantity)/1000., NonSecurityDataGB=sum(NonSecurityData)/1000., SecurityDataGB=sum(SecurityData)/1000. by day=bin(StartTime, 1d)
) on day
| extend AvgGbPerNode = NonSecurityDataGB / nodesPerDay
| extend OverageGB = iff(workspaceHasSecurityCenter,
max_of(DataGB - 0.5*nodesPerDay - 0.5*ASCnodesPerDay, 0.),
max_of(DataGB - 0.5*nodesPerDay, 0.))
| extend PerNodeDailyCost = nodesPerDay * PerNodePrice / 31. + OverageGB * PerNodeOveragePrice
| extend billableGB = iff(workspaceHasSecurityCenter,
(NonSecurityDataGB + max_of(SecurityDataGB - 0.5*ASCnodesPerDay, 0.)), DataGB )
| extend PerGBDailyCost = billableGB * PerGBPrice
| extend CommitmentTier100DailyCost = CommitmentTier100Price + max_of(billableGB - 100, 0.)* CommitmentTier100Price/100.
| extend CommitmentTier200DailyCost = CommitmentTier200Price + max_of(billableGB - 200, 0.)* CommitmentTier200Price/200.
| extend CommitmentTier300DailyCost = CommitmentTier300Price + max_of(billableGB - 300, 0.)* CommitmentTier300Price/300.
| extend CommitmentTier400DailyCost = CommitmentTier400Price + max_of(billableGB - 400, 0.)* CommitmentTier400Price/400.
| extend CommitmentTier500DailyCost = CommitmentTier500Price + max_of(billableGB - 500, 0.)* CommitmentTier500Price/500.
| extend CommitmentTier1000DailyCost = CommitmentTier1000Price + max_of(billableGB - 1000, 0.)* CommitmentTier1000Price/1000.
| extend CommitmentTier2000DailyCost = CommitmentTier2000Price + max_of(billableGB - 2000, 0.)* CommitmentTier2000Price/2000.
| extend CommitmentTier5000DailyCost = CommitmentTier5000Price + max_of(billableGB - 5000, 0.)* CommitmentTier5000Price/5000.
| extend MinCost = min_of(
PerNodeDailyCost,PerGBDailyCost,CommitmentTier100DailyCost,CommitmentTier200DailyCost,
CommitmentTier300DailyCost, CommitmentTier400DailyCost, CommitmentTier500DailyCost, CommitmentTier1000DailyCost, CommitmentTier2000DailyCost, CommitmentTier5000DailyCost)
| extend Recommendation = case(
MinCost == PerNodeDailyCost, "Per node tier",
MinCost == PerGBDailyCost, "Pay-as-you-go tier",
MinCost == CommitmentTier100DailyCost, "Commitment tier (100 GB/day)",
MinCost == CommitmentTier200DailyCost, "Commitment tier (200 GB/day)",
MinCost == CommitmentTier300DailyCost, "Commitment tier (300 GB/day)",
MinCost == CommitmentTier400DailyCost, "Commitment tier (400 GB/day)",
MinCost == CommitmentTier500DailyCost, "Commitment tier (500 GB/day)",
MinCost == CommitmentTier1000DailyCost, "Commitment tier (1000 GB/day)",
MinCost == CommitmentTier2000DailyCost, "Commitment tier (2000 GB/day)",
MinCost == CommitmentTier5000DailyCost, "Commitment tier (5000 GB/day)",
"Error"
)
| project day, nodesPerDay, ASCnodesPerDay, NonSecurityDataGB, SecurityDataGB, OverageGB, AvgGbPerNode, PerGBDailyCost, PerNodeDailyCost,
CommitmentTier100DailyCost, CommitmentTier200DailyCost, CommitmentTier300DailyCost, CommitmentTier400DailyCost, CommitmentTier500DailyCost, CommitmentTier1000DailyCost, CommitmentTier2000DailyCost, CommitmentTier5000DailyCost, Recommendation
| sort by day asc
//| project day, Recommendation // Comment this line to see details
| sort by day asc
이 쿼리는 사용량이 계산되는 방식을 정확하게 복제한 것은 아니지만 대개의 경우 가격 책정 계층 권장 사항을 제공하는 데 사용됩니다.
참고 항목
System Center용 OMS E1 Suite, OMS E2 Suite 또는 OMS 추가 기능을 구매할 때 제공되는 자격을 사용하려면 Log Analytics의 노드별 가격 책정 계층을 선택합니다.
다음 단계
- 다른 여러 유형의 Azure Monitor 비용과 Azure 청구서에서 이를 분석하는 방법에 대한 자세한 내용은 Azure Monitor 비용 및 사용량을 참조하세요.
- 작업 영역에서 예상 사용량보다 높은 원본을 확인하기 위해 데이터를 분석하는 방법과 수집 데이터 양을 줄일 수 있는 방법에 대한 자세한 내용은 Log Analytics 작업 영역에서 사용량 분석을 참조하세요.
- 작업 영역에서 하루에 수집할 수 있는 최대 볼륨을 구성하여 비용을 제어하려면 Log Analytics 작업 영역에서 일일 상한 설정을 참조하세요.
- 요금을 최소화하기 위해 Azure Monitor를 구성하고 관리하는 모범 사례는 Azure Monitor 모범 사례 - 비용 관리를 참조하세요.