다음을 통해 공유


스트림 데이터를 Stream Analytics에 입력으로 사용합니다.

Stream Analytics는 Azure 데이터 스트림과 5가지 종류의 리소스의 입력으로 통합됩니다.

이러한 입력 리소스는 Stream Analytics 작업과 동일한 Azure 구독 또는 다른 구독에 있을 수 있습니다.

압축

Stream Analytics는 모든 입력 원본에 대한 압축을 지원합니다. 지원되는 압축 형식은 None, Gzip 및 Deflate입니다. Stream Analytics는 참조 데이터에 대한 압축을 지원하지 않습니다. 입력 데이터가 압축된 Avro 데이터인 경우 Stream Analytics는 이를 투명하게 처리합니다. Avro 직렬화를 사용하면 압축 형식을 지정할 필요가 없습니다.

입력 만들기, 편집 또는 테스트

Azure 포털, Visual StudioVisual Studio Code 사용하여 스트리밍 작업에서 기존 입력을 추가 및 보거나 편집할 수 있습니다. Azure 포털, Visual StudioVisual Studio Code 샘플 데이터에서 입력 연결을 테스트하고 쿼리를 테스트할 수도 있습니다. 쿼리를 작성할 때 FROM 절에 입력이 나열됩니다. 포털의 쿼리 페이지에서 사용 가능한 입력 목록을 가져올 수 있습니다. 여러 입력을 처리하기 위해서는 JOIN 을 결합하거나 여러 개의 SELECT 쿼리를 작성할 수 있습니다.

참고 사항

최상의 로컬 개발 환경을 위해 Stream Analytics 도구를 Visual Studio Code 사용합니다. Visual Studio 2019(버전 2.6.3000.0)용 Stream Analytics 도구에는 알려진 기능 차이가 있으며 앞으로 개선되지 않을 것입니다.

이벤트 허브에서 데이터 스트리밍

Azure Event Hubs 확장성이 뛰어난 publish-subscribe 이벤트 수집기입니다. 이벤트 허브는 초당 수백만 개의 이벤트를 수집할 수 있으므로 연결된 디바이스와 애플리케이션이 생성하는 대량의 데이터를 처리하고 분석할 수 있습니다. Event Hubs와 Stream Analytics는 함께 실시간 분석을 위한 엔드투엔드 솔루션을 제공합니다. Event Hubs는 이벤트를 실시간으로 Azure 피드하고 Stream Analytics 작업은 이러한 이벤트를 실시간으로 처리합니다. 예를 들어 Event Hubs에 웹 클릭, 센서 판독값 또는 온라인 로그 이벤트를 보낼 수 있습니다. 그런 다음 Stream Analytics 작업을 만들어 실시간 필터링, 집계 및 상관 관계를 위한 입력 데이터에 Event Hubs를 사용할 수 있습니다.

EventEnqueuedUtcTime 는 이벤트 허브에 이벤트가 도착하는 타임스탬프이며 Event Hubs에서 Stream Analytics로 들어오는 이벤트의 기본 타임스탬프입니다. 이벤트 페이로드에서 타임스탬프를 사용하여 데이터를 스트림으로 처리하려면 TIMESTAMP BY 키워드를 사용해야 합니다.

Event Hubs 소비자 그룹

자체 소비자 그룹을 사용하여 각 이벤트 허브 입력을 구성합니다. 작업에 자체 조인이 포함되거나 여러 입력이 있는 경우 둘 이상의 판독기 다운스트림에서 일부 입력을 읽을 수 있습니다. 이러한 상황은 단일 소비자 그룹의 읽기 권한자 수에 영향을 줍니다. 파티션당 소비자 그룹당 5명의 판독기로 구성된 Event Hubs 제한을 초과하지 않도록 하려면 각 Stream Analytics 작업에 대한 소비자 그룹을 지정합니다. 또한 표준 계층 이벤트 허브에 대한 소비자 그룹은 20개로 제한됩니다. 자세한 내용은 Azure Stream Analytics 입력 문제 해결 참조하세요.

Event Hubs에서 입력 만들기

다음 표에서는 Azure 포털의 새 입력 페이지에 있는 각 속성을 설명하여 이벤트 허브에서 데이터 입력을 스트리밍합니다.

속성 설명
입력 별칭 이 입력을 참조하도록 작업 쿼리에서 사용할 친숙한 이름입니다.
구독 이벤트 허브 리소스가 있는 Azure 구독을 선택합니다.
Event Hub 네임스페이스 Event Hubs 네임스페이스는 Event Hubs용 컨테이너입니다. 이벤트 허브를 만들 때 네임스페이스도 만듭니다.
이벤트 허브 이름 입력으로 사용할 이벤트 허브의 이름입니다.
Event Hub 소비자 그룹 (권장) 각 Stream Analytics 작업에 고유한 소비자 그룹을 사용합니다. 이 문자열은 이벤트 허브에서 데이터를 수집하는 데 사용할 소비자 그룹입니다. 소비자 그룹을 지정하지 않으면 Stream Analytics 작업에서 $Default 소비자 그룹을 사용합니다.
인증 모드 이벤트 허브에 연결하는 데 사용할 인증 유형을 지정합니다. connection string 또는 관리 ID를 사용하여 이벤트 허브로 인증합니다. 관리 ID 옵션의 경우 Stream Analytics 작업에 대한 시스템 할당 관리 ID를 만들거나 사용자 할당 관리 ID를 만들어 이벤트 허브로 인증할 수 있습니다. 관리 ID를 사용하는 경우 관리 ID는 Azure Event Hubs 데이터 수신기 또는 Azure Event Hubs 데이터 소유자 역할 멤버여야 합니다.
이벤트 허브 정책 이름 Event Hubs에 대한 액세스를 제공하는 공유 액세스 정책입니다. 각 공유 액세스 정책에는 이름, 사용자가 설정한 사용 권한 및 액세스 키가 있습니다. Event Hubs 설정을 수동으로 제공하는 옵션을 선택하지 않으면 이 옵션이 자동으로 채워집니다.
파티션 키 이 선택적 필드는 호환성 수준 1.2 이상을 사용하도록 작업을 구성하는 경우에만 사용할 수 있습니다. 입력이 속성으로 분할된 경우 여기에 이 속성의 이름을 추가합니다. 쿼리에 이 속성에 대한 PARTITION BY 또는 GROUP BY 절이 포함된 경우, 성능을 향상시키는 데 사용하십시오. 이 작업에서 호환성 수준 1.2 이상을 사용하는 경우 이 필드는 기본적으로 로 설정됩니다. PartitionId.
이벤트 직렬화 형식 들어오는 데이터 스트림의 serialization 형식(JSON, CSV, Avro)입니다. JSON 형식이 사양과 일치하고 소수 자릿수에 대한 선행 0을 포함하지 않는지 확인합니다.
인코딩 현재 유일하게 지원되는 인코딩 형식은 UTF-8입니다.
이벤트 압축 유형 들어오는 데이터 스트림을 읽는 데 사용되는 압축 유형(예: None(기본값), Gzip 또는 Deflate)입니다.
스키마 레지스트리 이벤트 허브에서 받은 이벤트 데이터에 대한 스키마가 있는 스키마 레지스트리를 선택합니다.

Event Hubs 스트림 입력에서 데이터를 가져오면 Stream Analytics 쿼리에서 다음 메타데이터 필드에 액세스할 수 있습니다.

속성 설명
EventProcessedUtcTime Stream Analytics가 이벤트를 처리하는 날짜 및 시간입니다.
EventEnqueuedUtcTime Event Hubs가 이벤트를 수신하는 날짜 및 시간입니다.
파티션 ID 입력 어댑터의 0부터 시작하는 파티션 ID입니다.

이러한 필드를 사용하여 다음 예제와 같은 쿼리를 작성할 수 있습니다.

SELECT
    EventProcessedUtcTime,
    EventEnqueuedUtcTime,
    PartitionId
FROM Input

참고 사항

Event Hubs를 IoT Hub 경로의 엔드포인트로 사용하는 경우 GetMetadataPropertyValue 함수 사용하여 IoT Hub 메타데이터에 액세스할 수 있습니다.

IoT Hub에서 데이터 스트리밍

Azure IoT Hub IoT 시나리오에 최적화된 확장성이 뛰어난 게시-구독 이벤트 수집기입니다.

Stream Analytics의 IoT Hub 들어오는 이벤트의 기본 타임스탬프는 이벤트가 IoT Hub 도착한 타임스탬프이며, EventEnqueuedUtcTime. 이벤트 페이로드에서 타임스탬프를 사용하여 데이터를 스트림으로 처리하려면 TIMESTAMP BY 키워드를 사용합니다.

IoT Hub 소비자 그룹

각 Stream Analytics IoT Hub 입력에 자체 소비자 그룹을 갖도록 구성하세요. 작업에 자체 조인이 포함되거나 입력이 여러 개 있는 경우 둘 이상의 판독기에서 일부 입력을 읽을 수 있습니다. 이러한 상황은 단일 소비자 그룹의 판독기 수에 영향을 줍니다. 파티션당 소비자 그룹당 5명의 판독기의 Azure IoT Hub 제한을 초과하지 않도록 하려면 각 Stream Analytics 작업에 대한 소비자 그룹을 지정합니다.

데이터 스트림 입력으로 IoT Hub 구성

다음 표에서는 스트림 입력으로 IoT Hub 구성할 때 Azure Portal의 새 입력 페이지의 각 속성을 설명합니다.

속성 설명
입력 별칭 이 입력을 참조하도록 작업 쿼리에서 사용할 친숙한 이름입니다.
구독 IoT Hub 리소스가 있는 구독을 선택합니다.
IoT Hub 입력으로 사용할 IoT Hub 이름입니다.
소비자 그룹 각 Stream Analytics 작업에 대해 다른 소비자 그룹을 사용합니다. 소비자 그룹은 IoT Hub 데이터를 수집합니다. Stream Analytics에서는 달리 지정하지 않는 한 $Default 소비자 그룹을 사용합니다.
공유 액세스 정책 이름 IoT Hub 대한 액세스를 제공하는 공유 액세스 정책입니다. 각 공유 액세스 정책에는 이름, 사용자가 설정한 사용 권한 및 액세스 키가 있습니다.
공유 액세스 정책 키 IoT Hub 대한 액세스 권한을 부여하는 데 사용되는 공유 액세스 키입니다. 이 옵션은 IoT Hub 설정을 수동으로 제공하는 옵션을 선택하지 않는 한 자동으로 채워집니다.
엔드포인트 IoT Hub 엔드포인트입니다.
파티션 키 호환성 수준 1.2 이상을 사용하도록 작업을 구성하는 경우에만 사용할 수 있는 선택적 필드입니다. 속성으로 입력을 분할하는 경우 여기에서 이 속성의 이름을 추가할 수 있습니다. 이는 해당 속성의 PARTITION BY 또는 GROUP BY 절이 포함된 경우 쿼리 성능을 향상하는 데 사용됩니다. 이 작업이 호환성 수준 1.2 이상을 사용하는 경우 해당 필드의 기본값은 “PartitionId”입니다.
이벤트 직렬화 형식 들어오는 데이터 스트림의 serialization 형식(JSON, CSV, Avro)입니다. JSON 형식이 사양과 일치하고 소수 자릿수에 대한 선행 0을 포함하지 않는지 확인합니다.
인코딩 현재 유일하게 지원되는 인코딩 형식은 UTF-8입니다.
이벤트 압축 유형 들어오는 데이터 스트림을 읽는 데 사용되는 압축 유형(예: None(기본값), Gzip 또는 Deflate)입니다.

IoT Hub 스트림 데이터를 사용하는 경우 Stream Analytics 쿼리에서 다음 메타데이터 필드에 액세스할 수 있습니다.

속성 설명
EventProcessedUtcTime 이벤트가 처리되는 날짜 및 시간입니다.
EventEnqueuedUtcTime IoT Hub 이벤트를 수신하는 날짜 및 시간입니다.
파티션 ID 입력 어댑터의 0부터 시작하는 파티션 ID입니다.
IoTHub.MessageId IoT Hub 양방향 통신의 상관 관계를 지정하는 데 사용되는 ID입니다.
IoTHub.CorrelationId IoT Hub 메시지 응답 및 피드백에 사용되는 ID입니다.
IoTHub.ConnectionDeviceId 이 메시지를 보내는 데 사용된 인증 ID입니다. IoT Hub 서비스 바인딩된 메시지에 이 값을 스탬프합니다.
IoTHub.ConnectionDeviceGenerationId 이 메시지를 보내는 데 사용된 인증된 디바이스의 생성 ID입니다. IoT Hub 서비스 바인딩 메시지에 이 값을 스탬프합니다.
IoTHub.EnqueuedTime IoT Hub 메시지를 받는 시간입니다.

Blob Storage 또는 Data Lake Storage Gen2 데이터 스트리밍

클라우드에 대량의 비정형 데이터를 저장하는 시나리오의 경우 Azure Blob Storage 또는 Azure Data Lake Storage Gen2 비용 효율적이고 확장 가능한 솔루션을 제공합니다. Blob Storage 또는 Azure Data Lake Storage Gen2 데이터는 미사용 데이터로 간주됩니다. 그러나 Stream Analytics는 이 데이터를 데이터 스트림으로 처리할 수 있습니다.

Stream Analytics에서 이러한 입력을 사용하는 데 일반적으로 사용되는 시나리오는 로그 처리입니다. 이 시나리오에서는 시스템에서 원격 분석 데이터 파일을 캡처하고 의미 있는 데이터를 추출하기 위해 구문 분석하고 처리해야 합니다.

Stream Analytics에서 Blob Storage 또는 Azure Data Lake Storage Gen2 이벤트의 기본 타임스탬프는 마지막으로 수정된 타임스탬프이며 BlobLastModifiedUtcTime. 13:00에 스토리지 계정에 Blob을 업로드하고 13:01에 Now 옵션을 사용하여 Azure Stream Analytics 작업을 시작하면, 수정된 시간이 작업 실행 기간을 벗어나기 때문에 작업이 Blob을 처리하지 않습니다.

13:00에 스토리지 계정 컨테이너에 Blob을 업로드하고 13:00 또는 그 이전에 Custom Time을 사용하여 Azure Stream Analytics 작업을 시작하면, Blob의 수정된 시간이 작업 실행 기간에 속하기 때문에 작업이 Blob을 처리합니다.

13:00에 Now를 사용하여 Azure Stream Analytics 작업을 시작하고, 13:01에 blob을 스토리지 계정 컨테이너에 업로드하면 Azure Stream Analytics가 blob을 처리합니다. 각 Blob BlobLastModifiedTime에 할당된 타임스탬프는 오직 BlobLastModifiedTime을 기반으로 합니다. Blob이 있는 폴더는 할당된 타임스탬프와 관계가 없습니다. 예를 들어, 2019/10-01/00/b1.txtBlobLastModifiedTime2019-11-11을 가지고 있다면, 이 blob에 할당되는 타임스탬프는 2019-11-11입니다.

이벤트 페이로드에서 타임스탬프를 사용하여 데이터를 스트림으로 처리하려면 TIMESTAMP BY 키워드를 사용해야 합니다. Stream Analytics 작업은 blob 파일을 사용할 수 있는 경우 1초마다 Azure Blob Storage 또는 Azure Data Lake Storage Gen2 입력에서 데이터를 가져옵니다. Blob 파일을 사용할 수 없는 경우 작업은 최대 시간 지연 시간이 90초인 지수 백오프를 사용합니다.

참고 사항

Stream Analytics는 기존 Blob 파일에 콘텐츠 추가를 지원하지 않습니다. Stream Analytics는 각 파일을 한 번만 보고 작업이 데이터를 읽은 후 파일에서 발생하는 변경 내용을 처리하지 않습니다. Blob 파일에 대한 모든 데이터를 한 번에 업로드한 후 다른 새 Blob 파일에 최신 이벤트를 추가하는 것이 좋습니다.

Blob을 지속적으로 추가하고 이를 Stream Analytics가 처리하는 시나리오에서는, BlobLastModifiedTime의 세분성 때문에 드물게 일부 Blob을 건너뛸 수 있습니다. 적어도 2초 간격으로 Blob을 업로드하여 이 문제를 완화할 수 있습니다. 이 옵션을 사용할 수 없는 경우 Event Hubs를 사용하여 대량의 이벤트를 스트리밍할 수 있습니다.

스트림 입력으로 Blob Storage 구성

다음 표에서는 Blob Storage를 스트림 입력으로 구성할 때 Azure Portal의 새 입력 페이지의 각 속성을 설명합니다.

속성 설명
입력 별칭 이 입력을 참조하도록 작업 쿼리에서 사용할 친숙한 이름입니다.
구독 스토리지 리소스가 있는 구독을 선택합니다.
스토리지 계정 Blob 파일이 위치한 스토리지 계정의 이름입니다.
저장소 계정 키 스토리지 계정과 연결된 비밀 키입니다. 설정을 수동으로 제공하는 옵션을 선택하지 않으면 이 옵션이 자동으로 채워집니다.
컨테이너 컨테이너는 Blob의 논리적 그룹화를 제공합니다. 기존 컨테이너 사용 또는 새로 만들기를 선택하여 새 컨테이너를 만들 수 있습니다.
인증 모드 스토리지 계정에 연결하는 데 사용할 인증 유형을 지정합니다. connection string 또는 관리 ID를 사용하여 스토리지 계정으로 인증할 수 있습니다. 관리 ID 옵션의 경우 Stream Analytics 작업에 대한 시스템 할당 관리 ID를 만들거나 스토리지 계정으로 인증하기 위한 사용자 할당 관리 ID를 만들 수 있습니다. 관리 ID를 사용하는 경우 관리 ID는 스토리지 계정에서 적절한 역할 의 멤버여야 합니다.
경로 패턴 (선택 사항) 지정된 컨테이너 내에서 Blob을 찾는 데 사용되는 파일 경로입니다. 컨테이너의 루트에서 Blob을 읽으려면 경로 패턴을 설정하지 마세요. 경로 내에서 다음 세 변수의 인스턴스를 하나 이상 지정할 수 있습니다. {date}{time}{partition}

예 1: cluster1/logs/{date}/{time}/{partition}

예 2: cluster1/logs/{date}

문자는 * 경로 접두사에 허용되는 값이 아닙니다. 유효한 Azure Blob 문자만 허용됩니다. 컨테이너 이름 또는 파일 이름은 포함하지 않습니다.
날짜 형식 (선택 사항) 경로에서 날짜 변수를 사용하는 경우, 파일이 구성될 때 사용되는 날짜 형식입니다. 예: YYYY/MM/DD

Blob 입력 경로에 {date} 또는 {time}가 있는 경우, Stream Analytics는 폴더를 시간 순서대로 오름차순으로 확인합니다.
시간 형식 (선택 사항) 경로에서 시간 변수를 사용하는 경우 파일이 구성된 시간 형식입니다. 현재 지원되는 유일한 값은 시간 단위입니다 HH .
파티션 키 호환성 수준 1.2 이상을 사용하도록 작업을 구성하는 경우에만 사용할 수 있는 선택적 필드입니다. 속성으로 입력을 분할하는 경우 여기에서 이 속성의 이름을 추가할 수 있습니다. 이는 해당 속성의 PARTITION BY 또는 GROUP BY 절이 포함된 경우 쿼리 성능을 향상하는 데 사용됩니다. 이 작업이 호환성 수준 1.2 이상을 사용하는 경우 해당 필드의 기본값은 “PartitionId”입니다.
입력 파티션 수 이 필드는 경로 패턴에 {partition}이 있는 경우에만 표시됩니다. 이 속성의 값은 정 >수 =1입니다. {partition}이 pathPattern에 표시될 때마다 0과 이 필드 값(-1) 사이 숫자가 사용됩니다.
이벤트 직렬화 형식 들어오는 데이터 스트림의 serialization 형식(JSON, CSV, Avro)입니다. JSON 형식이 사양과 일치하고 소수 자릿수에 대한 선행 0을 포함하지 않는지 확인합니다.
인코딩 CSV 및 JSON의 경우 UTF-8이 현재 지원되는 유일한 인코딩 형식입니다.
Compression 들어오는 데이터 스트림을 읽는 데 사용되는 압축 유형(예: None(기본값), Gzip 또는 Deflate)입니다.

Blob Storage 원본에서 데이터를 가져온 경우 Stream Analytics 쿼리에서 다음 메타데이터 필드에 액세스할 수 있습니다.

속성 설명
BlobName 이 이벤트가 발생한 입력 Blob의 이름입니다.
EventProcessedUtcTime Stream Analytics가 이벤트를 처리하는 날짜 및 시간입니다.
BlobLastModifiedUtcTime Blob이 마지막으로 수정된 날짜 및 시간입니다.
파티션 ID 입력 어댑터의 0부터 시작하는 파티션 ID입니다.

이러한 필드를 사용하여 다음 예제와 같은 쿼리를 작성할 수 있습니다.

SELECT
    BlobName,
    EventProcessedUtcTime,
    BlobLastModifiedUtcTime
FROM Input

Apache Kafka에서 데이터 스트리밍

Azure Stream Analytics Apache Kafka 클러스터에 직접 연결하여 데이터를 수집할 수 있습니다. 솔루션은 낮은 코드이며 Microsoft의 Azure Stream Analytics 팀에서 완전히 관리하므로 비즈니스 규정 준수 표준을 충족합니다. Kafka 입력은 이전 버전과 호환되며 최신 클라이언트 릴리스에서 버전 0.10부터 시작하는 모든 버전을 지원합니다. 구성에 따라 가상 네트워크 내의 Kafka 클러스터와 공용 엔드포인트를 사용하여 Kafka 클러스터에 연결할 수 있습니다. 구성은 기존 Kafka 구성 규칙을 따릅니다. 지원되는 압축 형식은 None, Gzip, Snappy, LZ4 및 Zstd입니다.

자세한 내용은 Kafka 데이터를 Azure Stream Analytics(미리 보기 버전)으로 전송하기 참조하세요.

다음 단계

Quickstart: Azure Portal