Eventos
31 mar, 11 p.m. - 2 abr, 11 p.m.
El mayor evento de aprendizaje de Fabric, Power BI y SQL. 31 de marzo – 2 de abril. Use el código FABINSIDER para ahorrar $ 400.
Regístrese hoy mismoEste explorador ya no es compatible.
Actualice a Microsoft Edge para aprovechar las características, las actualizaciones de seguridad y el soporte técnico más recientes.
En este artículo se muestra cómo ajustar una consulta de Stream Analytics para aumentar la capacidad de procesamiento de trabajos de Stream Analytics. Puede usar la guía siguiente para escalar un trabajo para administrar una carga más elevada y aprovecha más recursos del sistema, como más ancho de banda, más recursos de CPU y más memoria.
Como requisito previo, lea los artículos siguientes:
Si la consulta se puede paralelizar completamente de manera inherente en distintas particiones de entrada, puede seguir estos pasos:
PartitionId
). Para Event Hubs, también debe poner atención en que el número de particiones de todas las entradas coincida con el de todas las salidas para evitar el intercambio entre las particiones.Nota
Elija el número correcto de unidades de streaming: como Stream Analytics crea un nodo de procesamiento para cada 1 SU V2 que se agregan, es mejor hacer que el número de nodos sea un divisor del número de particiones de entrada, para que las particiones se puedan distribuir de manera uniforme entre los nodos. Por ejemplo, midió que el trabajo de 1 SU V2 puede alcanzar una velocidad de procesamiento de 4 MB/s y la cantidad de particiones de entrada es 4. Puede elegir ejecutar el trabajo con 2 SU V2 para alcanzar una velocidad de procesamiento de 8 MB/s aproximadamente, o bien 4 SU V2 para alcanzar 16 MB/s. Luego puede decidir cuándo aumentar el número de SU para el trabajo y a qué valor, como función de la tasa de entrada.
Si la consulta no es perfectamente paralela, puede seguir estos pasos.
Consulta:
WITH Step1 AS (
SELECT COUNT(*) AS Count, TollBoothId, PartitionId
FROM Input1 Partition By PartitionId
GROUP BY TumblingWindow(minute, 3), TollBoothId, PartitionId
)
SELECT SUM(Count) AS Count, TollBoothId
FROM Step1
GROUP BY TumblingWindow(minute, 3), TollBoothId
En la consulta, debía contar los automóviles por cabina de peaje por partición y luego agregar el recuento de todas las particiones.
Una vez que se crean las particiones, para cada partición del paso, asigne hasta 1 SU V2, para que así cada partición se pueda colocar en su propio nodo de procesamiento.
Nota
Si la consulta no se puede particionar, agregar SU adicionales en una consulta de varios pasos no siempre puede mejorar el rendimiento. Una manera de ganar rendimiento es reducir el volumen en los pasos iniciales mediante un patrón de agregado local o global, tal como ya se describió en el paso 5.
Para ciertos casos de uso de ISV, donde resulta más rentable procesar los datos de varios inquilinos en solo un trabajo, usando entradas y salidas separadas para cada inquilino, terminará ejecutando algunas consultas independientes (por ejemplo, 20) en un solo trabajo. El supuesto es que la carga de cada subconsulta es relativamente pequeña.
En este caso, puede seguir estos pasos.
Nota
¿Cuántos inquilinos se deben colocar en cada trabajo? Este patrón de consulta a menudo tiene una gran cantidad de subconsultas y resulta una topología muy grande y compleja. Es posible que el controlador del trabajo no pueda controlar una topología de ese tamaño. Como regla general, manténgase por debajo de 40 inquilinos para un trabajo de 1/3 SU V2, y de 60 inquilinos para trabajos de 2/3 y 1 SU V2. Cuando se excede la capacidad del controlador, el trabajo no se iniciará correctamente.
Para más ayuda, pruebe nuestra página de preguntas y respuestas de Microsoft sobre Azure Stream Analytics.
Eventos
31 mar, 11 p.m. - 2 abr, 11 p.m.
El mayor evento de aprendizaje de Fabric, Power BI y SQL. 31 de marzo – 2 de abril. Use el código FABINSIDER para ahorrar $ 400.
Regístrese hoy mismoFormación
Módulo
Ingesta de datos de streaming mediante Azure Stream Analytics y Azure Synapse Analytics - Training
Azure Stream Analytics proporciona un motor de procesamiento de datos en tiempo real que puede usar para ingerir datos de eventos de streaming en Azure Synapse Analytics para realizar análisis e informes adicionales.
Certificación
Microsoft Certified: Azure Cosmos DB Developer Specialty - Certifications
Escribe consultas eficaces, crea directivas de indexación, administra y aprovisiona recursos en la API de SQL y el SDK con Microsoft Azure Cosmos DB.
Documentación
Comprender y ajustar las unidades de streaming de Azure Stream Analytics - Azure Stream Analytics
En este artículo se describe la configuración de las unidades de streaming y otros factores que afectan al rendimiento de Azure Stream Analytics.
En este artículo se explica cómo escalar trabajos de Stream Analytics mediante la configuración de particiones de entrada, la optimización de la definición de consulta y el ajuste de las unidades de streaming del trabajo.
Unidades de streaming de escalabilidad automática de Azure Stream Analytics - Azure Stream Analytics
Este artículo explica cómo puede usar diferentes métodos de escalado para su trabajo de Stream Analytics para asegurarse de que tiene el número correcto de unidades de streaming.