Compartir a través de


Uso de la inteligencia artificial para predecir los pedidos de los clientes

Azure Machine Learning
Azure Synapse Analytics
Azure Data Lake
Azure SQL Database
Power Apps

ideas de solución

En este artículo se describe una idea de solución. El arquitecto de la nube puede usar esta guía para ayudar a visualizar los componentes principales para una implementación típica de esta arquitectura. Use este artículo como punto de partida para diseñar una solución bien diseñada que se adapte a los requisitos específicos de la carga de trabajo.

En este artículo se describe cómo los distribuidores de mercancías pueden usar la inteligencia artificial y el aprendizaje automático para predecir la cantidad futura de pedidos de un cliente para una SKU específica (unidad de mantenimiento de existencias). Mediante el uso de Next Order Forecasting (NOF), los distribuidores pueden proporcionar a los clientes recomendaciones de productos y sugerir cantidades óptimas. Este artículo se basa en los conceptos descritos en el arquitectura de aprendizaje automático de muchos modelos.

Arquitectura

Diagrama que muestra una arquitectura para los pedidos de previsión.

Descargar un archivo de PowerPoint de esta arquitectura.

Flujo de datos

  1. Orígenes de datos

    Para prever pedidos futuros, necesita datos completos sobre el historial de compras de los clientes para varias SKU en tiendas específicas, incluida la información sobre las preferencias y el comportamiento de compra. Este tipo de información se obtiene normalmente a partir de pedidos, mercancías y bases de datos de clientes. También debe tener en cuenta factores externos como el tiempo, las vacaciones y los eventos. Normalmente, estos datos se obtienen de orígenes de terceros.

    Para crear modelos de previsión de pedidos, use datos en un esquema que incluya varias variables clave:

    • Fecha y hora
    • Ubicación del almacén de clientes
    • SKU de mercancías
    • Cantidad ordenada
    • Precio por unidad
    • Características relacionadas con el tiempo, días festivos, eventos y otros factores externos

    Al analizar estos datos, puede obtener información sobre el comportamiento del cliente y realizar recomendaciones de SKU y cantidad informadas para el siguiente pedido del cliente.

  2. Ingestión

    La ingesta de datos es el proceso de transferir datos de varios orígenes a un destino designado. Este proceso implica el uso de conectores específicos para cada origen de datos y destino.

    Azure Data Factory proporciona conectores que puede usar para extraer datos de varios orígenes, como bases de datos, sistemas de archivos y servicios en la nube. Microsoft o proveedores de terceros crean estos conectores y están diseñados para funcionar de forma eficaz con varios orígenes de datos. Por ejemplo, puede usar conectores de SAP para varios escenarios de ingesta de datos de SAP. Puede usar el conector de Snowflake para copiar datos de Snowflake.

  3. Área de ensayo

    El área de almacenamiento provisional actúa como una ubicación de almacenamiento temporal entre el origen y el destino. El objetivo principal de esta área de ensayo es mantener los datos en un formato uniforme y estructurado mientras se somete a transformaciones o comprobaciones de calidad, antes de cargarlos en su destino.

    Un formato de datos coherente es fundamental para un análisis y un modelado precisos. Si consolida y prepara los datos en un área de almacenamiento provisional, Azure Machine Learning puede procesarlos de forma más eficaz.

  4. Entrenamiento del modelo de Machine Learning

    El entrenamiento de modelos es un proceso de aprendizaje automático que implica usar un algoritmo para aprender patrones de datos y, en este caso, seleccionar un modelo que pueda predecir con precisión el siguiente pedido de un cliente.

    En esta solución, de Azure Machine Learning se usa para administrar todo el ciclo de vida del proyecto de aprendizaje automático, incluidos los modelos de entrenamiento, la implementación de modelos y la administración de operaciones de Machine Learning (MLOps).

    ParallelRunStep se usa para procesar grandes cantidades de datos en paralelo y crear modelos que puedan predecir el siguiente pedido para cada combinación de SKU de tienda y mercancía de clientes. Puede reducir el tiempo de procesamiento dividiendo el conjunto de datos en partes más pequeñas y procesandolos simultáneamente en varias máquinas virtuales. Puede usar clústeres de proceso de Azure Machine Learning para realizar esta distribución de cargas de trabajo en varios nodos.

    Una vez preparados los datos, Azure Machine Learning puede iniciar el proceso de entrenamiento del modelo paralelo mediante ParallelRunStep con una serie de modelos de previsión, incluido el suavizado exponencial, la red elástica y Prophet. Cada nodo o instancia de proceso comienza a compilar el modelo, por lo que el proceso es más eficaz y más rápido.

  5. Inferencia del modelo de Machine Learning

    La inferencia de modelos es un proceso que usa un modelo de aprendizaje automático entrenado para generar predicciones para puntos de datos no vistos previamente. En esta solución, prevé la cantidad de la SKU de mercancías que es probable que un cliente compre.

    Azure Machine Learning proporciona registros de modelos para almacenar y control de versiones modelos entrenados. Los registros de modelos pueden ayudarle a organizar y realizar un seguimiento de los modelos entrenados, lo que garantiza que están disponibles fácilmente para la implementación.

    La implementación de un modelo de aprendizaje automático entrenado permite al modelo procesar nuevos datos para la inferencia. Se recomienda usar puntos de conexión administrados de Azure para el destino de implementación. Los puntos de conexión permiten una escalabilidad, optimización del rendimiento y alta disponibilidad.

    En este caso de uso, hay dos maneras de implementar modelos en los puntos de conexión administrados . La primera opción es implementar cada modelo en su propio punto de conexión administrado, como se muestra en el diagrama. La segunda opción consiste en agrupar varios modelos en un único modelo e implementarlo en un único punto de conexión administrado. Este último enfoque es más eficaz, lo que proporciona una manera más sencilla de implementar y administrar varios modelos simultáneamente.

  6. Carga de trabajo analítica

    La salida del modelo se almacena en sistemas de análisis como Azure Synapse Analytics, Azure Data Lake o Azure SQL Database, donde también se recopilan y almacenan los datos de entrada. Esta fase facilita la disponibilidad de los resultados de predicción para el consumo de clientes, la supervisión del modelo y el reentrenamiento de modelos con nuevos datos para mejorar su precisión.

  7. Consumo del usuario final

    Para presentar el modelo puntuado visualmente a los clientes, puede usar la característica Web Apps de Azure App Service, un panel de Power BI o Power Apps. Estas herramientas pueden presentar las recomendaciones para la SKU y las cantidades previstas gráficamente de forma intuitiva y atractiva.

    Los clientes reciben alertas de las SKU recomendadas y las cantidades previstas, por lo que pueden realizar pedidos de forma proactiva. Las recomendaciones pueden ayudar a simplificar el proceso de ordenación, reducir la probabilidad de existencias y mejorar la satisfacción del cliente. Si usa un panel de Power BI o Power Apps, puede proporcionar a los clientes una experiencia de ordenación perfecta y eficaz.

Componentes

  • Azure Synapse Analytics es un servicio de análisis empresarial que acelera el tiempo para obtener información sobre almacenes de datos y sistemas de macrodatos. Azure Synapse conecta tecnologías SQL con otros servicios de Azure, como Power BI, Azure Cosmos DB y Azure Machine Learning.
  • data Factory es un servicio de integración de datos basado en la nube que automatiza el movimiento y la transformación de datos.
  • Data Lake Storage es un servicio de almacenamiento de datos ilimitado para hospedar datos en varias formas y formatos. Proporciona una integración sencilla con las herramientas de análisis en Azure. Esta solución usa un almacén de datos local para datos de aprendizaje automático y una caché de datos Premium para entrenar el modelo de aprendizaje automático.
  • Azure Machine Learning es un servicio de aprendizaje automático de nivel empresarial que proporciona un desarrollo y una implementación de modelos más fáciles en una amplia gama de destinos de proceso de aprendizaje automático. Proporciona a los usuarios todos los niveles de aptitud con un diseñador de poco código, aprendizaje automático automatizado y un entorno hospedado de Jupyter Notebook que admite varios entornos de desarrollo integrados.
    • clústeres de proceso de Azure Machine Learning son estructuras de proceso administradas que puede usar para crear fácilmente recursos de proceso de un solo nodo o varios nodos.
    • puntos de conexión de Azure Machine Learning son puntos de conexión HTTPS a los que los clientes pueden llamar para recibir la salida de inferencia (puntuación) de un modelo entrenado. Un punto de conexión proporciona un URI de puntuación estable que se autentica a través de la autenticación de clave y token.
    • canalizaciones de Azure Machine Learning son flujos de trabajo ejecutables independientes de tareas completas de aprendizaje automático. Las canalizaciones pueden ayudarle a estandarizar los procedimientos recomendados para generar un modelo de aprendizaje automático y mejorar la eficiencia de la creación de modelos.
  • sql Database es un servicio de base de datos relacional totalmente administrado siempreup-toque se crea para la nube.
  • Power BI proporciona análisis empresariales e información visualmente envolvente e interactiva. Proporciona un amplio conjunto de conectores a varios orígenes de datos, funcionalidades de transformación sencillas y visualización sofisticada.
  • Power Apps es un conjunto de aplicaciones, servicios y conectores, junto con una plataforma de datos, que proporciona un entorno de desarrollo rápido para crear aplicaciones personalizadas. Puede usar Power Apps para crear rápidamente aplicaciones empresariales que se conecten a los datos. Los datos se pueden almacenar en la plataforma de datos subyacente (Microsoft Dataverse) o en varios orígenes de datos en línea y locales, como SharePoint, Microsoft 365, Dynamics 365 y SQL Server.
  • aplicaciones web creadas con ASP.NET Core, hospedadas en Azure, ofrecen ventajas competitivas frente a las alternativas tradicionales. ASP.NET Core está optimizado para prácticas modernas de desarrollo de aplicaciones web y escenarios de hospedaje en la nube.

Alternativas

  • Azure Machine Learning proporciona modelado de datos e implementación en esta solución. Como alternativa, puede usar azure Databricks para compilar la solución con un enfoque de código primero. Para elegir la mejor tecnología para su escenario, tenga en cuenta las preferencias y la experiencia de su equipo. Azure Machine Learning es una buena opción si prefiere una interfaz gráfica fácil de usar. Azure Databricks es adecuado para los desarrolladores que desean la flexibilidad de un enfoque de código primero que permite una mayor personalización.

    También puede usar Azure Databricks en lugar de Azure Synapse para explorar y manipular datos en esta solución. Ambas opciones proporcionan herramientas eficaces de exploración y manipulación de datos. Azure Synapse proporciona un área de trabajo unificada que incluye características que facilitan la conexión e integración de datos desde varios orígenes (Azure y terceros). Azure Databricks proporciona principalmente procesamiento y análisis de datos.

    Azure Synapse incluye un motor de SQL que puede usar para consultar y manipular datos con sintaxis SQL. Azure Databricks usa una interfaz basada en cuadernos que admite el uso de Python, R, Scala y SQL.

  • Power BI es una herramienta popular para la visualización. Grafana es otra opción viable. La principal diferencia es que Grafana es de código abierto, mientras que Power BI es un producto SaaS ofrecido por Microsoft. Si prioriza la personalización y el uso de herramientas de código abierto, Grafana es una mejor opción. Si prioriza una integración más fluida con otros productos de Microsoft y soporte técnico de productos, Power BI es una mejor opción.

  • En lugar de usar un punto de conexión para cada modelo, puede agrupar varios modelos en un único modelo para la implementación en un único punto de conexión administrado. Los modelos de agrupación para la implementación se conocen como orquestación de modelos. Entre los posibles inconvenientes del uso de este enfoque se incluyen una mayor complejidad, posibles conflictos entre modelos y un mayor riesgo de tiempo de inactividad si se produce un error en el punto de conexión único.

Detalles del escenario

Históricamente, el sector de distribución de mercancías ha tenido dificultades para obtener información sobre el comportamiento del cliente y los patrones de compra, lo que hace que sea difícil proporcionar recomendaciones personalizadas de productos, mejorar la satisfacción del cliente e impulsar las ventas. Mediante el uso de inteligencia artificial y aprendizaje automático, los distribuidores de mercancías están transformando la industria.

Están adoptando Next Order Forecasting (NOF), una metodología que usan para recomendar productos y cantidades en función de los patrones de compra de clientes. Esta metodología beneficia a los clientes mediante la consolidación de pedidos y la reducción de los costos de transporte y logística. También permite a los distribuidores establecer contratos inteligentes con clientes regulares. Estos contratos permiten a los distribuidores recomendar de forma proactiva productos y cantidades a una cadencia regular, administrar el inventario, influir en la eficiencia de la fabricación, ahorrar dinero y promover la sostenibilidad. Por ejemplo, mediante la implementación de previsiones precisas, los distribuidores de artículos perecederos pueden administrar niveles óptimos de inventario y, por tanto, evitar volcar exceso de existencias en rellenos sanitarios.

NOF usa algoritmos de inteligencia artificial y aprendizaje automático para analizar los pedidos de los clientes y realizar recomendaciones para pedidos futuros. La arquitectura descrita en este artículo toma NOF a otro nivel habilitando la previsión en el nivel de almacén y SKU individual mediante el procesamiento paralelo. Esta combinación permite a las empresas prever la demanda de productos específicos en tiendas específicas. Mediante este uso de esta metodología, puede proporcionar a sus clientes recomendaciones personalizadas que satisfagan sus necesidades y superen sus expectativas.

Casos de uso potenciales

NOF se puede usar en organizaciones que necesitan predecir la demanda de los clientes y optimizar la administración del inventario. Estos son algunos casos de uso específicos:

  • Comercio electrónico. Los minoristas en línea pueden predecir la demanda de los clientes y recomendar productos basados en el historial de compras del cliente, el comportamiento de navegación y las preferencias. Estas predicciones pueden mejorar la experiencia del cliente, aumentar las ventas y reducir el costo de logística y almacenamiento.
  • Hospitalidad. Hoteles y restaurantes pueden predecir la demanda de clientes de productos de menú, bebidas y otros productos. Si lo hace, puede ayudarles a optimizar el inventario, reducir el desperdicio de alimentos y mejorar la rentabilidad.
  • Atención sanitaria. Los hospitales y clínicas pueden prever la demanda de pacientes para suministros médicos, equipos y medicamentos. Estas previsiones pueden ayudarles a reducir las existencias de inventario, evitar excesos de existencias y optimizar los procesos de adquisición.
  • Fabricación. Los fabricantes pueden prever la demanda de productos y materias primas, optimizar los niveles de inventario y mejorar la resistencia de la cadena de suministro.
  • Energía. Las empresas energéticas pueden predecir la demanda y optimizar la generación de energía, la transmisión y la distribución. NOF puede ayudarles a reducir su huella de carbono y mejorar la sostenibilidad.

Consideraciones

Estas consideraciones implementan los pilares de Azure Well-Architected Framework, un conjunto de principios rectores que puede usar para mejorar la calidad de una carga de trabajo. Para obtener más información, consulte Microsoft Azure Well-Architected Framework.

Las tecnologías de esta solución se eligieron para la escalabilidad, la disponibilidad y la optimización de costos.

Seguridad

La seguridad proporciona garantías contra ataques deliberados y el abuso de sus valiosos datos y sistemas. Para obtener más información, consulte Información general sobre el pilar de seguridad.

La seguridad mejorada está integrada en los componentes de este escenario. Puede usar la autenticación de Microsoft Entra o el control de acceso basado en rol para administrar los permisos. Considere la posibilidad de implementar procedimientos recomendados de Azure Machine Learning para de seguridad empresarial para establecer los niveles de seguridad adecuados.

Azure Synapse ofrece características de seguridad de nivel empresarial que proporcionan aislamiento de componentes para ayudar a proteger los datos, mejorar la seguridad de red y mejorar la protección contra amenazas. El aislamiento de componentes puede minimizar la exposición en el caso de una vulnerabilidad de seguridad. Azure Synapse también permite ofuscar datos para ayudar a proteger los datos personales confidenciales.

Data Lake proporciona protección de datos mejorada, enmascaramiento de datos y protección contra amenazas mejorada. Para obtener más información, consulte de seguridad de Data Lake.

Para obtener más información sobre la seguridad de esta arquitectura, consulte estos recursos:

Excelencia operativa

La excelencia operativa abarca los procesos de operaciones que implementan una aplicación y lo mantienen en ejecución en producción. La observabilidad, la supervisión y la configuración de diagnóstico son tres consideraciones importantes que se deben resaltar en este pilar.

observabilidad hace referencia a la capacidad de comprender cómo funciona el flujo de datos de un sistema. de supervisión es el proceso continuo de seguimiento del rendimiento de un sistema a lo largo del tiempo. Puede supervisar métricas como el uso de CPU, el tráfico de red y los tiempos de respuesta. configuración de diagnóstico son opciones de configuración que puede usar para capturar información de diagnóstico.

Para obtener más información, consulte Información general sobre el pilar de excelencia operativa.

Siga directrices de MLOps para administrar un ciclo de vida de aprendizaje automático completo escalable en varias áreas de trabajo. Antes de implementar la solución en producción, asegúrese de que admite la inferencia continua con ciclos de reentrenamiento y reimplementación automatizada de modelos.

Estos son algunos recursos que se deben tener en cuenta:

Eficiencia del rendimiento

La eficacia del rendimiento es la capacidad de la carga de trabajo para escalar para satisfacer las demandas que los usuarios le han puesto de forma eficaz. Para obtener más información, consulte Introducción al pilar de eficiencia del rendimiento.

La mayoría de los componentes de esta arquitectura se pueden escalar y reducir verticalmente en función de los niveles de actividad de análisis. Azure Synapse proporciona escalabilidad y alto rendimiento y se puede reducir o pausar durante niveles bajos de actividad.

Puede escalar azure Machine Learning en función de la cantidad de datos y los recursos de proceso necesarios para el entrenamiento del modelo. Puede escalar los recursos de implementación y proceso en función de la carga y el servicio de puntuación esperados.

Las pruebas de carga son un paso importante para garantizar la eficacia del rendimiento del modelo de aprendizaje automático. Esta prueba implica la simulación de un gran volumen de solicitudes al modelo para medir métricas como rendimiento, tiempo de respuesta y uso de recursos. Las pruebas de carga pueden ayudarle a identificar cuellos de botella y problemas que pueden afectar al rendimiento del modelo en un entorno de producción.

Para obtener más información sobre el diseño de soluciones escalables, consulte Lista de comprobación de eficiencia del rendimiento.

Colaboradores

Microsoft mantiene este artículo. Originalmente fue escrito por los siguientes colaboradores.

Autor principal:

  • Manasa Ramalinga | Arquitecto principal de soluciones en la nube: éxito del cliente de EE. UU.

Otros colaboradores:

Para ver perfiles de LinkedIn no públicos, inicie sesión en LinkedIn.

Pasos siguientes