Freigeben über


Verwenden von KI zum Prognostizieren von Kundenaufträgen

Azure Machine Learning
Azure Synapse Analytics
Azure Data Lake
Azure SQL-Datenbank
Power Apps

Lösungsideen

In diesem Artikel wird eine Lösungsidee beschrieben. Ihr Cloudarchitekt kann diese Anleitung verwenden, um die Hauptkomponenten für eine typische Implementierung dieser Architektur zu visualisieren. Verwenden Sie diesen Artikel als Ausgangspunkt, um eine gut durchdachte Lösung zu entwerfen, die den spezifischen Anforderungen Ihrer Workload entspricht.

In diesem Artikel wird beschrieben, wie Warenhändler KI und maschinelles Lernen verwenden können, um die zukünftige Auftragsmenge eines Kunden für eine bestimmte SKU (Lagerhaltungseinheit) vorherzusagen. Mithilfe von Next Order Forecasting (NOF) können Händler Kunden Produktempfehlungen bereitstellen und optimale Mengen vorschlagen. Dieser Artikel baut auf den Konzepten auf, die in der vielen Modellen der Machine Learning-Architekturbeschrieben werden.

Architektur

Diagramm, das eine Architektur für Prognoseaufträge zeigt.

Laden Sie eine PowerPoint-Datei dieser Architektur herunter.

Datenfluss

  1. Datenquellen

    Um zukünftige Bestellungen zu prognostizieren, benötigen Sie umfassende Daten über den Kaufverlauf Ihrer Kunden für verschiedene SKUs in bestimmten Geschäften, einschließlich Informationen über Einstellungen und Einkaufsverhalten. Diese Art von Informationen wird in der Regel aus Bestellungen, Waren und Kundendatenbanken abgerufen. Sie müssen auch externe Faktoren wie Wetter, Feiertage und Ereignisse berücksichtigen. Diese Daten werden in der Regel aus Drittanbieterquellen abgerufen.

    Zum Erstellen von Vorhersagemodellen für Die Reihenfolge verwenden Sie Daten in einem Schema, das mehrere Schlüsselvariablen enthält:

    • Datum und Uhrzeit
    • Standort des Kundenspeichers
    • Waren-SKU
    • Bestellte Menge
    • Preis pro Einheit
    • Wetterbezogene Features, Feiertage, Ereignisse und andere externe Faktoren

    Durch die Analyse dieser Daten können Sie Einblicke in das Kundenverhalten gewinnen und fundierte SKU- und Mengenempfehlungen für die nächste Bestellung des Kunden erstellen.

  2. Aufnahme

    Die Datenaufnahme ist der Prozess der Übertragung von Daten aus verschiedenen Quellen an ein bestimmtes Ziel. Dieser Vorgang umfasst die Verwendung bestimmter Connectors für jede Datenquelle und jedes Zielziel.

    Azure Data Factory stellt Connectors bereit, mit denen Sie Daten aus verschiedenen Quellen extrahieren können, einschließlich Datenbanken, Dateisystemen und Clouddiensten. Diese Connectors werden von Microsoft oder Drittanbietern erstellt und sind so konzipiert, dass sie effektiv mit mehreren Datenquellen funktionieren. Sie können z. B. SAP-Connectors für verschiedene SAP-Datenaufnahmeszenarien verwenden. Sie können den Snowflake Connector verwenden, um Daten aus Snowflake zu kopieren.

  3. Stagingbereich

    Der Stagingbereich dient als temporärer Speicherort zwischen der Quelle und dem Ziel. Der Hauptzweck dieses Stagingbereichs besteht darin, Daten in einem einheitlichen und strukturierten Format zu verwalten, während sie Transformationen oder Qualitätsprüfungen durchlaufen, bevor sie in ihr Ziel geladen wird.

    Ein konsistentes Datenformat ist für eine genaue Analyse und Modellierung von entscheidender Bedeutung. Wenn Sie die Daten in einem Stagingbereich konsolidieren und vorbereiten, kann Azure Machine Learning sie effizienter verarbeiten.

  4. Schulung zum Machine Learning-Modell

    Die Modellschulung ist ein maschineller Lernprozess, der die Verwendung eines Algorithmus zum Erlernen von Mustern aus Daten umfasst und in diesem Fall ein Modell auswählt, das die nächste Bestellung eines Kunden genau vorhersagen kann.

    In dieser Lösung wird Azure Machine Learning verwendet, um den gesamten Lebenszyklus des Machine Learning-Projekts zu verwalten, einschließlich Schulungsmodelle, Bereitstellen von Modellen und Verwalten von Machine Learning Operations (MLOps).

    ParallelRunStep- wird verwendet, um große Datenmengen parallel zu verarbeiten und Modelle zu erstellen, die die nächste Bestellung für jede Kundenspeicher- und Waren-SKU-Kombination prognostizieren können. Sie können die Verarbeitungszeit reduzieren, indem Sie das Dataset in kleinere Teile aufteilen und gleichzeitig auf mehreren virtuellen Computern verarbeiten. Sie können Azure Machine Learning-Computecluster verwenden, um diese Verteilung von Workloads über mehrere Knoten hinweg zu erreichen.

    Nachdem die Daten vorbereitet wurden, kann Azure Machine Learning den parallelen Modellschulungsprozess mithilfe von ParallelRunStep mit einer Reihe von Prognosemodellen starten, darunter exponentielle Glättung, elastisches Netz und Prophet. Jeder Knoten oder jede Computeinstanz beginnt mit dem Erstellen des Modells, sodass der Prozess effizienter und schneller ist.

  5. Machine learning model Inferencing

    Bei der Modellausleitung handelt es sich um einen Prozess, der ein trainiertes Machine Learning-Modell verwendet, um Vorhersagen für zuvor nicht angezeigte Datenpunkte zu generieren. In dieser Lösung wird die Menge der Waren-SKU prognostiziert, die ein Kunde wahrscheinlich kauft.

    Azure Machine Learning bietet Modellregistrierungen zum Speichern und Versionsverwaltung trainierter Modelle. Modellregistrierungen können Ihnen helfen, trainierte Modelle zu organisieren und nachzuverfolgen, um sicherzustellen, dass sie sofort für die Bereitstellung verfügbar sind.

    Durch die Bereitstellung eines trainierten Machine Learning-Modells kann das Modell neue Daten für die Ableitung verarbeiten. Es wird empfohlen, von Azure verwalteten Endpunkten für das Bereitstellungsziel zu verwenden. Endpunkte ermöglichen einfache Skalierbarkeit, Leistungsoptimierung und hohe Verfügbarkeit.

    In diesem Anwendungsfall gibt es zwei Möglichkeiten, Modelle auf den verwalteten Endpunktenbereitzustellen. Die erste Option besteht darin, jedes Modell auf einem eigenen verwalteten Endpunkt bereitzustellen, wie im Diagramm dargestellt. Die zweite Option besteht darin, mehrere Modelle in einem einzigen Modell zu bündeln und auf einem einzigen verwalteten Endpunkt bereitzustellen. Letzteres ist effizienter und bietet eine einfachere Möglichkeit, mehrere Modelle gleichzeitig bereitzustellen und zu verwalten.

  6. Analytische Arbeitsauslastung

    Die Ausgabe des Modells wird in Analysesystemen wie Azure Synapse Analytics, Azure Data Lake oder Azure SQL-Datenbank gespeichert, wo die Eingabedaten ebenfalls gesammelt und gespeichert werden. Diese Phase erleichtert die Verfügbarkeit der Vorhersageergebnisse für den Kundenverbrauch, die Modellüberwachung und die Umschulung von Modellen mit neuen Daten, um ihre Genauigkeit zu verbessern.

  7. Endbenutzerverbrauch

    Um das bewertete Modell für Kunden visuell darzustellen, können Sie das Web-Apps-Feature von Azure App Service, ein Power BI-Dashboard oder Power Apps verwenden. Diese Tools können die Empfehlungen für die SKU und vorhergesagte Mengen grafisch intuitiv und ansprechend darstellen.

    Kunden werden auf empfohlene SKUs und vorhergesagte Mengen aufmerksam gemacht, sodass sie Aufträge proaktiv aufgeben können. Die Empfehlungen können dazu beitragen, den Bestellvorgang zu optimieren, die Wahrscheinlichkeit von Lagerbeständen zu verringern und die Kundenzufriedenheit zu verbessern. Wenn Sie ein Power BI-Dashboard oder Power Apps verwenden, können Sie Ihren Kunden ein nahtloses und effizientes Bestellerlebnis bieten.

Komponenten

  • Azure Synapse Analytics ist ein Unternehmensanalysedienst, der die Zeit für einblicke in Data Warehouses und Big Data-Systeme beschleunigt. Azure Synapse verbindet SQL-Technologien mit anderen Azure-Diensten wie Power BI, Azure Cosmos DB und Azure Machine Learning.
  • Data Factory ist ein cloudbasierter Datenintegrationsdienst, der die Datenverschiebung und -transformation automatisiert.
  • Data Lake Storage ist ein unbegrenzter Datenspeicherdienst für Gehäusedaten in verschiedenen Shapes und Formaten. Sie bietet eine einfache Integration mit den Analysetools in Azure. Diese Lösung verwendet einen lokalen Datenspeicher für Machine Learning-Daten und einen Premium-Datencache zum Trainieren des Machine Learning-Modells.
  • Azure Machine Learning ist ein maschineller Lerndienst auf Unternehmensniveau, der eine einfachere Modellentwicklung und -bereitstellung für eine vielzahl von Computezielen für maschinelles Lernen bietet. Sie bietet Benutzern auf allen Qualifikationsebenen einen Low-Code-Designer, automatisiertes maschinelles Lernen und eine gehostete Jupyter-Notizbuchumgebung, die verschiedene integrierte Entwicklungsumgebungen unterstützt.
    • Azure Machine Learning-Computecluster verwaltete Computestrukturen sind, die Sie verwenden können, um einfach Einzelknoten- oder Multiknoten-Computeressourcen zu erstellen.
    • Azure Machine Learning-Endpunkte sind HTTPS-Endpunkte, die Clients aufrufen können, um die Ableitungsausgabe (Bewertung) eines trainierten Modells zu empfangen. Ein Endpunkt stellt einen stabilen Bewertungs-URI bereit, der über die Schlüssel- und Tokenauthentifizierung authentifiziert wird.
    • Azure Machine Learning-Pipelines sind unabhängig ausführbare Workflows vollständiger Machine Learning-Aufgaben. Pipelines können Ihnen dabei helfen, die bewährten Methoden für die Erstellung eines Machine Learning-Modells zu standardisieren und die Effizienz des Modellaufbaus zu verbessern.
  • SQL-Datenbank- ist ein immerup-to-Datum, vollständig verwalteter relationaler Datenbankdienst, der für die Cloud erstellt wurde.
  • Power BI bietet Geschäftsanalysen und visuell immersive und interaktive Einblicke. Es bietet eine vielzahl von Connectors für verschiedene Datenquellen, einfache Transformationsfunktionen und komplexe Visualisierungen.
  • Power Apps ist eine Suite von Apps, Diensten und Connectors zusammen mit einer Datenplattform, die eine schnelle Entwicklungsumgebung zum Erstellen von benutzerdefinierten Apps bietet. Sie können Power Apps verwenden, um schnell Geschäfts-Apps zu erstellen, die eine Verbindung zu Ihren Daten herstellen. Daten können in der zugrunde liegenden Datenplattform (Microsoft Dataverse) oder in verschiedenen Online- und lokalen Datenquellen wie SharePoint, Microsoft 365, Dynamics 365 und SQL Server gespeichert werden.
  • Webanwendungen, die mit ASP.NET Core erstellt wurden, das in Azure gehostet wird, bieten gegenüber herkömmlichen Alternativen Wettbewerbsvorteile. ASP.NET Core ist für moderne Webanwendungsentwicklungspraktiken und Cloudhostingszenarien optimiert.

Alternativen

  • Azure Machine Learning bietet Datenmodellierung und Bereitstellung in dieser Lösung. Alternativ können Sie Azure Databricks- verwenden, um die Lösung mit einem Code-first-Ansatz zu erstellen. Um die beste Technologie für Ihr Szenario auszuwählen, sollten Sie die Vorlieben und Das Know-how Ihres Teams berücksichtigen. Azure Machine Learning ist eine gute Wahl, wenn Sie eine benutzerfreundliche grafische Benutzeroberfläche bevorzugen. Azure Databricks eignet sich gut für Entwickler, die die Flexibilität eines Code-first-Ansatzes benötigen, der mehr Anpassung ermöglicht.

    Sie können Azure Databricks auch anstelle von Azure Synapse verwenden, um Daten in dieser Lösung zu durchsuchen und zu bearbeiten. Beide Optionen bieten leistungsstarke Datensuche- und Manipulationstools. Azure Synapse bietet einen einheitlichen Arbeitsbereich, der Features enthält, die das Herstellen einer Verbindung zu und die Integration von Daten aus verschiedenen Quellen (Azure und Drittanbieter) vereinfachen. Azure Databricks bietet hauptsächlich Datenverarbeitung und -analyse.

    Azure Synapse enthält ein SQL-Modul, mit dem Sie Daten mit SQL-Syntax abfragen und bearbeiten können. Azure Databricks verwendet eine notizbuchbasierte Schnittstelle, die die Verwendung von Python, R, Scala und SQL unterstützt.

  • Power BI ist ein beliebtes Tool für die Visualisierung. Grafana ist eine weitere lebensfähige Option. Der Hauptunterschied besteht darin, dass Grafana Open Source ist, während Power BI ein SaaS-Produkt ist, das von Microsoft angeboten wird. Wenn Sie anpassungen und die Verwendung von Open-Source-Tools priorisieren, ist Grafana eine bessere Wahl. Wenn Sie eine nahtlosere Integration mit anderen Microsoft-Produkten und Produktsupport priorisieren, ist Power BI eine bessere Wahl.

  • Anstatt einen Endpunkt für jedes Modell zu verwenden, können Sie mehrere Modelle in ein einzelnes Modell für die Bereitstellung auf einem einzigen verwalteten Endpunkt bündeln. Bündelungsmodelle für die Bereitstellung werden als Modell-Orchestrierungbezeichnet. Mögliche Nachteile bei der Verwendung dieses Ansatzes sind erhöhte Komplexität, potenzielle Konflikte zwischen Modellen und erhöhtes Risiko von Ausfallzeiten, wenn der einzelne Endpunkt fehlschlägt.

Szenariodetails

Die Warenvertriebsbranche hat historisch schwierigkeiten, Einblicke in das Kundenverhalten und Einkaufsmuster zu gewinnen, was es schwierig macht, personalisierte Produktempfehlungen bereitzustellen, die Kundenzufriedenheit zu verbessern und den Vertrieb voranzutreiben. Durch die Nutzung von KI und maschinellem Lernen wandeln Handelshändler die Branche um.

Sie übernehmen next Order Forecasting (NOF), eine Methode, die sie verwenden, um Produkte und Mengen basierend auf Kundenkaufmustern zu empfehlen. Diese Methodik profitiert von den Kunden, indem Aufträge konsolidiert und Transport- und Logistikkosten reduziert werden. Darüber hinaus können Händler intelligente Verträge mit regulären Kunden herstellen. Mit diesen Verträgen können Händler Produkte und Mengen proaktiv in regelmäßigen Abständen empfehlen, Lagerbestände verwalten, produktionseffizienzen beeinflussen, Geld sparen und Nachhaltigkeit fördern. Durch die Implementierung einer genauen Prognose können Händler von verlässigbaren Gegenständen z. B. optimale Lagerbestände verwalten und somit das Dumping von Überbeständen in Deponien vermeiden.

NOF verwendet KI- und Maschinelle Lernalgorithmen, um Kundenaufträge zu analysieren und Empfehlungen für zukünftige Bestellungen zu erstellen. Die in diesem Artikel beschriebene Architektur verwendet NOF auf eine andere Ebene, indem die Prognose auf einzelner SKU- und Speicherebene mithilfe der parallelen Verarbeitung ermöglicht wird. Diese Kombination ermöglicht Es Unternehmen, die Nachfrage nach bestimmten Produkten in bestimmten Geschäften zu prognostizieren. Mithilfe dieser Methodik können Sie Ihren Kunden personalisierte Empfehlungen zur Verfügung stellen, die ihren Anforderungen entsprechen und ihre Erwartungen übertreffen.

Potenzielle Anwendungsfälle

NOF kann von Organisationen verwendet werden, die die Kundennachfrage vorhersagen und die Bestandsverwaltung optimieren müssen. Hier sind einige spezielle Anwendungsfälle:

  • E-Commerce. Onlinehändler können die Kundennachfrage prognostizieren und Produkte basierend auf dem Kundenkaufverlauf, dem Browserverhalten und den Vorlieben empfehlen. Diese Vorhersagen können das Kundenerlebnis verbessern, den Umsatz steigern und die Kosten für Logistik und Lagerhaltung reduzieren.
  • Gastfreundschaft. Hotels und Restaurants können die Kundennachfrage nach Menüartikeln, Getränken und anderen Produkten vorhersagen. Dies kann ihnen helfen, das Inventar zu optimieren, lebensmittelverschwendung zu reduzieren und die Rentabilität zu verbessern.
  • Gesundheitswesen. Krankenhäuser und Kliniken können die Patientennachfrage für medizinische Versorgung, Ausrüstung und Medikamente prognostizieren. Diese Prognosen können ihnen helfen, Lagerbestände zu reduzieren, Überbestände zu vermeiden und Beschaffungsprozesse zu optimieren.
  • Herstellung. Hersteller können die Nachfrage nach Produkten und Rohstoffen prognostizieren, Lagerbestände optimieren und die Resilienz der Lieferkette verbessern.
  • Energie. Energieunternehmen können die Nachfrage prognostizieren und die Energieerzeugung, -übertragung und -verteilung optimieren. NOF kann ihnen helfen, ihren Co2-Fußabdruck zu reduzieren und die Nachhaltigkeit zu verbessern.

Betrachtungen

Diese Überlegungen implementieren die Säulen des Azure Well-Architected Frameworks, eine Reihe von Leitdashets, die Sie verwenden können, um die Qualität einer Workload zu verbessern. Weitere Informationen finden Sie unter Microsoft Azure Well-Architected Framework.

Die Technologien in dieser Lösung wurden für Skalierbarkeit, Verfügbarkeit und Kostenoptimierung ausgewählt.

Sicherheit

Die Sicherheit bietet Sicherheitsmaßnahmen gegen bewusste Angriffe und den Missbrauch Ihrer wertvollen Daten und Systeme. Weitere Informationen finden Sie unter Übersicht über die Sicherheitssäule.

Verbesserte Sicherheit ist in die Komponenten dieses Szenarios integriert. Sie können die Microsoft Entra-Authentifizierung oder rollenbasierte Zugriffssteuerung verwenden, um Berechtigungen zu verwalten. Erwägen Sie die Implementierung bewährten Methoden für Azure Machine Learning für die Unternehmenssicherheit, um geeignete Sicherheitsstufen einzurichten.

Azure Synapse bietet Sicherheitsfeatures auf Unternehmensniveau, die Komponentenisolation bereitstellen, um Daten zu schützen, die Netzwerksicherheit zu verbessern und den Bedrohungsschutz zu verbessern. Die Komponentenisolation kann die Exposition im Falle einer Sicherheitslücke minimieren. Azure Synapse ermöglicht auch die Datenverschleierung, um vertrauliche personenbezogene Daten zu schützen.

Data Lake bietet verbesserten Datenschutz, Datenmasken und verbesserten Bedrohungsschutz. Weitere Informationen finden Sie unter Data Lake Security.

Weitere Informationen zur Sicherheit für diese Architektur finden Sie in den folgenden Ressourcen:

Operative Exzellenz

Operative Exzellenz deckt die Betriebsprozesse ab, die eine Anwendung bereitstellen und in der Produktion ausgeführt werden. Observability, monitoring, and diagnostic settings are three important considerations to highlight under this pillar.

Observability bezieht sich auf die Fähigkeit, zu verstehen, wie der Datenfluss eines Systems funktioniert. Monitoring ist der fortlaufende Prozess der Nachverfolgung der Leistung eines Systems im Laufe der Zeit. Sie können Metriken wie CPU-Auslastung, Netzwerkdatenverkehr und Reaktionszeiten überwachen. Diagnoseeinstellungen sind Konfigurationsoptionen, mit denen Sie Diagnoseinformationen erfassen können.

Weitere Informationen finden Sie unter Übersicht über die operative Exzellenzsäule.

Befolgen Sie MLOps-Richtlinien, um einen End-to-End Machine Learning-Lebenszyklus zu verwalten, der für mehrere Arbeitsbereiche skalierbar ist. Bevor Sie Ihre Lösung in der Produktion bereitstellen, stellen Sie sicher, dass sie fortlaufende Rückschlüsse auf Umschulungszyklen und die automatisierte Erneute Bereitstellung von Modellen unterstützt.

Hier sind einige Ressourcen, die Sie berücksichtigen sollten:

Leistungseffizienz

Die Leistungseffizienz ist die Fähigkeit Ihrer Arbeitsauslastung, um die Anforderungen der Benutzer effizient zu erfüllen. Weitere Informationen finden Sie unter Übersicht über die Säule "Leistungseffizienz".

Die meisten Komponenten in dieser Architektur können basierend auf den Analyseaktivitätsebenen nach oben und unten skaliert werden. Azure Synapse bietet Skalierbarkeit und hohe Leistung und kann während niedriger Aktivitätsstufen reduziert oder angehalten werden.

Sie können Azure Machine Learning basierend auf der Datenmenge und den für die Modellschulung erforderlichen Rechenressourcen skalieren. Sie können die Bereitstellungs- und Computeressourcen basierend auf dem erwarteten Last- und Bewertungsdienst skalieren.

Lasttests sind ein wichtiger Schritt für die Sicherstellung der Leistungseffizienz des Machine Learning-Modells. Diese Tests beinhalten die Simulation einer hohen Anzahl von Anforderungen an das Modell, um Metriken wie Durchsatz, Reaktionszeit und Ressourcenauslastung zu messen. Lasttests können Ihnen helfen, Engpässe und Probleme zu erkennen, die sich auf die Leistung des Modells in einer Produktionsumgebung auswirken können.

Weitere Informationen zum Entwerfen skalierbarer Lösungen finden Sie in Prüfliste zur Leistungseffizienz.

Beitragende

Dieser Artikel wird von Microsoft verwaltet. Sie wurde ursprünglich von den folgenden Mitwirkenden verfasst.

Hauptautor:

Andere Mitwirkende:

Um nicht öffentliche LinkedIn-Profile anzuzeigen, melden Sie sich bei LinkedIn an.

Nächste Schritte