Bearbeiten

Bestimmen der Kundenlebensdauer und Abwanderung mit Azure KI-Diensten

Azure Data Lake Storage
Azure Databricks
Azure Machine Learning
Azure Analysis Services

Dieses Szenario zeigt eine Lösung zur Erstellung von Vorhersagemodellen für den Kundenlebensdauerwert und die Abwanderungsrate mithilfe von Azure KI-Technologien.

Aufbau

Architecture diagram for scenario to determine customer lifetime and churn by using Azure AI services.

Laden Sie eine Visio-Datei dieser Architektur herunter.

Datenfluss

  1. Erfassung und Orchestrierung: Erfassen Sie Verlaufsdaten, Transaktionsdaten und Drittanbieterdaten für den Kunden aus lokalen Datenquellen. Verwenden Sie Azure Data Factory, und speichern Sie die Ergebnisse in Azure Data Lake Storage.

  2. Datenverarbeitung: Verwenden Sie Azure Databricks, um die Rohdaten aus Data Lake Storage zu sammeln und zu bereinigen. Speichern Sie die Daten auf der silbernen Ebene in Azure Data Lake Storage.

  3. Featurisierung: Laden Sie mit Azure Databricks Daten von der silbernen Ebene von Data Lake Storage. Verwenden Sie PySpark, um die Daten anzureichern. Nach der Vorbereitung verwenden Sie die Featurisierung, um eine bessere Darstellung der Daten zu erreichen. Die Featurisierung kann auch die Leistung des Machine Learning-Algorithmus verbessern.

  4. Modelltraining: Beim Modelltraining sind die Daten der silbernen Ebene das Dataset für das Modelltraining. Sie können MLflow verwenden, um Experimente zum maschinellen Lernen zu verwalten. MLflow verfolgt alle Metriken nach, die Sie für die Auswertung Ihres Experiments zum maschinellen Lernen benötigen.

    MLflow-Parameter speichern modellbezogene Parameter, z. B. zum Trainieren von Hyperparametern. MLflow-Metriken speichern Modellleistungsmetriken. Das Machine Learning-Modell wird mithilfe von Azure Data Factory-Pipelines iterativ neu trainiert. Die Pipeline für das erneute Training des Modells erhält aktualisierte Trainingsdaten aus Azure Data Lake Storage und trainiert das Modell erneut. Die Pipeline für das erneute Training des Modells wird unter den folgenden Bedingungen gestartet:

    • Wenn die Genauigkeit des aktuellen Modells in der Produktion unter einen von MLflow nachverfolgten Schwellenwert sinkt.
    • Wenn Kalendertrigger, die auf den vom Kunden definierten Regeln basieren, erreicht werden.
    • Wenn Datendrift erkannt wird.
  5. Machine Learning-Registrierung: Eine Azure Data Factory-Pipeline registriert das beste Machine Learning-Modell im Azure Machine Learning-Dienst gemäß den ausgewählten Metriken. Das Machine Learning-Modell wird mithilfe von Azure Kubernetes Service bereitgestellt.

  6. Ausgabephase: In der Ausgabephase können Sie Berichterstellungstools verwenden, um mit Ihren Modellvorhersagen zu arbeiten. Zu diesen Tools gehören Power BI und Azure Analysis Services.

Komponenten

  • Azure Analysis Services bietet professionelle Datenmodelle in der Cloud.

  • Azure Data Factory bietet eine Datenintegrations- und Transformationsebene, die für Ihre Initiativen zur digitalen Transformation funktioniert.

  • Azure Databricks ist eine Datenanalyseplattform, die für die Microsoft Azure-Clouddienstplattform optimiert ist.

  • Azure Machine Learning umfasst eine Reihe von Benutzeroberflächen zum Erstellen, Trainieren und Bereitstellen von Machine Learning-Modellen und Fördern der Zusammenarbeit im Team.

  • Azure SQL-Datenbank ist eine Datenbank-Engine, die die meisten Verwaltungsfunktionen ohne Ihre Beteiligung verarbeitet. Azure SQL-Datenbank ermöglicht es Ihnen, sich auf die Aktivitäten für die domänenspezifische Datenbankverwaltung und -optimierung für Ihr Unternehmen zu konzentrieren.

  • MLflow ist eine Open-Source-Plattform für die Verwaltung des gesamten Machine Learning-Lebenszyklus.

Alternativen

  • Data Factory orchestriert die Workflows für Ihre Datenpipeline. Wenn Sie Daten nur einmalig oder bei Bedarf laden möchten, verwenden Sie Tools wie das SQL Server-Massenkopieren und AzCopy, um Daten in Azure Blob Storage zu kopieren. Anschließend können Sie die Daten mithilfe von PolyBase direkt in Azure Synapse Analytics laden.

  • Einige Business Intelligence-Tools unterstützen möglicherweise keine Azure Analysis Services. Auf die zusammengestellten Daten kann stattdessen direkt über Azure SQL-Datenbank zugegriffen werden. Daten werden mithilfe von Azure Data Lake Storage gespeichert, und der Zugriff erfolgt über Azure Databricks-Speicher für die Datenverarbeitung.

Szenariodetails

Der Kundenlebensdauerwert misst den Nettogewinn eines Kunden. Diese Metrik umfasst den Gewinn aus der gesamten Beziehung des Kunden zu Ihrem Unternehmen. Churn oder Abwanderungsrate misst die Anzahl der Personen oder Objekte, die eine Gruppe über einen bestimmten Zeitraum verlassen.

Dieses Szenario für Einzelhandelskunden klassifiziert Ihre Kunden anhand von Marketing- und wirtschaftlichen Maßnahmen. In diesem Szenario wird auch eine Kundensegmentierung auf der Grundlage mehrerer Metriken erstellt. Es trainiert eine Klassifizierung mit mehreren Klassen für neue Daten. Das daraus resultierende Modell bewertet Stapel von neuen Kundenbestellungen durch einen regelmäßig geplanten Azure Databricks-Notebookauftrag.

Diese Lösung zeigt, wie die folgenden Azure KI-Technologien miteinander verbunden werden können:

  • Verwenden Sie Azure Data Lake und Azure Databricks, um bewährte Methoden für Datenvorgänge zu implementieren.
  • Verwenden Sie Azure Databricks, um explorative Datenanalysen durchzuführen.
  • Verwenden Sie MLflow zum Nachverfolgen von Machine Learning-Experimenten.
  • Führen Sie eine Batchbewertung von Machine Learning-Modellen in Azure Databricks durch.
  • Verwenden Sie Azure Machine Learning zum Modellieren der Registrierung und Bereitstellung.
  • Verwenden Sie Azure Data Factory und Azure Databricks-Notebooks, um die MLOps-Pipeline zu orchestrieren.

Mögliche Anwendungsfälle

Diese Lösung eignet sich optimal für den Einzelhandel. Sie ist in den folgenden Anwendungsfällen hilfreich:

  • Im Marketing, um den Aufwand für die Gewinnung eines Kunden zu ermitteln.
  • Für Produktteams, um Produkte und Dienste für ihre besten Kunden anzupassen.
  • Für den Kundendienst, um zu entscheiden, wie viel für die Betreuung und Bindung eines Kunden ausgegeben wird.
  • Für Vertriebsmitarbeiter, um zu entscheiden, für welche Art von Kunden sie am meisten Zeit aufwenden müssen, um sie zu gewinnen.

Überlegungen

Diese Überlegungen beruhen auf den Säulen des Azure Well-Architected Frameworks, d. h. einer Reihe von Grundsätzen, mit denen die Qualität von Workloads verbessert werden kann. Weitere Informationen finden Sie unter Microsoft Azure Well-Architected Framework.

Verfügbarkeit

Azure-Komponenten bieten Verfügbarkeit durch Redundanz und gemäß den in den Vereinbarungen zum Servicelevel (SLAs) festgelegten Bedingungen:

Skalierbarkeit

In diesem Szenario wird Azure Data Lake Storage verwendet, um Daten für Machine Learning-Modelle und Vorhersagen zu speichern. Azure Storage ist skalierbar. Es kann viele Exabyte an Daten speichern und verarbeiten. Diese Speicherkapazität ist mit einem in Gigabit pro Sekunde (GBit/s) gemessenen Durchsatz verfügbar. Die Verarbeitung wird mit nahezu konstanten Wartezeiten pro Anforderung ausgeführt. Wartezeiten werden auf Dienst-, Konto- und Dateiebene gemessen.

In diesem Szenario werden Azure Databricks-Cluster verwendet, die die automatische Skalierung standardmäßig aktivieren. Durch die automatische Skalierung kann Databricks während der Laufzeit Ressourcen dynamisch neu zuordnen. Bei der automatischen Skalierung müssen Sie keinen Cluster starten, um eine Workload zu bewältigen, was die Erreichung einer hohen Clusterauslastung erleichtert.

Sicherheit

Sicherheit bietet Schutz vor vorsätzlichen Angriffen und dem Missbrauch Ihrer wertvollen Daten und Systeme. Weitere Informationen finden Sie unter Übersicht über die Säule „Sicherheit“.

Schützen Sie Ihre Assets, indem Sie Kontrollmechanismen für aus Azure stammenden Netzwerkdatenverkehr, für Datenverkehr zwischen lokalen und in Azure gehosteten Ressourcen sowie für Datenverkehr nach und aus Azure verwenden. Die selbstgehostete Integration Runtime von Azure verschiebt Daten z. B. aus dem lokalen Datenspeicher sicher nach Azure.

Verwenden Sie Azure Key Vault und ein bereichsbezogenes Databricks-Geheimnis für den Zugriff auf Daten in Azure Data Lake Storage.

Azure-Dienste werden entweder in einem sicheren virtuellen Netzwerk bereitgestellt oder der Zugriff erfolgt mithilfe des Features Azure Private Link. Falls erforderlich, bietet die Sicherheit auf Zeilenebene differenzierten Zugriff auf einzelne Benutzer in Azure Analysis Services oder SQL-Datenbank.

Kostenoptimierung

Bei der Kostenoptimierung geht es um die Suche nach Möglichkeiten, unnötige Ausgaben zu reduzieren und die Betriebseffizienz zu verbessern. Weitere Informationen finden Sie unter Übersicht über die Säule „Kostenoptimierung“.

Azure Databricks ist ein Apache Spark-Premiumangebot, das mit Kosten verbunden ist.

Es gibt Tarife für Databricks Standard und Databricks Premium. In diesem Szenario ist der Tarif „Standard“ ausreichend. Wenn Ihre Anwendung die automatische Skalierung von Clustern für größere Workloads oder interaktive Databricks-Dashboards erfordert, benötigen Sie möglicherweise den Premium-Tarif.

Die Kosten für diesen Anwendungsfall richten sich basierend auf Ihrer Nutzung nach den Standardpreisen für die folgenden Dienste:

Wenn Sie eine Kostenschätzung für Azure-Produkte und -Konfigurationen benötigen, besuchen Sie den Azure-Preisrechner.

Beitragende

Dieser Artikel wird von Microsoft gepflegt. Er wurde ursprünglich von folgenden Mitwirkenden geschrieben:

Hauptautor:

Nächste Schritte