Analysieren von operativer Daten in MongoDB mithilfe von Azure Synapse Analytics

Azure App Service
Azure Data Lake Storage
Azure Event Grid
Azure Synapse Analytics
Power BI

In diesem Artikel wird eine Lösung zum Ableiten von Erkenntnissen aus operativen MongoDB Atlas-Daten vorgestellt. Die Lösung verbindet MongoDB Atlas mit Azure Synapse Analytics. Die Verbindung ermöglicht die Übertragung von Daten in Batches und in Echtzeit. Durch den Echtzeitansatz hält Azure Synapse Analytics dedizierte SQL-Pools mit Änderungen in der MongoDB Atlas-Datenquelle synchronisiert.

Apache®, Apache Spark und das Flammenlogo sind entweder eingetragene Marken oder Marken der Apache Software Foundation in den USA und/oder anderen Ländern. Die Verwendung dieser Markierungen impliziert kein Endorsement durch die Apache Software Foundation.

Das MongoDB Atlas-Logo ist eine Marke von MongoDB. Die Verwendung dieser Marke impliziert keine Empfehlung.

Aufbau

Das folgende Diagramm zeigt, wie MongoDB Atlas-Daten in Echtzeit mit Azure Synapse Analytics synchronisiert werden.

Architecture diagram that shows data flow from MongoDB Atlas to analysis apps. Interim stages include a change stream API and Azure Synapse Analytics.

PowerPoint-Datei mit allen Diagrammen aus diesem Artikel herunterladen

Datenfluss

Die Lösung bietet zwei Optionen zum Auslösen der Pipelines, die die Echtzeitänderungen im operativen Datenspeicher (ODS) von MongoDB erfassen und die Daten synchronisieren. In den folgenden Schritten werden beide Optionen dargelegt.

  1. Änderungen treten in den operativen und Transaktionsdaten auf, die in MongoDB Atlas gespeichert sind. Die Mongo Atlas-Änderungsstream-APIs benachrichtigen abonnierte Anwendungen über die Änderungen in Echtzeit.

  2. Eine benutzerdefinierte Azure App Service-Web-App abonniert den MongoDB-Änderungsstream. Es gibt zwei Versionen der Web-App, Event Grid und Speicher, eine für jede Version der Lösung. Beide App-Versionen hören lauschen auf Änderungen, die durch einen Einfüge-, Aktualisierungs- oder Löschvorgang in Atlas verursacht werden. Wenn die Apps eine Änderung erkennen, schreiben sie das geänderte Dokument als Blob in Azure Data Lake Storage, der in Azure Synapse Analytics integriert ist. Die Event Grid-Version der App erstellt auch ein neues Ereignis in Azure Event Grid, wenn eine Änderung in Atlas erkannt wird.

  3. Beide Versionen der Lösung lösen die Azure Synapse Analytics-Pipeline aus:

    1. In der Event Grid-Version wird ein benutzerdefinierter ereignisbasierter Trigger in Azure Synapse Analytics konfiguriert. Dieser Trigger abonniert das Thema „Event Grid“, in dem die Web-App veröffentlicht. Das neue Ereignis in diesem Thema aktiviert den Azure Synapse Analytics-Trigger, wodurch die Ausführung der Azure Synapse Analytics-Datenpipeline ausgelöst wird.
    2. In der Speicherversion wird ein speicherbasierter Trigger in Azure Synapse Analytics konfiguriert. Wenn der neue Blob im integrierten Data Lake Storage-Ordner erkannt wird, wird dieser Trigger aktiviert, wodurch die Ausführung der Azure Synapse Analytics-Datenpipeline ausgelöst wird.
  4. In einer Kopieraktivität kopiert die Azure Synapse Analytics-Pipeline das vollständige geänderte Dokument aus dem Data Lake Storage-Blob in den dedizierten SQL-Pool. Dieser Vorgang ist so konfiguriert, dass ein Upsert für eine ausgewählte Spalte ausgeführt wird. Wenn die Spalte im dedizierten SQL-Pool vorhanden ist, wird sie durch das Upsert aktualisiert. Wenn die Spalte nicht vorhanden ist, fügt das Upsert die Spalte ein.

  5. Der dedizierte SQL-Pool ist das Enterprise Data Warehousing-Feature, das die von der Datenpipeline aktualisierte Tabelle hostet. Die Datenkopieraktivität der Pipeline hält diese Tabelle mit ihrer entsprechenden Atlas-Sammlung synchronisiert.

  6. Power BI-Berichte und -Visualisierungen zeigen aktuelle Analysen in Quasi-Echtzeit an. Die Daten werden auch an Downstreamanwendungen weitergegeben. MongoDB Atlas funktioniert als Senke, indem ein Azure Synapse Analytics-Datenpipelineconnector verwendet wird. Atlas stellt dann benutzerdefinierte Apps mit den Echtzeitdaten bereit.

Komponenten

  • MongoDB Atlas ist ein Datenbank-as-a-Service-Angebot (Daas) von MongoDB. Diese Multicloud-Anwendungsdatenplattform bietet transaktionsbasierte Verarbeitung, relevanzbasierte Suche, Echtzeitanalyse und Mobil-zu-Cloud-Datensynchronisierung. MongoDB bietet außerdem eine lokale Lösung: MongoDB Enterprise Advanced.

  • Änderungsstreams in MongoDB Atlas verschaffen Anwendungen Zugriff auf Echtzeitdatenänderungen, sodass die Apps sofort auf diese Änderungen reagieren können. Die Änderungsstreams stellen eine Möglichkeit für Anwendungen dar, Benachrichtigungen zu Änderungen an einer bestimmten Sammlung, Datenbank oder einem ganzen Bereitstellungscluster zu erhalten.

  • App Service und seine Web-Apps-, Mobile Apps- und API-Apps-Funktionen bieten ein Framework zum Erstellen, Bereitstellen und Skalieren von Web-Apps, mobilen Apps und REST-APIs. Diese Lösung verwendet Web-Apps, die in ASP.NET programmiert sind. Der Code steht auf GitHub zur Verfügung:

  • Azure Synapse Analytics ist der von dieser Lösung verwendete Kerndienst für die Erfassung, Verarbeitung und Analyse von Daten.

  • Data Lake Storage bietet Funktionen für die Speicherung und Verarbeitung von Daten. Als Data Lake, der auf Blob Storage basiert, bietet Data Lake Storage eine skalierbare Lösung zum Verwalten großer Datenmengen aus mehreren, heterogenen Quellen.

  • Azure Synapse Analytics-Pipelines werden zur Durchführung von Extrahieren-, Transformieren- und Laden-Vorgängen (ETL) mit Daten auszuführen. Azure Data Factory bietet einen ähnlichen Dienst, doch sie können Azure Synapse Analytics-Pipelines innerhalb von Synapse Studio erstellen. Sie können in derselben Pipeline mehrere Aktivitäten verwenden. Sie können auch Abhängigkeitsendpunkte erstellen, um eine Aktivität mit einer anderen Aktivität in der Pipeline zu verbinden.

  • Zuordnungsdatenflüsse sind visuell entworfene Datentransformationen in Azure Synapse Analytics. Datenflüsse bieten eine Möglichkeit für Data Engineers, eine Datentransformationslogik zu entwickeln, ohne Code schreiben zu müssen. Sie können die daraus resultierenden Datenflüsse als Aktivitäten in Azure Synapse Analytics-Pipelines ausführen, die aufskalierte Apache Spark-Cluster verwenden. Sie können Datenflussaktivitäten mithilfe vorhandener Azure Synapse Analytics-Funktionen für Planung, Steuerung, Flows und Überwachung operationalisieren.

  • Ein dedizierter SQL-Pool bietet Data Warehousing-Funktionen für Daten, nachdem die Daten verarbeitet und normalisiert wurden. Dieses Feature von Azure Synapse Analytics wurde früher als SQL-Data Warehouse bezeichnet. Dedizierte SQL-Pools machen die optimierten Daten für Ihre Endbenutzer und Anwendungen verfügbar.

  • Azure Synapse Analytics-Trigger bieten eine automatisierte Möglichkeit zum Ausführen von Pipelines. Sie können diese Trigger planen. Sie können auch ereignisbasierte Trigger einrichten, z. B. Speicherereignistrigger und benutzerdefinierte Ereignistrigger. Die Lösung verwendet beide Arten von ereignisbasierten Triggern.

  • Event Grid ist ein hoch skalierbarer, serverloser Ereignisbroker. Sie können Event Grid verwenden, um Ereignisse an Abonnentenzielen bereitzustellen.

  • Power BI ist eine Sammlung von Softwarediensten und Apps, die Analyseinformationen anzeigen. In dieser Lösung bietet Power BI eine Möglichkeit, die verarbeiteten Daten zur Durchführung erweiterter Analysen sowie zur Ableitung von Erkenntnissen zu verwenden.

Szenariodetails

MongoDB Atlas dient als operative Datenebene vieler Unternehmensanwendungen. Diese Clouddatenbank speichert Daten aus internen Anwendungen, kundenseitigen Diensten und Drittanbieter-APIs aus mehreren Kanälen. Mithilfe von Azure Synapse Analytics-Pipelines können Sie MongoDB Atlas-Daten mit relationalen Daten aus anderen herkömmlichen Anwendungen sowie unstrukturierten Daten aus Quellen wie Protokollen kombinieren.

Batchintegration

In Azure Synapse Analytics können Sie lokale MongoDB-Instanzen sowie MongoDB Atlas nahtlos als Quelle oder Senkenressource integrieren. MongoDB ist die einzige NoSQL-Datenbank, die über Quellen- und Senkenconnectors für Azure Synapse Analytics und Data Factory verfügt.

Mit historischen Daten können Sie alle Daten gleichzeitig abrufen. Sie können Daten auch inkrementell für bestimmte Zeiträume abrufen, indem Sie einen Filter im Batchmodus verwenden. Anschließend können Sie SQL-Pools und Apache Spark-Pools in Azure Synapse Analytics verwenden, um die Daten zu transformieren und zu analysieren. Wenn Sie die Analyse- oder Abfrageergebnisse in einem Analysedatenspeicher speichern müssen, können Sie die Senkenressource in Azure Synapse Analytics verwenden.

Architecture diagram that shows the source and sink connectors that connect data from consumers to Azure Synapse Analytics and MongoDB data storage.

Weitere Informationen zum Einrichten und Konfigurieren der Connectors finden Sie in diesen Ressourcen:

Der Quellenconnector bietet eine bequeme Möglichkeit, Azure Synapse Analytics auf Grundlage operativer Daten auszuführen, die in MongoDB oder Atlas gespeichert sind. Nachdem Sie den Quellenconnector zum Abrufen von Daten aus Atlas verwendet haben, können Sie die Daten in Data Lake Storage-Blobspeicher als Parquet-, Avro-, JSON-, Text- oder CSV-Datei laden. Anschließend können Sie diese Dateien transformieren oder mit anderen Datenquellen aus anderen Datenquellen in Umgebungen mit mehreren Datenbanken, Multicloud- oder Hybrid Cloud-Umgebungen verknüpfen.

Sie können die von MongoDB Enterprise Advanced oder MongoDB Atlas abgerufenen Daten in den folgenden Szenarien verwenden:

  • Um alle Daten von einem bestimmten Datum aus MongoDB in einem Batch abzurufen. Anschließend laden Sie die Daten in Data Lake Storage. Von dort aus verwenden Sie einen serverlosen SQL-Pool oder Spark-Pool zur Analyse, oder kopieren Sie die Daten in einen dedizierten SQL-Pool. Nachdem Sie diesen Batch abgerufen haben, können Sie Änderungen, wie sie auftreten, auf die Daten anwenden, wie in Dataflow beschrieben. Eine Storage-CopyPipeline_mdb_synapse_ded_pool_RTS-Beispielpipeline ist als Teil dieser Lösung verfügbar. Sie können die Pipeline aus GitHub für diesen einmaligen Ladezweck exportieren.

  • Um Erkenntnisse mit einer bestimmten Häufigkeit zu erzeugen, z. B. für einen täglichen oder stündlichen Bericht. Für dieses Szenario planen Sie eine Pipeline, um Daten regelmäßig abzurufen, bevor Sie die Analysepipelines ausführen. Sie können eine MongoDB-Abfrage verwenden, um Filterkriterien anzuwenden und nur eine bestimmte Teilmenge von Daten abzurufen.

Echtzeitsynchronisierung

Unternehmen benötigen Erkenntnisse, die auf Echtzeitdaten basieren, nicht auf veralteten Daten. Eine Verzögerung von wenigen Stunden bei der Lieferung von Erkenntnissen kann den Entscheidungsfindungsprozess aufhalten und zu einem Verlust von Wettbewerbsvorteilen führen. Diese Lösung ermöglicht kritische Entscheidungsfindung, indem Änderungen, die in der MongoDB-Transaktionsdatenbank auftreten, in Echtzeit an den dedizierten SQL-Pool weitergegeben werden.

Diese Lösung besteht aus drei Teilen, die in den folgenden Abschnitten beschrieben werden.

Erfassen der MongoDB Atlas-Änderungen

Der MongoDB-Änderungsstream erfasst Änderungen, die in der Datenbank auftreten. Die Änderungsstream-APIs stellen Informationen zu Änderungen für App Service-Web-Apps bereit, die den Änderungsstream abonnieren. Diese Apps schreiben die Änderungen in den Data Lake Storage-Blobspeicher.

Auslösen einer Pipeline zum Weitergeben der Änderungen an Azure Synapse Analytics

Die Lösung stellt zwei Optionen zum Auslösen einer Azure Synapse Analytics-Pipeline bereit, nachdem das Blob in Data Lake Storage geschrieben wurde:

  • Einen speicherbasierten Trigger. Verwenden Sie diese Option, wenn Sie Echtzeitanalysen benötigen, da die Pipeline ausgelöst wird, sobald das Blob mit der Änderung geschrieben wird. Diese Option ist jedoch möglicherweise nicht der bevorzugte Ansatz, wenn bei Ihnen große Mengen an Datenänderungen vorkommen. Azure Synapse Analytics begrenzt die Anzahl der Pipelines, die gleichzeitig ausgeführt werden können. Wenn bei Ihnen eine große Anzahl von Datenänderungen vorkommt, könnten Sie diesen Grenzwert erreichen.

  • Einen ereignisbasierten benutzerdefinierten Trigger. Dieser Triggertyp besitzt den Vorteil, dass er außerhalb von Azure Synapse Analytics angesiedelt ist, sodass er einfacher zu steuern ist. Die Event Grid-Version der Web-App schreibt das geänderte Datendokument in den Blobspeicher. Gleichzeitig erstellt die App ein neues Event Grid-Ereignis. Die Daten in dem Ereignis enthalten den Dateinamen des Blobs. Die Pipeline, die von dem Ereignis ausgelöst wird, empfängt den Dateinamen als Parameter und verwendet dann die Datei, um den dedizierten SQL-Pool zu aktualisieren.

Weitergeben der Änderungen an einen dedizierten SQL-Pool

Eine Azure Synapse Analytics-Pipeline gibt die Änderungen an einen dedizierten SQL-Pool weiter. Die Lösung bietet eine CopyPipeline_mdb_synapse_ded_pool_RTS-Pipeline auf GitHub, die die Änderung im Blob aus Data Lake Storage in den dedizierten SQL-Pool kopiert. Diese Pipeline wird entweder vom Speicher- oder vom Event Grid-Trigger ausgelöst.

Mögliche Anwendungsfälle

Die Anwendungsfälle für diese Lösung umfassen viele Branchen und Bereiche:

  • Einzelhandel

    • Gewinnen von Erkenntnissen über Produktbündelung und Produktwerbung
    • Optimieren des Cold Storage, der IoT-Streaming verwendet
    • Optimieren der Bestandsauffüllung
    • Liefern von Mehrwert für die Omnichannel-Verteilung
  • Bank- und Finanzwesen

    • Anpassen von Kundenfinanzdienstleistungen
    • Erkennen potenziell betrügerischer Transaktionen
  • Telekommunikation

    • Optimieren von Netzwerken der nächsten Generation
    • Maximieren des Werts von Umkreisnetzwerken
  • Automobilindustrie

    • Optimieren der Parametrisierung verbundener Fahrzeuge
    • Erkennen von Anomalien bei der IoT-Kommunikation in verbundenen Fahrzeugen
  • Fertigung

    • Bereitstellung von Predictive Maintenance für Maschinen
    • Optimieren der Speicher- und Bestandsverwaltung

Hier sehen Sie zwei spezifische Beispiele:

  • Wie in diesem Artikel bereits unter Batchintegration beschrieben, können Sie MongoDB-Daten in einem Batch abrufen und dann die Daten aktualisieren, wenn Änderungen auftreten. Diese Funktion ermöglicht Echtzeiterkenntnisse für JIT-Entscheidungsfindung und -Schlussfolgerungen. Diese Funktionalität ist nützlich für die Analyse vertraulicher und kritischer Informationen wie Finanztransaktionen und Betrugserkennungsdaten.
  • Wie unter Batchintegration auch beschrieben wird, können Sie eine Pipeline planen, um MongoDB-Daten regelmäßig abzurufen. Diese Funktionalität ist in Einzelhandelsszenarien nützlich, z. B. das Aktualisieren von Bestandsniveaus mit täglichen Verkaufsdaten. In solchen Fällen sind Analyseberichte und Dashboards nicht von entscheidender Bedeutung, und die Echtzeitanalyse lohnt den Aufwand nicht.

In den folgenden Abschnitten analysieren wir zwei Anwendungsfälle aus der Einzelhandelsbranche detaillierter.

Produktbündelung

Um den Verkauf eines Produkts zu fördern, können Sie das Produkt als Teil eines Bündels zusammen mit anderen verwandten Produkten verkaufen. Das Ziel dabei ist es, Vertriebsmusterdaten zu verwenden, um Strategien für die Bündelung eines Produkts in Pakete zu entwickeln.

Es gibt zwei Datenquellen:

  • Die Produktkatalogdaten aus MongoDB
  • Verkaufsdaten aus Azure SQL

Beide Datensätze werden mithilfe einer Azure Synapse Analytics-Pipeline zu einem dedizierten SQL-Pool in Azure Synapse Analytics migriert. Trigger und Change Data Captures (Erfassung von Änderungsdaten) werden verwendet, um auf Grundlage der einmalig migrierten Daten eine Datensynchronisierung in Quasi-Echtzeit zu erzielen.

Die folgenden Power BI-Diagramme zeigen die Affinität zwischen den Produkten und Verkaufsmustern. Die Affinität zwischen dem Stift und der tintenbasierten Ersatzmine ist hoch. Die Verkaufsdaten zeigen, dass der Stift ein hohes Umsatzvolumen im angegebenen Bereich aufweist.

Diagram that shows pipeline stages and charts that show pen sales by product, year, region, and affinity. Pen sales are highest in 2022 in the South.

Die Analyse macht zwei Vorschläge für bessere Umsätze:

  • Bündelung des Stifts mit der tintenbasierten Ersatzmine
  • Bewerben des Bündels in bestimmten Bereichen

Produktwerbung

Um den Verkauf eines Produkts zu bewerben, können Sie das Produkt den Kunden empfehlen, die an verwandten Produkten interessiert sind. Das Ziel besteht darin, Vertriebsdaten und Einkaufsmusterdaten von Kunden zu verwenden, um Strategien für die Empfehlung eines Produkts an Kunden zu entwickeln.

Mithilfe von Azure Synapse Analytics können Sie KI- und Machine Learning-Modelle entwickeln, um zu bestimmen, welche Produkte Kunden empfohlen werden sollten.

Die folgenden Diagramme zeigen die Verwendung verschiedener Datentypen, um ein Modell zu erstellen, mit dem alternative Produktempfehlungen bestimmt werden sollen. Die Daten umfassen Einkaufsmuster von Kunden, Gewinne, Produktaffinitäten, das Umsatzvolumen der Produkte sowie Produktkatalogparameter.

Diagrams that show pipeline stages and a workflow for an AI model. Data fields include the customer ID, price, sales, and profit.

Wenn Ihr Modell hohe Genauigkeit erreicht, stellt es eine Liste der Produkte bereit, die Sie dem Kunden empfehlen können.

Überlegungen

Diese Überlegungen beruhen auf den Säulen des Azure Well-Architected Frameworks, d. h. einer Reihe von Grundsätzen, mit denen die Qualität von Workloads verbessert werden kann. Weitere Informationen finden Sie unter Microsoft Azure Well-Architected Framework.

Sicherheit

Sicherheit bietet Schutz vor vorsätzlichen Angriffen und dem Missbrauch Ihrer wertvollen Daten und Systeme. Weitere Informationen finden Sie unter Übersicht über die Säule „Sicherheit“.

Ausführliche Informationen zu den Sicherheitsanforderungen und -kontrollen der Azure-Komponenten in der Lösung finden Sie im Abschnitt „Sicherheit“ der Dokumentation des jeweiligen Produkts.

Kostenoptimierung

Bei der Kostenoptimierung geht es um die Suche nach Möglichkeiten, unnötige Ausgaben zu reduzieren und die Betriebseffizienz zu verbessern. Weitere Informationen finden Sie unter Übersicht über die Säule „Kostenoptimierung“.

  • Nutzen Sie den Azure-Preisrechner, falls Sie eine Kostenschätzung für Azure-Produkte und -Konfigurationen benötigen.
  • Mit Azure können Sie unnötige Kosten vermeiden – Azure identifiziert die korrekte Anzahl von Ressourcen für Ihre Ansprüche, indem die Ausgaben im Laufe der Zeit analysiert werden und die Skalierung so vorgenommen wird, dass die Geschäftsanforderungen ohne Mehrkosten erfüllt werden. Sie können beispielsweise die dedizierten SQL-Pools anhalten, wenn Sie keine Last erwarten. Sie können sie dann später fortsetzen.
  • Sie können App Service durch Azure Functions ersetzen. Indem Sie die Funktionen in einer Azure Synapse Analytics-Pipeline orchestrieren, können Sie Kosten reduzieren.
  • Um die Kosten für Spark-Cluster zu verringern, wählen Sie den richtigen Datenfluss-Computetyp aus. Allgemeine und speicheroptimierte Optionen sind verfügbar. Wählen Sie außerdem geeignete Werte für die Kernanzahl und die Gültigkeitsdauer (Time-to-Live, TTL) aus.
  • Weitere Informationen zum Management der Kosten von Schlüssellösungskomponenten finden Sie in den folgenden Ressourcen:

Effiziente Leistung

Leistungseffizienz ist die Fähigkeit Ihrer Workload, eine effiziente Skalierung entsprechend den Anforderungen der Benutzer auszuführen. Weitere Informationen finden Sie unter Übersicht über die Säule „Leistungseffizienz“.

Wenn eine große Anzahl von Änderungen vorliegt, kann das Ausführen Tausender Pipelines in Azure Synapse Analytics für jede Änderung in der Sammlung zu einem Backlog bei den in der Warteschlange befindlichen Pipelines führen. Um die Leistung in diesem Szenario zu verbessern, erwägen Sie die folgenden Ansätze:

  • Verwenden Sie den speicherbasierten App Service-Code, der die JSON-Dokumente mit den Änderungen in Data Lake Storage schreibt. Verknüpfen Sie den speicherbasierten Trigger nicht mit der Pipeline. Verwenden Sie stattdessen einen geplanten Trigger mit einem kurzen Intervall, z. B. alle zwei oder fünf Minuten. Wenn der geplante Trigger ausgeführt wird, werden alle Dateien im angegebenen Data Lake Storage-Verzeichnis verwendet und der dedizierte SQL-Pool für jede dieser Dateien aktualisiert.
  • Ändern Sie den Event Grid App Service-Code. Programmieren Sie ihn so, dass dem Blobspeicher ein Mikrobatch von ca. 100 Änderungen hinzugefügt wird, bevor er dem Ereignis das neue Thema mit den Metadaten hinzufügt, die den Dateinamen enthalten. Mit dieser Änderung lösen Sie nur eine Pipeline für einen Blob mit den 100 Änderungen aus. Sie können die Größe des Mikrobatchs gemäß Ihrem Szenario anpassen. Verwenden Sie kleine Mikrobatches mit hoher Häufigkeit, um Aktualisierungen bereitzustellen, die in Quasi-Echtzeit erfolgen. Oder verwenden Sie größere Mikrobatches mit niedrigerer Häufigkeit für verzögerte Aktualisierungen bei verringertem Aufwand.

Weitere Informationen zur Verbesserung der Leistung und Skalierbarkeit der Copy-Aktivität in der Azure Synapse Analytics-Pipeline finden Sie im Handbuch zur Leistung und Skalierbarkeit der Copy-Aktivität.

Bereitstellen dieses Szenarios

Informationen zur Implementierung dieser Lösung finden Sie unter Echtzeit-Synchronisierungslösung für die MongoDB Atlas-Integration in Synapse.

Beitragende

Dieser Artikel wird von Microsoft gepflegt. Er wurde ursprünglich von folgenden Mitwirkenden geschrieben:

Hauptautoren:

Andere Mitwirkende:

Melden Sie sich bei LinkedIn an, um nicht öffentliche LinkedIn-Profile anzuzeigen.

Nächste Schritte

Wenden Sie sich wegen weiterer Informationen zu der Lösung an partners@mongodb.com.

Informationen zu MongoDB finden Sie in diesen Ressourcen:

Informationen zu Azure-Lösungskomponenten finden Sie in den folgenden Ressourcen: