Freigeben über


Einführung in Analysen auf Cloudebene

Analysen auf Cloudebene bauen auf Azure-Zielzonen auf, um die Bereitstellung und Governance zu erleichtern. Der Hauptzweck der Azure-Zielzone besteht darin, sicherzustellen, dass die erforderliche Infrastruktur bereits vorhanden sind, wenn eine Anwendung oder Workload in Azure ausgeführt wird. Bevor Sie Ihre Zielzone für Analysen auf Cloudeben bereitstellen, müssen Sie bereits eine oder mehrere Azure-Zielzonen eingerichtet haben. Microsoft bietet Beispielvorlagen für die ersten Schritte, die Sie für Data Lakehouse- und Datengittermodell-Bereitstellungen verwenden können. Diese Vorlagen bieten Agilität und entsprechen den Sicherheits- und Governanceanforderungen.

Auswertung der Analysen auf Cloudebene

Häufig wünscht sich ein Unternehmen Klarheit oder einen ausführlichen Leitfaden, bevor es die technischen Details für einen bestimmten Anwendungsfall, ein bestimmtes Projekt oder End-to-End-Analysen auf Cloudebene entwickelt. Wenn ein Unternehmen seine Gesamtdatenstrategie formuliert, kann es eine Herausforderung sein, sicherzustellen, dass es alle strategischen und erforderlichen Grundsätze im Rahmen der aktuellen Nutzung berücksichtigt.

Microsoft hat einen ausführliches Szenario für Analysen auf Cloudebene entwickelt, um auf diese Weise die Bereitstellung zu beschleunigen, ohne die Herausforderungen außer Acht zu lassen. Es berücksichtigt die wichtigsten Themen, die unter Entwickeln eines Plans für Analysen auf Cloudebene erläutert werden.

Die Analysen auf Cloudebene bauen auf dem Microsoft Cloud Adoption Framework auf und wenden den Fokus des Microsoft Azure Well-Architected Framework​ an. Das Cloud Adoption Framework bietet eine Anleitung und bewährte Methoden für Cloudbetriebsmodelle, Referenzarchitekturen und Plattformvorlagen. Er basiert auf Erkenntnissen, die in einigen unserer anspruchsvollsten, am stärksten ausgereiften und komplexesten Umgebungen gewonnen wurden.

Analysen auf Cloudebene bieten Kunden die Möglichkeit, Zielzonen zum Hosten und Ausführen von Analyseworkloads zu erstellen und zu operationalisieren. Sie erstellen die Zielzonen auf der Grundlage von Sicherheit, Governance und Compliance. Diese sind skalierbar und modular aufgebaut, und es ist für Eigenständigkeit und Innovationsmöglichkeiten gesorgt.

Verlauf der Datenarchitektur

Ende der 1980er-Jahre wurde das Data Warehouse der 1. Generation eingeführt, das unterschiedliche Datenquellen aus dem gesamten Unternehmen kombinierte. Ende der 2000er-Jahre wurde Gen2 mit der Einführung von Big Data-Ökosystemen wie Hadoop und Data Lake entwickelt. Bis zu Mitte der 2010er-Jahre entstand die Clouddatenplattform. Das ähnelt früheren Generationen, aber mit der Einführung der Streamingdatenerfassung wie Kappa- oder Lambda-Architekturen. Seit Anfang der 2020er Jahre haben wir nun das Konzept der Data Lakehouse-, Data Mesh-, Data Fabric- und datenzentrierten Betriebsmuster.

Trotz dieser Fortschritte verwenden viele Organisationen weiterhin die zentrale monolithische Plattform, Generation 1. Dieses System funktioniert gut, aber nur bis zu einem bestimmten Punkt. Engpässe können jedoch aufgrund von interdependenten Prozessen, eng gekoppelten Komponenten und hyperspezialisierten Teams auftreten. ETL-Aufträge (Extrahieren, Transformieren und Laden) können sehr umfangreich werden und die Liefer-Zeitachsen verlangsamen.

Das Data Warehouse und der Data Lake sind immer noch nützlich und spielen eine wichtige Rolle in Ihrer Gesamtarchitektur. In der folgenden Dokumentation haben wir einige der Herausforderungen hervorgehoben, die auftreten können, wenn diese herkömmlichen Methoden zum Skalieren verwendet werden. Diese Herausforderungen sind insbesondere in einem komplexen Unternehmen relevant, in der sich Datenquellen, Anforderungen, Teams und Ausgaben ändern.

Wechseln zu Analysen auf Cloudebene

Ihre aktuelle Analysedatenarchitektur und Ihr Betriebsmodell können Data Warehouse-, Data Lake- und Data Lakehouse-Strukturen oder sogar ein aufstrebendes Modell wie Data Fabric oder Datengitter umfassen.

Jedes Datenmodell hat seine eigenen Vorteile und Herausforderungen. Analysen auf Cloudebene helfen Ihnen bei der Arbeit von Ihrem aktuellen Setup, um Ihren Ansatz zur Datenverwaltung zu verschieben, damit sie sich mit Ihrer Infrastruktur weiterentwickeln kann.

Sie können jede Datenplattform und jedes Szenario unterstützen, um ein End-to-End-Framework für Analysen auf Cloudebene zu erstellen, das als Grundlage dient und die Skalierung ermöglicht.

Moderne Datenplattform und gewünschte Ergebnisse

Einer der ersten Schwerpunktbereiche besteht darin, Ihre Datenstrategie zu aktivieren, um Ihre Herausforderungen zu bewältigen, indem Sie iterativ eine skalierbare und agile moderne Datenplattform erstellen.

Anstatt mit Servicetickets überfordert zu werden und zu versuchen, konkurrierende Geschäftsanforderungen zu erfüllen, ermöglicht Ihnen eine moderne Datenplattform, eher eine beratende Rolle zu spielen, indem Sie Sich auf wertvollere Arbeit konzentrieren. Sie stellen den Geschäftsbereichen die Plattform und die Systeme zur Verfügung, um Daten und Analysen selbst zu verwalten.

Empfohlene Bereiche des anfänglichen Fokus sind:

  • Verbessern Sie die Datenqualität, stellen Sie Vertrauen her und erhalten Sie Erkenntnisse, um datengesteuerte Geschäftsentscheidungen zu treffen.

  • Integrieren Sie ganzheitliche Daten, Verwaltung und Analysen nahtlos in Ihrer Gesamten Organisation.

  • Richten Sie robuste Datengovernance ein, die Self-Service und Flexibilität für Branchen ermöglicht.

  • Gewährleisten Sie die Sicherheit und die Einhaltung gesetzlicher Vorschriften in einer vollständig integrierten Umgebung.

  • Erstellen Sie schnell die Grundlage für erweiterte Analysefunktionen mit einer standardmäßig verfügbaren Lösung von gut gestalteten, wiederholbaren, modularen Mustern.

Steuern von Analysegütern

Eine zweite Erwägung besteht darin, zu bestimmen, wie die Organisation Datengovernance implementiert.

Durch Datengovernance stellen Sie sicher, dass Daten, die in Ihren Geschäftsvorgängen, Berichten und Analysen verwendet werden, auffindbar, genau und vertrauenswürdig sind und geschützt werden können.

In vielen Unternehmen wird erwartet, dass Daten und KI einen Wettbewerbsvorteil bringen. Daher sind Führungskräfte bestrebt, KI-Initiativen zu fördern, um die Nutzung datengesteuerter Prozesse voranzubringen. Für eine effektive KI müssen die verwendeten Daten vertrauenswürdig sein. Andernfalls kann es zu falschen oder verspäteten Entscheidungen kommen, oder Maßnahmen bleiben aus, sodass das Geschäftsergebnis möglicherweise beeinträchtigt wird. Unternehmen möchten nicht, dass die Qualität ihrer Daten aufgrund einer fehlerhaften Ausgangslage kein optimales Ergebnis zulässt („garbage in, garbage out“). Zunächst scheint es einfach zu sein, die Datenqualität zu verbessern, bis Sie sich den Effekt ansehen, den die digitale Transformation auf Daten hatte.

Aufgrund der Verteilung der Daten in einer Hybrid-/Multicloud und einer verteilten Datenlandschaft ist es für Organisationen schwierig zu ermitteln, wo sich die Daten befinden, und Governance auf sie anzuwenden. Die Daten ohne Governance können erhebliche Auswirkungen auf das Unternehmen haben. Eine schlechte Datenqualität wirkt sich auf den Geschäftsbetrieb aus, da Datenfehler zu Prozessfehlern und Verzögerungen führen. Eine schlechte Datenqualität wirkt sich auch auf die geschäftliche Entscheidungsfindung und die Fähigkeit aus, konform zu bleiben. Die Sicherstellung der Datenqualität in der Quelle wird häufig bevorzugt, da das Beheben von Qualitätsproblemen im analytischen System komplexer und kostspieliger sein kann als die Anwendung von Datenqualitätsregeln frühzeitig in der Aufnahmephase. Datengovernance muss Folgendes umfassen, um die Datenaktivitäten nachzuverfolgen und zu steuern:

  • Datenermittlung
  • Datenqualität
  • Richtlinienerstellung
  • Datenfreigabe
  • Metadaten

Sichern von Analysegütern

Ein weiterer wichtiger Treiber für die Datengovernance ist der Datenschutz. Der Datenschutz kann Ihnen helfen, gesetzlichen Vorschriften zu entsprechen und Datenschutzverletzungen zu verhindern. Der Datenschutz und die wachsende Anzahl von Datenpannen haben den Datenschutz zu einer obersten Priorität in den Chefetagen gemacht. Die Datenpannen beleuchten das Risiko für vertrauliche Daten, z. B. personenbezogene Kundendaten. Die Folgen einer Verletzung des Datenschutzes oder einer Datenpanne sind vielfältig und können Folgendes beinhalten:

  • Verlust oder schwerwiegende Beschädigung des Markenimages

  • Verlust von Kundenvertrauen und Marktanteil

  • Fallender Aktienkurs, mit Auswirkungen auf die Rendite der Anteilseigner und das Gehalt der Führungskräfte

  • Hohe Geldstrafen wegen nicht bestandener Audits oder Complianceverstößen

  • Gerichtliche Schritte

  • Der Dominoeffekt der Sicherheitsverletzung, z. B. Identitätsdiebstahl bei Kunden

Börsennotierte Unternehmen müssen Sicherheitsverletzungen in der Regel melden. Wenn Sicherheitsverletzungen auftreten, machen die Kunden eher das Unternehmen als den Hacker dafür verantwortlich. Möglicherweise boykottiert der Kunde das Unternehmen mehrere Monate lang oder kehrt niemals zu ihm zurück.

Wenn die gesetzlichen Datenschutzbestimmungen nicht eingehalten werden, kann dies erhebliche Geldstrafen nach sich ziehen. Durch Datengovernance können Sie solche Risiken vermeiden.

Betriebsmodell und Vorteile

Die Einführung einer modernen Datenstrategieplattform ändert nicht nur die Technologie, die Ihre Organisation verwendet, sondern auch Ihre Vorgänge.

Analysen auf Cloudebene bieten vorgeschriebene Anleitungen, mit denen Sie überlegen können, wie Sie Ihre Mitarbeiter und Teams organisieren und qualifizieren können, einschließlich:

  • Persona-, Rollen- und Verantwortungsdefinitionen
  • Vorgeschlagene Strukturen für agile, vertikale und domänenübergreifende Teams
  • Qualifikationsressourcen, einschließlich Azure-Daten und KI-Zertifizierungen über Microsoft Learn

Wichtig ist auch, dass Sie Ihre Endbenutzer während des gesamten Modernisierungsprozesses und bei der Weiterentwicklung Ihrer Plattform und der Einführung neuer Anwendungsfälle einbeziehen.

Architekturen

Azure-Zielzonen stellen den strategischen Entwurfspfad und den technischen Zielstatus ihrer Umgebung dar. Sie ermöglichen eine einfache Bereitstellung und Governance, um mehr Flexibilität und Konformität zu bieten. Azure-Zielzonen stellen außerdem sicher, dass die richtige Infrastruktur bereits vorhanden ist, wenn eine neue Anwendung oder Arbeitsauslastung in Ihrer Umgebung landet. Azure-Datenverwaltungs- und Datenzielzonen werden nach den gleichen grundlegenden Prinzipien entworfen und können bei Kombination mit den anderen Elementen der Analysen auf Cloudebene helfen, Folgendes zu ermöglichen:

  • Self-Service
  • Skalierbarkeit
  • Schnelleinstieg
  • Sicherheit
  • Datenschutz
  • Optimierte Vorgänge

Zielzone für die Datenverwaltung

Die Zielzone für die Datenverwaltung stellt die Grundlage für die zentrale Datengovernance und -verwaltung Ihrer Plattform in Ihrer Organisation bereit. Außerdem erleichtert die Kommunikation die Erfassung von Daten aus Ihrem gesamten digitalen Besitz, einschließlich Multicloud- und hybrider Infrastruktur.

Die Zielzone für die Datenverwaltung unterstützt zahlreiche weitere Datenverwaltungs- und Governancefunktionen, z. B. Folgendes:

  • Datenkatalog
  • Datenklassifizierung
  • Datenherkunft
  • Datenqualitätsverwaltung
  • Datenmodellierungs-Repository
  • API-Katalog
  • Datenfreigabe und Verträge

Datenzielzonen

Datenzielzonen bringen Daten näher an Benutzer und aktivieren Self-Service, während gemeinsame Verwaltung und Governance über Verbindung mit der Zielzone für die Datenverwaltung beibehalten werden.

Sie hosten Standarddienste wie Netzwerk, Überwachung, Datenerfassung und -verarbeitung sowie Anpassungen wie Datenprodukte und Visualisierungen.

Datenzielzonen sind wichtig, um die Skalierbarkeit Ihrer Plattform zu ermöglichen. Je nach Größe und Bedarf Ihrer Organisation können Sie mit einer oder mehreren Zielzonen beginnen.

Wenn Sie zwischen einzelnen und mehreren Zielzonen entscheiden, sollten Sie regionale Abhängigkeiten und Datenaufenthaltsanforderungen berücksichtigen. Gibt es beispielsweise lokale Gesetze oder Vorschriften, die vorschreiben, dass Daten an einem bestimmten Ort verbleiben müssen?

Unabhängig von Ihrer anfänglichen Entscheidung können Sie bei Bedarf Datenzielzonen hinzufügen oder entfernen. Wenn Sie mit einer einzelnen Zielzone beginnen, empfehlen wir, dass Sie auf mehrere Zielzonen erweitern, um zukünftige Anforderungen für die Migration zu vermeiden.

Weitere Informationen zu Zielzonen finden Sie unter Azure-Zielzonen für Analysen auf Cloudebene.

Zusammenfassung

Nachdem Sie diese Dokumentationsmappe gelesen haben, insbesondere die Abschnitte zu Governance und Sicherheit, Betrieb und Best Practices, empfehlen wir Ihnen, eine Umgebung als Machbarkeitsnachweis mithilfe der Bereitstellungsvorlagen einzurichten. Diese Vorlagen sowie Architekturanleitungen bieten Ihnen praktische Erfahrungen mit einigen der Azure-Technologien. Weitere Informationen finden Sie in der Checkliste für erste Schritte.

Nächste Schritte

Integrieren der Analyse auf Cloudebene in Ihre Cloudeinführungsstrategie