Einführung

Abgeschlossen

In diesem Modul werden zwei verteilte Dateisysteme beschrieben: Hadoop Distributed File System (HDFS) und CephFS. Beide Dateisysteme, sowohl HDFS als auch CephFS, sind speziell für Big Data ausgelegt, weisen jedoch gewissen Unterschiede auf. HDFS ist speziell für große Dateien mit Write-Once-Read-Many-Semantik konzipiert. CephFS wurde dagegen als universelles verteiltes Dateisystem entwickelt, das für eine Vielzahl von Anwendungen verwendet werden kann, die in einem virtualisierten Cluster bereitgestellt werden. CephFS ist ein Dateisystem, das auf einem verteilten Objektspeicher aufsetzt. In diesem Modul werden einige der von den Entwicklern dieser Dateisysteme für die Zielanwendungen getroffenen Entwurfsentscheidungen erläutert.

Lernziele

Dieses Modul umfasst Folgendes:

  • Überblick über die Entwurfsziele und Architekturmerkmale von HDFS (Hadoop Distributed File System)
  • Überblick über die Entwurfsziele und Architekturmerkmale von CephFS (Ceph File System)
  • Vergleich von HDFS und CephFS

Voraussetzungen

  • Verstehen, was Cloud Computing ist, einschließlich Clouddienstmodellen und häufig verwendeten Cloudanbietern
  • Kenntnis der Technologien, die Cloud Computing ermöglichen
  • Verstehen, wie die Abrechnung für Clouddienstanbieter in der Cloud funktioniert
  • Wissen, was Rechenzentren sind und warum sie existieren
  • Wissen, wie Rechenzentren eingerichtet, unterhalten und bereitgestellt werden
  • Verstehen, wie Cloudressourcen bereitgestellt und gemessen werden
  • Vertrautheit mit dem Konzept der Virtualisierung
  • Kennen der verschiedenen Arten von Virtualisierung
  • Verstehen der CPU-Virtualisierung
  • Verstehen der Arbeitsspeichervirtualisierung
  • Kenntnisse über E/A-Virtualisierung
  • Kenntnisse über die verschiedenen Arten von Daten und deren Speicherung