Evaluieren herkömmlicher Einsatzmethoden

Abgeschlossen

Bis Windows 11 bestand die Methode der Wahl für die Bereitstellung eines Betriebssystems in der Regel im „Imaging“ des Geräts. Unter „Imaging“ versteht man das Anwenden eines vorkonfigurierten Betriebssystems auf eine große Gruppe von Computern. Dies war in der Vergangenheit die bevorzugte Methode für große Bereitstellungen, bei denen manuelle Installationsmethoden praktischer sein konnten. Herkömmliche Methoden wie Imaging werden weiterhin für Windows 11 oder höher unterstützt.

Standardimages und benutzerdefinierte Images

Administratoren müssen entscheiden, ob sie das Windows-Standardimage verwenden oder ein benutzerdefiniertes Image erstellen möchten, wenn sie ein bereitzustellendes Image auswählen.

Die Installationsdateien für Windows umfassen das Standardbetriebssystem-Image „install.wim“. Dieses Image ist ein allgemeines Betriebssystemimage, das mehrere Standardtreiber enthält. Wenn Sie das Standardbetriebssystem-Image verwenden, müssen die Konfiguration des Betriebssystems und die Installation von Anwendungen separat erfolgen, nachdem das Image bereitgestellt wurde.

Konfigurationen und Anwendungen können in benutzerdefinierte Images eingeschlossen werden. Tools wie „Deployment Image Servicing and Management“ (DISM.exe) können zum Warten und Vorbereiten von Windows-Images verwendet werden. DISM ist ein Befehlszeilentool, das das Image eines Referenzcomputers mit dem gewünschten Betriebssystem, den gewünschten Einstellungen und Anwendungen erfassen kann. DISM kann auch verwendet werden, um das Image einzubinden und Änderungen daran vorzunehmen.

Sysprep wird dann verwendet, um das Image vor der Bereitstellung zu generalisieren. Bevor Sie ein Windows-Image auf neuen PCs bereitstellen, müssen Sie das Image zunächst generalisieren. Bei diesem Prozess werden computerspezifische Informationen wie installierte Treiber und die Sicherheits-ID (SID) des Computers entfernt. Durch die Generalisierung des Images wird es bereit für die Bereitstellung.

Es gibt Vor- und Nachteile bei der Verwendung von Standard- und benutzerdefinierten Images, wie im folgenden Diagramm dargestellt.

Standardbild Benutzerdefiniertes Image
Keine Notwendigkeit, ein Image zu erstellen. Image muss erstellt und verwaltet werden.
Anwendungen und Einstellungen müssen separat angewendet werden. Anwendungen und Einstellungen können in ein benutzerdefiniertes Image aufgenommen werden.
Ein Image pro Architektur (x86/x64) kann für die Organisation verwendet werden. Die Konfigurations- und Anwendungsanforderungen (und manchmal auch Hardware) jeder Gruppe innerhalb einer Organisation können in der Regel die Erstellung und Verwaltung mehrerer Images erforderlich machen.
Bei Updates von Anwendungen muss das Image nicht neu erstellt werden. Updates von Anwendungen führen dazu, dass Images veralten, sodass Images häufig aktualisiert oder neu erstellt werden müssen.
Die Gesamtbereitstellungszeit ist in der Regel länger, da Konfigurationen angewendet und Anwendungen installiert werden müssen, nachdem das Betriebssystemimage bereitgestellt wurde. Die gesamte Bereitstellungszeit ist in der Regel schneller, da die Konfigurationen und Anwendungen im Image enthalten sind.
Bei einigen Anwendungen kann sich die Automatisierung ihrer Installation als schwierig erweisen. Wenn Anwendungen auf dem Referenzcomputer installiert sind, lassen sie sich in der Regel einfacher bereitstellen, wenn sie in das Image aufgenommen werden.

Thin vs. Thick Images (schlank vs. umfangreich)

Wenn Sie sich für eine Vorgehensweise bei der Imageerstellung entscheiden, bezieht sich „Thin“ (schlank) und „Thick“ (umfangreich) Image auf das, was das Image über das Betriebssystem hinaus enthält. Ein Thin Image kann das Standardimage oder ein benutzerdefiniertes Image sein, das lediglich das Betriebssystem und einige Treiber enthält, die erforderlich sind, um sicherzustellen, dass das Betriebssystem ordnungsgemäß installiert wird. Alternativ kann ein Thick Image aus dem Betriebssystem und mehreren Anwendungen bestehen, die in der Organisation weit verbreitet sind.

Zunächst können Thick Images als die attraktivere Option erscheinen. Thick Images lassen sich jedoch im Laufe der Zeit zunehmend schwerer verwalten. Schließlich erfordern Anwendungen Updates, und häufig sind Konfigurationsänderungen erforderlich. Bei jeder Bereitstellung müssen diese Änderungen und Updates angewendet werden. Wenn die Updates im Laufe der Zeit akkumulieren, kann sich die Bereitstellungszeit erheblich verlängern. Müssen mehrere Images unterstützt werden, kann die Verwaltung der Versionen von Apps und Konfigurationen schwierig werden. Im Laufe der Zeit steigt die Notwendigkeit, das Image neu zu erstellen, bis zu dem Punkt, an dem es unvermeidlich wird. Der Aufwand, Images neu zu erstellen, kann die Zeit, die ursprünglich mit Thick Images gespart wurde, zunichte machen.

Aus diesen Gründen werden Thin Images empfohlen, bei denen nach der Bereitstellung Konfigurationen angewendet und Anwendungen installiert werden. Zwar verursachen sie vorab etwas zusätzlichen Aufwand, doch Updates lassen sich einfacher verwalten, und Images veralten nicht so schnell. Organisationen können diese Aufgaben nach der Bereitstellung mit minimaler Wartung an den Images selbst mithilfe von Gruppenrichtlinienobjekten und Geräterichtlinien automatisieren, um Konfigurationen mithilfe von Lösungen wie Endpoint Manager anzuwenden.

Starten von VHD

Anstatt das Betriebssystem direkt auf dem physischen Laufwerk zu installieren, unterstützen Geräte mit Windows 7 und höher auch den Start von VHD. Mithilfe von Tools wie Hyper-V, PowerShell oder der Datenträgerverwaltungs-Konsole kann eine .vhd- oder .vhdx-Datei erstellt werden. Sie können eine Windows-Imagedatei anwenden und von dieser starten, als wäre sie nativ auf dem Speichergerät installiert.