Warum die NPU ändert, wie PCs KI ausführen
In früheren Abschnitten haben Sie erfahren, was eine NPU ist und wie Copilot+ PCs sie nutzen, um reale Geschäftsszenarien zu ermöglichen. In diesem Abschnitt wird genauer untersucht, warum die NPU einen bedeutenden Wandel in der PC-Architektur darstellt und was dies für die Zukunft von Windows als Plattform für KI bedeutet.
Sehen Sie den Unterschied: CPU vs. GPU vs. NPU
Um zu verstehen, warum die NPU wichtig ist, hilft es zu sehen, wie alle drei Prozessoren dieselbe KI-Aufgabe verarbeiten.
In der folgenden Demonstration wurde ein KI-Modell aufgefordert, Gesichter in einem Livevideofeed zu identifizieren und zu zählen. Dieselbe Aufgabe wurde auf einer CPU, einer GPU und einer NPU ausgeführt.
Alle drei Prozessoren haben die Aufgabe abgeschlossen, aber die Ergebnisse waren unterschiedlich:
| Prozessor | Geschwindigkeit | Energieeinsatz | Wärme erzeugt |
|---|---|---|---|
| CPU | Langsamste | Am höchsten | Die meisten |
| GPU | Mäßig | Mäßig | Mäßig |
| NPU | Schnellste | Lowest | Am wenigsten |
Die NPU erledigte den Vorgang schneller und erzeugt weniger Wärme und weniger Energie. Diese Effizienz ermöglicht es Copilot+ PCs, KI-Features kontinuierlich auszuführen – z. B. Liveuntertitel oder Windows Studio Effects während eines Videoanrufs – ohne Akkulaufzeit zu entwässern oder andere Anwendungen zu verlangsamen.
Tipp
Diese Demonstration veranschaulicht ein zentrales Konzept: Die NPU ist bei KI-Aufgaben nicht schneller – es ist effizienter. In einem geschäftlichen Kontext bedeutet Effizienz, dass Mitarbeiter KI-Features während des gesamten Arbeitstags verwenden können, ohne ein Ladegerät zu tragen oder andere Apps zu schließen, um Ressourcen freizugeben.
Wie die KI auf dem Gerät das Computermodell ändert
Die KI-Verarbeitung basiert traditionell auf cloudbasierten Diensten – senden Daten an einen Remoteserver, verarbeiten sie dort und geben die Ergebnisse zurück. Dieser Ansatz eignet sich gut für viele Szenarien, aber es führt zu Latenz, erfordert eine Internetverbindung und bedeutet, dass vertrauliche Daten das Gerät verlassen.
Die NPU in Copilot+ PCs ermöglicht ein anderes Modell: on-device AI processing. Mit einer NPU mit 40+ TOPS können viele KI-Aufgaben lokal – direkt auf der Hardware – ausgeführt werden, ohne Daten an die Cloud zu senden. In vielen realen Workflows erfolgt die KI-Verarbeitung in einem Hybridmodell. Einige Aufgaben werden lokal auf dem Gerät ausgeführt, indem sie die NPU für Geschwindigkeit, Datenschutz oder Offlinezugriff verwenden, während komplexere Anforderungen auf cloudbasierte KI-Dienste basieren. Copilot+ PCs sind darauf ausgelegt, diesen Ansatz zu unterstützen, indem sie bei Bedarf die Geräteintelligenz mit der Cloud-Verarbeitung ausbalancieren.
| Verarbeitungsmodell | So funktioniert es | Am besten geeignet für |
|---|---|---|
| Cloudbasierte KI | Daten werden zur Verarbeitung an einen Remotedienst gesendet, und Ergebnisse werden über das Internet zurückgegeben. | Komplexe Aufgaben, die große Modelle erfordern, organisationsübergreifende Datenabfragen, Szenarien, in denen Internet verfügbar ist |
| KI auf Geräten | Daten werden lokal auf der NPU verarbeitet, ohne das Gerät verlassen zu müssen | Aufgaben mit geringer Latenz, Offlineszenarien, datenschutzrelevante Workloads, Echtzeitfeatures wie Untertitel und Videoeffekte |
| Hybrid-KI | Einige Aufgaben werden lokal auf der NPU ausgeführt, während andere von Clouddiensten verarbeitet werden, je nach Workload | Organisationen, die sowohl Echtzeit-On-Device-Features als auch cloudgestützte Intelligenz benötigen, z. B. Microsoft 365 Copilot |
Copilot+ PCs alle drei Modelle unterstützen. Geräteinterne Funktionen wie Live Captions, Windows Studio Effects und Click to Do werden auf der NPU ausgeführt. Cloudbasierte Features wie Microsoft 365 Copilot cloudbasierte Verarbeitung verwenden. Viele Workflows kombinieren beides, z. B. die Verwendung der Gerätesuche zum Suchen nach einer lokalen Datei und die Verwendung von Microsoft 365 Copilot zum Zusammenfassen der Inhalte.
Windows als Plattform für KI
Die NPU ist Teil eines umfassenderen Wandels in der Art und Weise, wie Windows KI in der gesamten Organisation unterstützt. Windows 11 Pro dient als Plattform, die KI-Funktionen auf Geräten mit cloudbasierten Intelligence- und IT-Verwaltungstools verbindet.
Dieser Plattformansatz umfasst:
- Geräteinterne KI-Verarbeitung durch die NPU, ermöglicht schnellere Reaktionszeiten und reduziert die Abhängigkeit von Cloud-Konnektivität für unterstützte Funktionen.
- AI-Agents innerhalb von Windows, die Schlussfolgerungen ziehen, planen und Aktionen im Namen der Benutzer ausführen können, z. B. Geräteeinstellungen über natürliche Sprache konfigurieren oder nächste Schritte basierend auf Bildschirminhalten vorschlagen.
- Windows AI Foundry zum Erstellen von benutzerdefinierten KI-basierten Anwendungen, die die lokale Hardwarebeschleunigung zusammen mit Clouddiensten nutzen.
- IT-Governance und -kontrolle über Microsoft Intune, sodass Organisationen verwalten können, welche KI-Funktionen verfügbar sind und wie Agents mit Organisationsdaten interagieren.
Von Bedeutung
KI-Agents in Windows innerhalb des vorhandenen Management- und Sicherheitsframeworks der Organisation arbeiten. IT-Administratoren können das Verhalten und den Datenzugriff durch dieselben Tools steuern, die zum Verwalten anderer Windows 11 Pro-Richtlinien und -Konfigurationen verwendet werden.
Was dies für Organisationen bedeutet
Die Kombination aus geräteinterner KI, Cloud-Intelligenz und Plattform-Governance bildet ein praktisches Modell für Organisationen, die KI im großen Maßstab einführen.
- Mitarbeiter erhalten schneller, reaktionsfähigere KI-Features, die auch ohne Internetverbindung funktionieren – die Produktivität im Feld, während der Reise oder in Umgebungen mit geringer Konnektivität verbessern.
- IT-Teams behalten die Kontrolle über KI-Funktionen durch vertraute Verwaltungstools, wobei Sicherheitsfeatures standardmäßig aktiviert sind und das Agentverhalten auf Richtlinienebene gesteuert wird.
- Developers können benutzerdefinierte KI-Lösungen mit Windows AI Foundry erstellen, open-source- und proprietäre Modelle integrieren, die lokal auf der NPU ausgeführt werden– vertrauliche Daten auf dem Gerät beibehalten und gleichzeitig bei Bedarf eine Verbindung mit Clouddiensten herstellen.
Bei der Diskussion über Copilot+ PCs mit Entscheidungsträgern für Unternehmen ist die Plattformgeschichte oft der überzeugendste Winkel: Dies sind keine schnelleren PCs – sie sind die Grundlage dafür, wie die Organisation KI baut, bereitstellen und verwalten wird. Die NPU ist ein wichtiger Bestandteil dieser Grundlage und ermöglicht eine neue Klasse von KI-basierten Erfahrungen, die effizient, reaktionsfähig und sicher sind.