Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Dieses Muster bietet eine Übersicht über die Implementierung einer KI-basierten Fußfallerkennungslösung zur Analyse des Besucherverkehrs in Einzelhandelsgeschäften. Die Lösung generiert Einblicke aus realen Aktionen mit Azure, Azure Stack Hub und dem Custom Vision AI Dev Kit.
Kontext und Problem
Contoso Stores möchten Einblicke darüber erhalten, wie Kunden ihre aktuellen Produkte im Hinblick auf das Store-Layout erhalten. Sie können Mitarbeiter nicht in jedem Abschnitt platzieren, und es ist ineffizient, ein Team von Analysten zu haben, um das Kameramaterial eines gesamten Ladens zu überprüfen. Darüber hinaus verfügt keiner seiner Stores über genügend Bandbreite, um Videos von allen kameras zur Analyse in die Cloud zu streamen.
Contoso möchte eine unaufdringliche, datenschutzfreundliche Methode finden, um die Demografie, Loyalität und Reaktionen ihrer Kunden auf Verkaufsflächen und Produkte zu ermitteln.
Lösung
Dieses Einzelhandelsanalysemuster verwendet einen gestaffelten Ansatz zur Ableitung am Rand. Wenn Sie das Custom Vision AI Dev Kit verwenden, werden nur Bilder mit menschlichen Gesichtern zur Analyse an einen privaten Azure Stack Hub gesendet, der Azure Cognitive Services ausführt. Anonymisierte aggregierte Daten werden für die Aggregation in allen Stores und Visualisierungen in Power BI an Azure gesendet. Durch die Kombination der Edge- und public Cloud kann Contoso moderne KI-Technologie nutzen und gleichzeitig den Unternehmensrichtlinien entsprechen und die Privatsphäre ihrer Kunden respektieren.
Hier ist eine Zusammenfassung der Funktionsweise der Lösung:
- Das Custom Vision AI Dev Kit erhält eine Konfiguration von IoT Hub, die die IoT Edge Runtime und ein ML-Modell installiert.
- Wenn das Modell eine Person sieht, nimmt es ein Bild und lädt es in Azure Stack Hub Blob Storage hoch.
- Der BLOB-Dienst löst eine Azure-Funktion im Azure Stack Hub aus.
- Die Azure-Funktion ruft einen Container mit der Face-API auf, um demografische und emotionale Daten aus dem Image abzurufen.
- Die Daten werden anonymisiert und an einen Azure Event Hubs-Cluster gesendet.
- Der Event Hubs-Cluster verschiebt die Daten an Stream Analytics.
- Stream Analytics aggregiert die Daten und verschiebt sie an Power BI.
Komponenten
Diese Lösung verwendet die folgenden Komponenten:
Ebene | Komponente | BESCHREIBUNG |
---|---|---|
Hardware im Store | Custom Vision AI Dev Kit | Stellt die In-Store-Filterung mithilfe eines lokalen ML-Modells bereit, das nur Bilder von Personen zur Analyse erfasst. Sicher bereitgestellt und aktualisiert über IoT Hub. |
Azurblau | Azure Event Hubs | Azure Event Hubs bietet eine skalierbare Plattform zum Aufnehmen anonymisierter Daten, die ordnungsgemäß in Azure Stream Analytics integriert werden. |
Azure Stream Analytics | Ein Azure Stream Analytics-Auftrag aggregiert die anonymisierten Daten und gruppiert sie zur Visualisierung in 15 Sekunden. | |
Microsoft Power BI | Power BI bietet eine benutzerfreundliche Dashboardschnittstelle zum Anzeigen der Ausgabe aus Azure Stream Analytics. | |
Azure Stack Hub | App-Dienst | Der App Service-Ressourcenanbieter (RP) bietet eine Basis für Edgekomponenten, einschließlich Hosting- und Verwaltungsfeatures für Web-Apps/APIs und -Funktionen. |
Cluster für die AKS-Engine (Azure Kubernetes Service) | Das AKS RP mit AKS-Engine Cluster, der in Azure Stack Hub bereitgestellt wird, bietet ein skalierbares, robustes Modul zum Ausführen des Face-API-Containers. | |
Container der Gesichtserkennungs-API in Azure Cognitive Services | Das Azure Cognitive Services RP mit Face-API-Containern bietet demografische Erkennung, Emotionserkennung und Erkennung von eindeutigen Besuchern im privaten Netzwerk von Contoso. | |
Blob-Speicher | Bilder, die aus dem AI Dev Kit erfasst werden, werden in den BLOB-Speicher von Azure Stack Hub hochgeladen. | |
Azure-Funktionen | Eine azure-Funktion, die auf Azure Stack Hub ausgeführt wird, empfängt Eingaben aus blob-Speicher und verwaltet die Interaktionen mit der Face-API. Sie gibt anonymisierte Daten an einen Event Hubs-Cluster aus, der sich in Azure befindet. |
Probleme und Überlegungen
Berücksichtigen Sie bei der Entscheidung, wie diese Lösung implementiert werden soll, die folgenden Punkte:
Skalierbarkeit
Damit diese Lösung auf mehrere Kameras und Standorte skaliert werden kann, müssen Sie sicherstellen, dass alle Komponenten die erhöhte Last verarbeiten können. Möglicherweise müssen Sie Aktionen wie die folgenden ausführen:
- Erhöhen Sie die Anzahl der Stream Analytics-Streamingeinheiten.
- Skalieren Sie die Face-API-Bereitstellung.
- Erhöhen Sie den Event Hubs-Clusterdurchsatz.
- Für extreme Fälle kann die Migration von Azure Functions zu einem virtuellen Computer erforderlich sein.
Verfügbarkeit
Da diese Lösung gestaffelt ist, ist es wichtig zu überlegen, wie Sie mit Netzwerk- oder Stromausfällen umgehen können. Je nach geschäftlichen Anforderungen möchten Sie möglicherweise einen Mechanismus zum lokalen Zwischenspeichern von Images implementieren und dann an Azure Stack Hub weiterleiten, wenn die Konnektivität zurückgegeben wird.
Managebarkeit
Diese Lösung kann viele Geräte und Standorte umfassen, was unübersichtlich werden könnte. Azure IoT-Dienste können verwendet werden, um neue Standorte und Geräte automatisch online zu bringen und auf dem neuesten Stand zu halten.
Sicherheit
Mit dieser Lösung werden Kundenbilder erfasst, wodurch die Sicherheit von größter Bedeutung ist. Stellen Sie sicher, dass alle Speicherkonten mit den richtigen Zugriffsrichtlinien gesichert sind und schlüssel regelmäßig drehen. Stellen Sie sicher, dass Speicherkonten und Event Hubs Aufbewahrungsrichtlinien besitzen, die den Datenschutzbestimmungen von Unternehmen und Behörden entsprechen. Stellen Sie außerdem sicher, dass die Benutzerzugriffsebenen gestuft werden. Die Stufung stellt sicher, dass Benutzer nur Zugriff auf die Daten haben, die sie für ihre jeweilige Rolle benötigen.
Nächste Schritte
Weitere Informationen zu den in diesem Artikel eingeführten Themen:
- Siehe das Muster "Gestaffelte Daten", das vom Erkennungsmuster für Fußfälle verwendet wird.
- Weitere Informationen zur Verwendung von benutzerdefinierten Visionen finden Sie im AI Dev Kit.
Wenn Sie bereit sind, das Lösungsbeispiel zu testen, fahren Sie mit der Bereitstellungsanleitung zur Fußfallerkennungfort. Das Bereitstellungshandbuch enthält schrittweise Anleitungen zum Bereitstellen und Testen der zugehörigen Komponenten.