Azure Percept-KI-Beispielmodelle

Wichtig

Einstellung von Azure Percept DK:

Update 9. November 2022: Ein Firmwareupdate, mit dem vision SoM und Audio SOM ihre Funktionalität mit dem DK über den Aussetzungstermin hinaus beibehalten können, wird vor dem Aussetzungstermin zur Verfügung gestellt.

Die Public Preview von Azure Percept wird weiterentwickelt und soll neue Edgegeräteplattformen und Entwicklerfunktionen unterstützen. Im Rahmen dieser Weiterentwicklung werden Azure Percept DK und Audio Accessory sowie die zugehörigen unterstützenden Azure-Dienste für Percept DK am 30. März 2023 eingestellt.

Ab dem 30. März 2023 werden Azure Percept DK und Audio Accessory von keinem Azure-Dienst mehr unterstützt, einschließlich Azure Percept Studio, Betriebssystemupdates, Containerupdates, Anzeige von Webstreams und Custom Vision-Integration. Ab diesem Zeitpunkt bietet Microsoft keinen Kundenerfolgssupport und keine unterstützenden Dienste mehr. Weitere Informationen finden Sie im Blogbeitrag zur Außerbetriebnahme.

Azure Percept ermöglicht Ihnen das Entwickeln und Bereitstellen von KI-Modellen direkt in Ihrer Azure Percept DK-Instanz aus Azure Percept Studio. Die Modellimplementierung verwendet Azure IoT Hub und Azure IoT Edge.

KI-Beispielmodelle

Azure Percept Studio enthält Beispielmodelle für die folgenden Anwendungen:

  • Personenerkennung
  • Fahrzeugerkennung
  • Allgemeine Objekterkennung
  • Erkennung von Produkten in Regalen

Bei vortrainierten Modellen ist keine Codierungs-oder Sammlung von Trainingsdaten erforderlich. Stellen Sie einfach das gewünschte Modell aus dem Portal in Ihrer Azure Percept DK-Instanz bereit, und öffnen Sie den Videostream Ihres DevKits, um die Modellrückschlüsse in Aktion zu sehen. Sie können auch über das Azure IoT-Explorer-Tool auf Telemetriedaten der Modellrückschlüsse zugreifen.

Referenzlösungen

Eine Referenzlösung zur Zählung von Personen ist ebenfalls verfügbar. Bei dieser Referenzlösung handelt es sich um eine Open-Source-KI-Anwendung, die Edge-basierte Personenzählung bereitstellt, mit benutzerdefinierten Betreten-/Verlassen-Ereignissen für eine Zone. Die Video- und KI-Ausgabe des lokalen Edgegeräts wird an Azure Data Lake ausgegeben, wobei die Benutzeroberfläche als Azure-Website ausgeführt wird. KI-Rückschlüsse werden von einem Open Source-KI-Modell für die Personenerkennung bereitgestellt.

GIF der vorgefertigten Lösung für räumliche Analysen.

Benutzerdefinierte Lösungen ohne Code

Mithilfe von Azure Percept Studio können Sie benutzerdefinierte Vision- und Sprachlösungen entwickeln, ohne dass Sie dazu programmieren müssen.

Für benutzerdefinierte Vision-Lösungen sind KI-Modelle sowohl für die Objekterkennung als auch -klassifizierung verfügbar. Laden Sie einfach Ihre Trainingsbilder hoch, und kennzeichnen Sie sie. Die Bilder können, falls gewünscht, direkt mit dem Azure Percept Vision-SoM von Azure Percept DK aufgenommen werden. Training und Auswertung von Modellen können problemlos in Custom Vision ausgeführt werden, das Bestandteil von Azure Cognitive Services ist.


Für benutzerdefinierte Sprachlösungen sind derzeit Sprach-Assistenten-Vorlagen für folgende Anwendungen verfügbar:

  • Hotel- und Gaststättengewerbe: Hotelzimmer mit intelligenten Geräten mit Sprachsteuerung.
  • Gesundheitswesen: Pflegeeinrichtungen mit intelligenten Geräten mit Sprachsteuerung.
  • Inventur: Hub für die Bestandsverwaltung mit intelligenten Geräten mit Sprachsteuerung.
  • Automobilbau: Hub für die Kommunikation in Fahrzeugen mit intelligenten Geräten mit Sprachsteuerung.

Vorgefertigte Sprach-Assistenten-Schlüsselwörter und -Befehle sind direkt über das Portal verfügbar. Benutzerdefinierte Schlüsselwörter und Befehle können in Speech Studio erstellt und trainiert werden, das ebenfalls Bestandteil von Azure Cognitive Services ist.

Komplexe Entwicklung

Aktuelle Anleitungen, Tutorials und Beispiele zu den folgenden Themen finden Sie im GitHub-Repository zur erweiterten Entwicklung mit Azure Percept DK:

  • Bereitstellen eines benutzerdefinierten KI-Modells in Azure Percept DK
  • Aktualisieren eines unterstützten Modells mit dem Lerntransfer
  • und mehr...