Guide pratique pour déployer une application de classification d’images en temps réel sur Azure Sphere

Effectué

Jusqu’à présent, vous avez mis à jour votre projet avec les données, bibliothèques et paramètres ajustés nécessaires. Vous pouvez donc commencer à déployer votre application de classification d’images en temps réel sur Azure Sphere.

Dans ce module, vous n’utilisez pas d’appareil photo pour capturer des images, les traiter et les classifier sur Azure Sphere. Vous allez prendre une image personnalisée et la convertir en valeurs de pixels. Vous allez ensuite utiliser ces valeurs de pixels en tant qu’image d’entrée dans votre modèle de réseau. Vous allez évaluer le modèle en fonction des données d’entrée prédéfinies.

Le composant de cette unité est le suivant :

cifar-10-IMG_DATA.ipynb : Il s’agit d’un notebook Jupyter disponible dans le dépôt GitHub. Il génère les valeurs de pixels d’une image personnalisée.

Les étapes à suivre sont les suivantes :

  1. Définir votre image d’entrée dans votre application de classification d’images
  2. Démarrer le déploiement de l’application sur Azure Sphere
  3. Afficher la sortie dans votre émulateur de terminal

À présent, vous créez et exécutez le réseau neuronal avec des données d’entrée purement prédéfinies sur Azure Sphere. Le code source est traité de la façon suivante : il accepte l’image d’entrée et montre la sortie résultante sur l’émulateur de terminal.

À la fin du module, vous allez découvrir comment exécuter un modèle de classification d’images sur un microcontrôleur ARM tel qu’Azure Sphere. Vous découvrirez également les principes de base du framework CMSIS-NN.

Il existe également davantage de possibilités quand vous exploitez ce framework de réseau neuronal pour traiter les données et extraire des informations utiles.