AI en machine learning-computing on-premises en naar de rand implementeren

Container Registry
IoT Edge
Machine Learning
Azure Stack Edge

Deze referentiearchitectuur illustreert hoe u Azure Stack Edge gebruikt om snelle machine learning-deductie uit te breiden van de cloud naar on-premises of edge-scenario's. Azure Stack Hub biedt Azure-mogelijkheden zoals rekenkracht, opslag, netwerken en hardwareversnelling voor machine learning op elke edge-locatie.

Architectuur

Architectuurdiagram: on-premises gegevenstraining van een model in Azure Machine Learning, waarbij het model terug naar de rand is geïmplementeerd voor deductie.

Een Visio-bestand van deze architectuur downloaden.

Werkstroom

De architectuur bestaat uit de volgende stappen:

  • Azure Machine Learning. Met Machine Learning kunt u machine learning-modellen bouwen, trainen, implementeren en beheren in een cloudomgeving. Deze modellen kunnen vervolgens worden geïmplementeerd in Azure-services, waaronder (maar niet beperkt tot) Azure Container Instances, Azure Kubernetes Service (AKS) en Azure Functions.
  • Azure Container Registry. Container Registry is een service waarmee het Docker-register wordt gemaakt en beheerd. Container Registry bouwt, bewaart en beheert Docker-containerinstallatiekopieën en kan machine learning-modellen in containers opslaan.
  • Azure Stack Edge. Azure Stack Edge is een edge-computingapparaat dat is ontworpen voor machine learning-deductie aan de rand. Gegevens worden vooraf verwerkt aan de rand voordat ze naar Azure worden overgebracht. Azure Stack Edge bevat hardware voor rekenversnelling die is ontworpen om de prestaties van AI-deductie aan de rand te verbeteren.
  • Lokale gegevens. Lokale gegevens verwijzen naar alle gegevens die worden gebruikt in de training van het machine learning-model. De gegevens kunnen zich in elke lokale opslagoplossing bevinden, inclusief Azure Arc-implementaties.

Onderdelen

Scenariodetails

Potentiële gebruikscases

Deze oplossing is ideaal voor de telecommunicatie-industrie. Typische toepassingen voor het uitbreiden van deductie zijn onder andere wanneer u het volgende moet doen:

  • Voer lokale, snelle machine learning-deductie uit op gegevens die worden opgenomen en u een aanzienlijke on-premises hardwarevoetafdruk hebt.
  • Maak langetermijnoplossingen voor onderzoek waarbij bestaande on-premises gegevens worden opgeschoond en gebruikt om een model te genereren. Het model wordt vervolgens zowel on-premises als in de cloud gebruikt; het wordt regelmatig opnieuw getraind wanneer er nieuwe gegevens binnenkomen.
  • Bouw softwaretoepassingen die deductie moeten maken over gebruikers, zowel op een fysieke locatie als online.

Aanbevelingen

Lokaal opgeslagen gegevens opnemen, transformeren en overdragen

Azure Stack Edge kan gegevens die afkomstig zijn van lokale opslag transformeren voordat deze gegevens naar Azure worden overgebracht. Deze transformatie wordt uitgevoerd door een Azure IoT Edge-apparaat dat is geïmplementeerd op het Azure Stack Edge-apparaat. Deze IoT Edge apparaten zijn gekoppeld aan een Azure IoT Hub resource op het Azure-cloudplatform.

Elke IoT Edge module is een Docker-container die een specifieke taak uitvoert in een werkstroom voor opnemen, transformeren en overdragen. Een IoT Edge-module kan bijvoorbeeld gegevens verzamelen van een lokale Azure Stack Edge-share en de gegevens transformeren in een indeling die gereed is voor machine learning. Vervolgens draagt de module de getransformeerde gegevens over naar een Azure Stack Edge-cloudshare. U kunt aangepaste of ingebouwde modules toevoegen aan uw IoT Edge-apparaat of aangepaste IoT Edge modules ontwikkelen.

Notitie

IoT Edge modules worden geregistreerd als Docker-containerinstallatiekopieën in Container Registry.

In de Azure Stack Edge-resource op het Azure-cloudplatform wordt de cloudshare ondersteund door een Azure Blob Storage-accountresource. Alle gegevens in de cloudshare worden automatisch geüpload naar het gekoppelde opslagaccount. U kunt de gegevenstransformatie en -overdracht controleren door de lokale of cloudshare te koppelen of door het Azure Storage-account te gaan.

Een model trainen en implementeren

Nadat u gegevens hebt voorbereid en opgeslagen in Blob Storage, kunt u een Machine Learning-gegevensset maken die verbinding maakt met Azure Storage. Een gegevensset vertegenwoordigt één kopie van uw gegevens in de opslag waarnaar rechtstreeks wordt verwezen door Machine Learning.

U kunt de opdrachtregelinterface (CLI) van Machine Learning, de R SDK, de Python SDK, de ontwerper of Visual Studio Code gebruiken om de scripts te maken die nodig zijn om uw model te trainen.

Na het trainen en voorbereiden van het model voor implementatie, kunt u het implementeren in verschillende Azure-services, waaronder maar niet beperkt tot:

Notitie

Voor deze referentiearchitectuur wordt het model geïmplementeerd in Azure Stack Edge om het model on-premises beschikbaar te maken voor deductie. Het model wordt ook geïmplementeerd in Container Registry om ervoor te zorgen dat het model beschikbaar is voor deductie in de breedste verscheidenheid aan Azure-services.

Deductie met een nieuw geïmplementeerd model

Azure Stack Edge kan machine learning-modellen snel lokaal uitvoeren op basis van on-premises gegevens met behulp van de ingebouwde hardware voor rekenversnelling. Deze berekening vindt volledig aan de rand plaats. Het resultaat is snelle inzichten op basis van gegevens door gebruik te maken van hardware die zich dichter bij de gegevensbron bevindt dan een openbare cloudregio.

Daarnaast blijft Azure Stack Edge gegevens overdragen naar Machine Learning voor continue hertraining en verbetering met behulp van een machine learning-pijplijn die is gekoppeld aan het model dat al wordt uitgevoerd op basis van lokaal opgeslagen gegevens.

Overwegingen

Met deze overwegingen worden de pijlers van het Azure Well-Architected Framework geïmplementeerd. Dit is een set richtlijnen die kunnen worden gebruikt om de kwaliteit van een workload te verbeteren. Zie Microsoft Azure Well-Architected Framework voor meer informatie.

Beschikbaarheid

  • Overweeg om uw Azure Stack Edge-resource in dezelfde Azure-regio te plaatsen als andere Azure-services die er toegang toe hebben. Als u de uploadprestaties wilt optimaliseren, kunt u overwegen om uw Azure Blob Storage-account in de regio te plaatsen waar uw apparaat de beste netwerkverbinding heeft.
  • Overweeg Azure ExpressRoute voor een stabiele, redundante verbinding tussen uw apparaat en Azure.

Beheerbaarheid

  • Beheerders kunnen controleren of de gegevensbron van de lokale opslag correct is overgedragen naar de Azure Stack Edge-resource. Ze kunnen dit controleren door de bestandsshare Server Message Block (SMB)/Network File System (NFS) te koppelen of verbinding te maken met het gekoppelde Blob Storage-account met behulp van Azure Storage Explorer.
  • Gebruik Machine Learning-gegevenssets om tijdens het trainen van uw model te verwijzen naar uw gegevens in Blob Storage. Als u naar opslag verwijst, hoeft u geen geheimen, gegevenspaden of verbindingsreeksen in uw trainingsscripts in te sluiten.
  • Registreer en volg ML-modellen in uw Machine Learning-werkruimte om verschillen tussen uw modellen op verschillende tijdstippen bij te houden. U kunt op dezelfde manier de versie- en traceringsmetagegevens spiegelen in de tags die u gebruikt voor de Docker-containerinstallatiekopieën die worden geïmplementeerd in Container Registry.

DevOps

  • Bekijk de MLOps-levenscyclusbeheerbenadering voor Machine Learning. Gebruik bijvoorbeeld GitHub of Azure Pipelines om een doorlopend integratieproces te maken waarmee een model automatisch wordt getraind en opnieuw wordt getraind. Training kan worden geactiveerd wanneer nieuwe gegevens de gegevensset vullen of wanneer er een wijziging wordt aangebracht in de trainingsscripts.
  • De Azure Machine Learning-werkruimte registreert en beheert automatisch Docker-containerinstallatiekopieën voor machine learning-modellen en IoT Edge-modules.

Kostenoptimalisatie

Kostenoptimalisatie gaat over het zoeken naar manieren om onnodige uitgaven te verminderen en de operationele efficiëntie te verbeteren. Zie Overzicht van de pijler kostenoptimalisatie voor meer informatie.

Volgende stappen

Productdocumentatie

Microsoft Learn-modules: