Bewerken

Delen via


On-premises ai- en machine learning-computing implementeren en naar de rand

Azure Container Registry
Azure IoT Edge
Azure Machine Learning
Azure Stack Edge

Deze referentiearchitectuur illustreert hoe u Azure Stack Edge gebruikt om snelle machine learning-deductie van de cloud naar on-premises of edge-scenario's uit te breiden. Azure Stack Hub biedt Azure-mogelijkheden, zoals rekenkracht, opslag, netwerken en hardwareversnelde machine learning op elke edge-locatie.

Architectuur

Architectuurdiagram: on-premises gegevenstraining van een model in Azure Machine Learning, waarbij het model weer op de rand is geïmplementeerd voor deductie.

Een Visio-bestand van deze architectuur downloaden.

Workflow

De architectuur bestaat uit de volgende stappen:

  • Azure Machine Learning. Met Machine Learning kunt u machine learning-modellen bouwen, trainen, implementeren en beheren in een cloudomgeving. Deze modellen kunnen vervolgens worden geïmplementeerd in Azure-services, waaronder (maar niet beperkt tot) Azure Container Instances, Azure Kubernetes Service (AKS) en Azure Functions.
  • Azure Container Registry. Container Registry is een service waarmee het Docker-register wordt gemaakt en beheerd. Container Registry bouwt, slaat en beheert Docker-containerinstallatiekopieën en kan machine learning-modellen in containers opslaan.
  • Azure Stack Edge. Azure Stack Edge is een edge-computingapparaat dat is ontworpen voor machine learning-deductie aan de rand. Gegevens worden vooraf verwerkt aan de rand voordat ze naar Azure worden overgedragen. Azure Stack Edge bevat hardware voor rekenversnelling die is ontworpen om de prestaties van AI-deductie aan de rand te verbeteren.
  • Lokale gegevens. Lokale gegevens verwijzen naar alle gegevens die worden gebruikt bij de training van het machine learning-model. De gegevens kunnen zich in elke lokale opslagoplossing bevinden, inclusief Azure Arc-implementaties.

Onderdelen

Scenariodetails

Potentiële gebruikscases

Deze oplossing is ideaal voor de telecommunicatieindustrie. Typische toepassingen voor het uitbreiden van deductie zijn onder andere wanneer u het volgende moet doen:

  • Voer lokale, snelle machine learning-deductie uit op gegevens terwijl deze worden opgenomen en u hebt een aanzienlijke on-premises hardwarevoetafdruk.
  • Maak langetermijnonderzoeksoplossingen waarbij bestaande on-premises gegevens worden opgeschoond en gebruikt om een model te genereren. Het model wordt vervolgens zowel on-premises als in de cloud gebruikt; deze wordt regelmatig opnieuw getraind zodra er nieuwe gegevens binnenkomen.
  • Bouw softwaretoepassingen die deductie moeten maken over gebruikers, zowel op een fysieke locatie als online.

Aanbevelingen

Gegevens opnemen, transformeren en overdragen die lokaal zijn opgeslagen

Azure Stack Edge kan gegevens die afkomstig zijn van lokale opslag transformeren voordat deze gegevens naar Azure worden overgebracht. Deze transformatie wordt uitgevoerd door een Azure IoT Edge-apparaat dat is geïmplementeerd op het Azure Stack Edge-apparaat. Deze IoT Edge-apparaten zijn gekoppeld aan een Azure IoT Hub-resource op het Azure-cloudplatform.

Elke IoT Edge-module is een Docker-container die een specifieke taak uitvoert in een werkstroom voor opnemen, transformeren en overdragen. Een IoT Edge-module kan bijvoorbeeld gegevens verzamelen van een lokale Azure Stack Edge-share en de gegevens transformeren in een indeling die gereed is voor machine learning. Vervolgens draagt de module de getransformeerde gegevens over naar een Azure Stack Edge-cloudshare. U kunt aangepaste of ingebouwde modules toevoegen aan uw IoT Edge-apparaat of aangepaste IoT Edge-modules ontwikkelen.

Notitie

IoT Edge-modules worden geregistreerd als Docker-containerinstallatiekopieën in Container Registry.

In de Azure Stack Edge-resource op het Azure-cloudplatform wordt de cloudshare ondersteund door een Azure Blob Storage-accountresource. Alle gegevens in de cloudshare worden automatisch geüpload naar het gekoppelde opslagaccount. U kunt de gegevenstransformatie en -overdracht controleren door de lokale of cloudshare te koppelen of door het Azure Storage-account te doorlopen.

Een model trainen en implementeren

Nadat u gegevens hebt voorbereid en opgeslagen in Blob Storage, kunt u een Machine Learning-gegevensset maken die verbinding maakt met Azure Storage. Een gegevensset vertegenwoordigt één kopie van uw gegevens in de opslag waarnaar rechtstreeks wordt verwezen door Machine Learning.

U kunt de Opdrachtregelinterface (CLI) van Machine Learning, de R SDK, de Python SDK, designer of Visual Studio Code gebruiken om de scripts te bouwen die nodig zijn om uw model te trainen.

Na het trainen en voorbereiden van het model dat u wilt implementeren, kunt u het implementeren in verschillende Azure-services, waaronder maar niet beperkt tot:

Notitie

Voor deze referentiearchitectuur wordt het model geïmplementeerd in Azure Stack Edge om het model beschikbaar te maken voor deductie on-premises. Het model wordt ook geïmplementeerd in Container Registry om ervoor te zorgen dat het model beschikbaar is voor deductie in de meest uiteenlopende Azure-services.

Deductie met een nieuw geïmplementeerd model

Azure Stack Edge kan machine learning-modellen snel lokaal uitvoeren op basis van on-premises gegevens met behulp van de ingebouwde hardware voor rekenversnelling. Deze berekening vindt volledig plaats aan de rand. Het resultaat is snelle inzichten uit gegevens met behulp van hardware die zich dichter bij de gegevensbron bevindt dan een openbare cloudregio.

Daarnaast blijft Azure Stack Edge gegevens overdragen naar Machine Learning voor continue hertraining en verbetering met behulp van een machine learning-pijplijn die is gekoppeld aan het model dat al wordt uitgevoerd op gegevens die lokaal zijn opgeslagen.

Overwegingen

Met deze overwegingen worden de pijlers van het Azure Well-Architected Framework geïmplementeerd. Dit is een set richtlijnen die kunnen worden gebruikt om de kwaliteit van een workload te verbeteren. Zie Microsoft Azure Well-Architected Framework voor meer informatie.

Beschikbaarheid

  • Overweeg om uw Azure Stack Edge-resource in dezelfde Azure-regio te plaatsen als andere Azure-services die er toegang toe krijgen. Als u de uploadprestaties wilt optimaliseren, kunt u overwegen uw Azure Blob Storage-account te plaatsen in de regio waar uw apparaat de beste netwerkverbinding heeft.
  • Overweeg Azure ExpressRoute voor een stabiele, redundante verbinding tussen uw apparaat en Azure.

Beheerbaarheid

  • Beheer istrators kunnen controleren of de gegevensbron uit de lokale opslag correct is overgedragen naar de Azure Stack Edge-resource. Ze kunnen dit controleren door de NFS-bestandsshare (Server Message Block) /Network File System (NFS) te koppelen of verbinding te maken met het bijbehorende Blob Storage-account met behulp van Azure Storage Explorer.
  • Gebruik Machine Learning-gegevenssets om te verwijzen naar uw gegevens in Blob Storage tijdens het trainen van uw model. Als u naar opslag verwijst, hoeft u geen geheimen, gegevenspaden of verbindingsreeks s in uw trainingsscripts in te sluiten.
  • Registreer en volg machine learning-modellen in uw Machine Learning-werkruimte om verschillen tussen uw modellen op verschillende tijdstippen bij te houden. U kunt ook de metagegevens voor versiebeheer en tracering spiegelen in de tags die u gebruikt voor de Docker-containerinstallatiekopieën die worden geïmplementeerd in Container Registry.

DevOps

  • Bekijk de benadering voor levenscyclusbeheer van MLOps voor Machine Learning. Gebruik bijvoorbeeld GitHub of Azure Pipelines om een doorlopend integratieproces te maken dat automatisch een model traint en opnieuw traint. Training kan worden geactiveerd wanneer nieuwe gegevens de gegevensset vullen of als er een wijziging wordt aangebracht in de trainingsscripts.
  • De Azure Machine Learning-werkruimte registreert en beheert automatisch Docker-containerinstallatiekopieën voor machine learning-modellen en IoT Edge-modules.

Kostenoptimalisatie

Kostenoptimalisatie gaat over manieren om onnodige uitgaven te verminderen en operationele efficiëntie te verbeteren. Zie Overzicht van de pijler kostenoptimalisatie voor meer informatie.

  • Gebruik de Azure-prijscalculator om een schatting van de kosten te maken.
  • Azure Stack Edge-prijzen worden berekend als een maandelijks abonnement met eenmalige verzendkosten.
  • Azure Machine Learning implementeert ook Container Registry-, Azure Storage- en Azure Key Vault-services, waarvoor extra kosten in rekening worden gebracht. Zie Hoe Azure Machine Learning werkt voor meer informatie : Architectuur en concepten.
  • Azure Machine Learning-prijzen omvatten kosten voor de virtuele machines die worden gebruikt voor het trainen van het model in de openbare cloud.

Volgende stappen

Productdocumentatie

Microsoft Learn-modules: