AI på gränsen med Azure Stack Hub

Azure Container Registry
Azure Kubernetes Service (AKS)
Azure Machine Learning
Azure Stack Hub

Lösningsidéer

Den här artikeln är en lösningsidé. Om du vill att vi ska utöka innehållet med mer information, till exempel potentiella användningsfall, alternativa tjänster, implementeringsöverväganden eller prisvägledning, kan du meddela oss genom att ge GitHub-feedback.

Den här arkitekturen visar hur du kan ta din tränade AI-modell till gränsen med Azure Stack Hub och integrera den med dina program för intelligens med låg latens.

Arkitektur

Arkitekturdiagram som visar ett AI-aktiverat program som körs vid gränsen med Azure Stack Hub.

Ladda ned en Visio-fil med den här arkitekturen.

Dataflöde

  1. Data bearbetas med Hjälp av Azure Data Factory som ska placeras på Azure Data Lake.
  2. Data från Azure Data Factory placeras i Azure Data Lake Storage för träning.
  3. Dataexperter tränar en modell med Hjälp av Azure Machine Learning. Modellen placeras i container i ett Azure Container Registry.
  4. Modellen distribueras till ett Kubernetes-kluster på Azure Stack Hub.
  5. Det lokala webbprogrammet kan användas för att poängsätta data som tillhandahålls av slutanvändaren för att poängsätta mot den modell som distribueras i Kubernetes-klustret.
  6. Slutanvändarna tillhandahåller data som har poängsatts mot modellen.
  7. Insikter och avvikelser från bedömningen placeras i kö.
  8. En funktionsapp utlöses när bedömningsinformationen placeras i kön.
  9. En funktion skickar konsekventa data och avvikelser till Azure Storage.
  10. Globalt relevanta och kompatibla insikter är tillgängliga för förbrukning i Power BI och en global app.
  11. Feedbackloop: Modellens omträning kan utlösas av ett schema. Dataforskare arbetar med optimeringen. Den förbättrade modellen distribueras och containeriseras som en uppdatering av containerregistret.

Komponenter

Viktiga tekniker som används för att implementera den här arkitekturen:

  • Azure Machine Learning: Skapa, distribuera och hantera lösningar för förutsägelseanalys.
  • Azure Data Factory: Mata in data i Azure Data Factory.
  • Azure Data Lake Storage: Läs in data i Azure Data Lake Storage Gen2 med Azure Data Factory.
  • Container Registry: Lagra och hantera containeravbildningar i alla typer av Azure-distributioner.
  • Azure Kubernetes Service (AKS): Förenkla distributionen, hanteringen och driften av Kubernetes.
  • Azure Storage: Hållbar, högtillgänglig och massivt skalbar molnlagring.
  • Azure Stack Hub: Skapa och köra innovativa hybridprogram över molngränser.
  • Azure Functions: Händelsedriven serverlös beräkningsenhet för uppgifter på begäran som körs utan behov av att underhålla databehandlingsservern.
  • Azure App Service: Sökväg som samlar in feedbackdata från slutanvändare för att aktivera modelloptimering.

Information om scenario

Med Azure AI-verktygen, gränsen och molnplattformen är gränsinformation möjlig. Nästa generations AI-aktiverade hybridprogram kan köras där dina data finns. Med Azure Stack Hub kan du ta med en tränad AI-modell till gränsen, integrera den med dina program för intelligens med låg latens och kontinuerligt feedback i en förfinad AI-modell för bättre noggrannhet, utan verktyg eller processändringar för lokala program. Den här lösningsidén visar ett anslutet Stack Hub-scenario, där edge-program är anslutna till Azure. Den frånkopplade edge-versionen av det här scenariot finns i artikeln AI vid gränsen – frånkopplad.

Potentiella användningsfall

Det finns ett brett utbud av Edge AI-program som övervakar och tillhandahåller information nästan i realtid. Områden där Edge AI kan vara till hjälp är:

  • Identifieringsprocesser för säkerhetskameror.
  • Bild- och videoanalys (medie- och underhållningsindustrin).
  • Transport och trafik (fordons- och mobilitetsindustrin).
  • Tillverkning.
  • Energi (smarta rutnät).

Nästa steg

Mer information om de aktuella Azure-tjänsterna finns i följande artiklar och exempel:

Se följande relaterade arkitekturer: