Anteckning
Åtkomst till den här sidan kräver auktorisering. Du kan prova att logga in eller ändra kataloger.
Åtkomst till den här sidan kräver auktorisering. Du kan prova att ändra kataloger.
Den här artikeln förklarar vad som ingår i integreringen av ontologidata från digital tvillingbyggare (förhandsversion) med maskininlärning (ML) för användning i förutsägelsemodellering. Analytiker och dataforskare kan använda automatiserade ML-modeller (AutoML) eller anpassade ML-modeller för att extrahera värde från semantiska relationer i driftdata.
Viktigt!
Den här funktionen är i förhandsversion.
Varför ska man använda en ontologi för digitala tvillingbyggverktyg inom ML?
Ontologidata som representeras i Digital Twin Builder (förhandsversion) berikar ML-modeller genom att:
- Ge kontext till rådata (som att länka sensorer till utrustning)
- Att förbättra feature engineering med strukturerad kunskap
- Förbättra modellens noggrannhet genom att införliva domänrelationer
Steg för att använda ontologidata med ML
I följande avsnitt beskrivs de vanliga stegen för att använda ontologidata från Digital Twin Builder (förhandsversion) i ML-arbetsflöden.
Steg 1: Mata in ontologidata
Först måste du hämta ontologidata till ett frågebart format. Ontologidata omfattar vanligtvis:
- Entitetsrelationer (som vilken sensor som tillhör vilken utrustning)
- Hierarkiska mappningar (till exempel sensorer för produktionslinjeutrustning >>)
- Statiska metadata (till exempel utrustningstyp, plats och driftsgränser)
Följande diagram representerar ett exempel på ontologidata.
Sensor-ID | Utrustningsidentifikation | Utrustningstyp | Produktionslinje | Webbplats |
---|---|---|---|---|
S001 | D101 | Destillatör | Rad A | Webbplats A |
S002 | C201 | Kondensator | Rad B | Plats B |
Här följer några sätt att utöka och använda dessa data:
- Koppla den till tidsseriedata, vilket lägger till kontext till rådatasensoravläsningar
- Aggregerade relationer (som att samla in antalet sensorer för varje utrustning)
- Filtrera efter hierarki (gör att du kan isolera data som fel på en specifik anläggningsplats)
Steg 2: Transformera ontologidata för ML
När ontologidata är tillgängliga kan du transformera dem för användning i ML-modeller.
Den här processen kan omfatta:
- Sammanfogning med tidsseriedata (till exempel avläsningar av tidsseriesensorer)
- Härleda nya funktioner (till exempel genomsnittlig utrustningstemperatur eller trycktrender)
- Skapa kategoriska funktioner (t.ex. utrustningstyper eller kylmedium)
Följande diagram representerar ett exempel på ontologidata som har gått igenom funktionsframställning.
Process ID | Utrustningsidentifikation | Misslyckande | Medeltryck | Kyltyp | Webbplats |
---|---|---|---|---|---|
DP001 | D101 | Nej | 1,5 bar | Luftkyld | Webbplats A |
DP002 | C201 | Ja | 2,3 bar | Vattenkyld | Plats B |
I det här skedet är ontologidata redo att användas i en ML-modell.
Steg 3: Utöka med AutoML eller anpassade modeller
När du har förberett datamängden kan du välja en av dessa ML-strategier baserat på dina projektbehov:
- AutoML: Bäst för snabbexperimentering och optimering
- Anpassad ML: Bäst för fullständig kontroll och finjusterad prestanda
Automatisk maskininlärning (AutoML)
AutoML förenklar ML genom att automatiskt välja den bästa modellen och hyperparametrar. Det förväntade resultatet är att AutoML returnerar den bäst presterande modellen utan manuell justering.
Följ dessa steg för att använda AutoML:
- Mata in transformerade data till ett AutoML-verktyg (som Azure AutoML eller FLAML)
- Definiera förutsägelsemålet (till exempel sannolikhet för fel)
- Låt AutoML optimera modellen (som att välja mellan XGBoost och Random Forest)
Här är några exempel på AutoML-verktyg:
- Azure AutoML (molnbaserad, fullständig automatisering)
- FLAML (Python-baserad, lättviktig)
Anpassad maskininlärning
Om du behöver fullständig kontroll över dina modeller kan du använda en anpassad modellmetod.
Följ dessa steg för att arbeta med en anpassad modell:
- Välj en modell (till exempel XGBoost, Random Forest eller Neural Networks)
- Manuellt skapa funktioner (t.ex. löpande medelvärden eller avvikelseidentifiering)
- Träna och utvärdera din modell med hjälp av ml-standardbibliotek (till exempel scikit-learn eller PyTorch)
Anta att du vill förutsäga utrustningsfel med historiska data och ontologirelationer. Ett exempel på ML-pipeline kan innehålla följande steg:
- Sammanfoga ontologi- och tidsseriedata
- One-hot kodning av kategoriska egenskaper
- Träna en anpassad modell med RandomForestClassifier eller XGBoost
- Utvärdera modellprestanda med
accuracy_score
ellerf1_score