Autóipari tesztflották adatelemzése
Az autóipari eredeti berendezésgyártóknak (OEM-eknek) olyan megoldásokra van szükségük, amelyek minimalizálják a tesztmeghajtók közötti időt, és diagnosztikai adatokat szolgáltatnak az R&D-mérnököknek. Ahogy a járművek automatizáltabbá válnak, a szoftverfejlesztési életciklusok rövidebbek lesznek, ami gyorsabb digitális visszajelzési ciklusokat igényel. Az új technológia demokratizálhatja az adathozzáférést, és közel valós idejű betekintést nyújt az R&D mérnökei számára a tesztmeghajtó diagnosztikai adataiba. A Copilot használata Adattudomány és adatmérnök adatelemzéshez, hogy tovább csökkentse az elemzéshez szükséges időt. A biztonságos adatmegosztás javíthatja az oemek és a beszállítók közötti együttműködést, és csökkentheti a fejlesztési ciklusok idejét.
A cikk útmutatása telemetriai forgatókönyvekhez és kötegelt tesztmeghajtók adatbetöltési forgatókönyveihez nyújt útmutatást. Ez az architektúra a diagnosztikai adatokat feldolgozó adatplatformra, valamint az adatvizualizáció és adatjelentés összekötőire összpontosít.
Architektúra
Töltsön le egy PowerPoint-fájlt a cikkben szereplő összes diagrammal.
Adatfolyam
Az alábbi adatfolyam az előző diagramnak felel meg:
Az adatrögzítő eszköz csatlakoztatva van a járműhálózatokhoz, és nagy felbontású járműjeladatokat és videoképeket gyűjt. (1a) Az eszköz valós idejű telemetriai üzeneteket tesz közzé, vagy (1b) kéri a rögzített adatfájlok feltöltését az Azure Event Grid MQTT-közvetítő funkcióba egy MQTT-ügyfél használatával. Ez a funkció jogcím-ellenőrzési mintát használ.
(2a) Az Event Grid élő járműjeladatokat irányít egy Azure Functions-alkalmazásba. Ez az alkalmazás dekódolja a járműjeleket a JavaScript Object Notation (JSON) formátumba, és közzéteszi őket egy eseménystreamben.
(2b) Az Event Grid koordinálja a fájlfeltöltést az eszközügyfélről a lakehouse-ba. A befejezett fájlfeltöltés elindít egy folyamatot, amely dekódolja az adatokat, és a dekódolt fájlt a OneLine-ba írja betöltésre alkalmas formátumban, például parquet vagy CSV formátumban.
(3a) Az eventstream a dekódolt JSON járműjeleket irányítja betöltésre az Eventhouse-ban.
(3b) Az adatfolyam elindítja a dekódolt fájlok betöltését a lakehouse-ból.
Az Eventhouse frissítési szabályzatokkal bővíti az adatokat, és a JSON-adatokat megfelelő sorformátumban bővíti, például a helyadatok fürtözhetők, hogy igazodjanak a térinformatikai elemzésekhez. Minden alkalommal, amikor egy új sort betölt, a valós idejű elemzési motor meghív egy társított
Update()
függvényt.Az adatmérnökök és adattudósok Kusto lekérdezésnyelv (KQL) használatával építenek ki elemzési használati eseteket. A felhasználók megosztható, felhasználó által definiált függvényekként tárolják a gyakran használt eseteket. A mérnökök beépített KQL-függvényeket használnak, például aggregációt, idősorozat-elemzést, térinformatikai fürtözést, ablakozást és gépi tanulási beépülő modulokat a Copilot támogatásával.
Az R&D mérnökei és adattudósai jegyzetfüzetekkel elemzik az adatokat, és teszt- és érvényesítési használati eseteket építenek ki.
Az R&D-mérnökök KQL-lekérdezéskészleteket és a Copilotot valós idejű intelligenciát használnak interaktív adatelemzéshez.
Az adatmérnökök és adattudósok jegyzetfüzeteket használnak az elemzési folyamatok tárolására és megosztására. A jegyzetfüzetekkel a mérnökök az Azure Spark használatával elemzéseket futtathatnak, és a Git segítségével kezelhetik a jegyzetfüzet kódját. A felhasználók kihasználhatják a Copilot előnyeit Adattudomány és adatmérnök, hogy környezetfüggő kódjavaslatokkal támogassák a munkafolyamatukat.
Az R&D mérnökei és adattudósai dinamikus lekérdezésekkel vagy valós idejű elemzési irányítópultokkal használhatják a Power BI-t, hogy vizualizációkat hozzanak létre az üzleti felhasználókkal való megosztáshoz. Ezek a vizualizációk felhasználó által definiált függvényeket hívnak meg a könnyű karbantartás érdekében.
A mérnökök további eszközöket is csatlakoztathatnak a Microsoft Fabrichez. Csatlakoztathatják például az Azure Managed Grafana-t az Eventhouse-hoz, vagy létrehozhatnak egy webalkalmazást, amely közvetlenül lekérdezi az Eventhouse-t.
Az adatmérnökök és az R&D-mérnökök a Data Activator használatával reflexelemeket hoznak létre a feltételek monitorozásához és műveletek aktiválásához, például Power Automate-folyamatok aktiválásához az üzleti integrációhoz. Az Adataktivátor például értesíthet egy Teams-csatornát, ha egy eszköz állapota romlik.
Az adatgyűjtő konfigurációja lehetővé teszi a mérnökök számára az adatrögzítési eszköz adatgyűjtési szabályzatainak módosítását. Az Azure API Management absztrakt és biztonságossá teszi a partnerkonfigurációs API-t, és megfigyelhetőséget biztosít.
KQL-adatbázisséma
A táblaséma tervezésekor A telemetriai adatok azért táblázatosak fact
, mert a járműjelek folyamatosan, streamelési módon vagy egy teljes felvétel részeként vannak hozzáfűzve, és a telemetriai adatok nem változnak. A flotta metaadatait egy lassan frissülő fact
táblázatként sorolhatja be.
A jármű telemetriai adatai nyers táblákban találhatók. Az alábbi üzenetfeldolgozási fogalmak segítségével rendszerezheti az adatokat elemzéshez és jelentéskészítéshez:
Hozzon létre frissítési szabályzatokat a JSON-telemetriai fájlok egyes járműjelrekordokká való kibontásához az alábbi módszerek használatával:
-
mv-expand()
A JSON-struktúrákban tárolt összetett értékeket egyedi jelekkel rendelkező sorokká bontja. -
geo_point_to_h3cell()
vagygeo_point_to_geohash()
térinformatikai elemzéshez geohashessé alakítja a szélességet és a hosszúságot. -
todouble()
éstostring()
a kinyert értékeket dinamikus JSON-objektumokból a megfelelő adattípusokba alakítja. -
lookup
dimenziótáblából származó értékekkel bővíti a rekordokat.
-
A Jelek deduplikált materializált nézetének létrehozása az aggregációs függvény
take_any()
használatával az egyedi kulcson és időbélyegen. Ez a materializált nézet deduplikálja a jeleket.Hozzon létre egy Utolsó ismert jelek materializált nézetet az időbélyeg aggregációs függvényével
arg_max()
. Ez a materializált nézet a járművek naprakész állapotát biztosítja.A "Signals Downsampled materialized" nézet létrehozásához használja az összegző operátort időtárolókkal, például óránként és naponta. Ez a materializált nézet összesíti a jeleket, és leegyszerűsíti a jelentéskészítést a flottában.
Felhasználó által definiált függvények létrehozása, amelyek anomáliadetektálást vagy kiváltó okelemzést biztosítanak.
Idősorfüggvények használata anomáliadetektáláshoz és előrejelzéshez a lehetséges problémák észleléséhez és a hibák előrejelzéséhez.
A beolvasási operátorral szkennelhet, egyeztethet és hozhat létre szekvenciákat az adatokból. A mérnökök az operátorral észlelhetik a
scan
sorozatokat. Ha például egy adott esemény bekövetkezik, akkor egy későbbi eseménynek egy bizonyos időn belül meg kell történnie.Az autoclusterhez hasonló gépi tanulási beépülő modulokkal megtalálhatja a különálló attribútumok gyakori mintáit.
Térinformatikai elemzések végrehajtása felhasználó által definiált függvényekkel. A térinformatikai függvényekkel koordinátákat alakíthat át megfelelő rácsrendszerré, és összesítéseket hajthat végre az adatokon.
Hozzon létre egy flotta metaadattáblát a jármű metaadatainak és konfigurációjának változásainak tárolásához. Hozzon létre egy flotta metaadatainak utolsó ismert értékeit materializált nézetet a járműflotta legújabb állapotának tárolásához egy legutóbb módosított oszlop alapján.
Összetevők
Az alábbi kulcsfontosságú technológiák implementálják ezt a számítási feladatot. Az architektúra minden összetevőjére vonatkozóan használja a megfelelő szolgáltatási útmutatót a Well-Architected Frameworkben, ahol elérhető. További információ: Well-Architected Framework service guides.
A fabric valós idejű intelligenciája lehetővé teszi a jármű telemetriai adatainak kinyerése és a mozgásban lévő jármű telemetriájának vizualizációja. Eseménystreamek és idősoros KQL-adatbázisok használatával tárolhatja és elemezheti az adatokat, és reflexekkel reagálhat az eseményekre.
Az Adataktivátor egy kód nélküli eszköz, amellyel automatizálhatja a műveleteket, amikor a minták vagy a feltételek megváltoznak az adatokban.
Az Event Grid egy nagymértékben skálázható, teljes mértékben felügyelt közzétételi/feliratkozási üzenetterjesztési szolgáltatás, amely támogatja az MQTT protokollokat. A járművek az Event Grid használatával tehetnek közzé és iratkozhatnak fel témakörökre, például telemetriát tehetnek közzé, és feliratkozhatnak parancsokra és vezérelhetik az üzeneteket.
Az Azure Event Hubs egy valós idejű adatstreamelési platform, amely kiválóan alkalmas több millió járműesemény másodpercenkénti, alacsony késésű streamelésére.
A Functions egy kiszolgáló nélküli megoldás, amely leegyszerűsíti a jármű telemetriai eseményeinek nagy léptékű feldolgozását eseményvezérelt eseményindítókkal és kötésekkel a választott nyelv használatával.
Az Azure Managed Grafana egy adatvizualizációs platform, amely a Grafana Labs szoftverén alapul. A Microsoft felügyeli és támogatja az Azure Managed Grafana-t.
Azure-alkalmazás Szolgáltatás lehetővé teszi webalkalmazások, mobil háttérrendszerek és RESTful API-k létrehozását és üzemeltetését, amelyek hozzáférést biztosítanak a Fabricben tárolt jármű telemetriai adataihoz. Ez a megközelítés leegyszerűsíti a fogyasztást.
Az API Management egy hibrid többfelhős felügyeleti platform API-khoz.
Alternatívák
Az alábbi Azure-szolgáltatásokat is használhatja az architektúra implementálásához:
Az Azure Blob Storage nagy mennyiségű strukturálatlan adatot tárol, például felvételeket, naplókat és videókat a járművekről. Lecseréli a OneLake-tárolót.
Az Azure Data Explorer egy gyors, teljes körűen felügyelt adatelemzési szolgáltatás valós idejű elemzéshez. A háló valós idejű intelligencia KQL-adatbázisát váltja fel.
Az Azure Batch egy alternatíva, amellyel összetett fájlokat dekódolhat. Ez a forgatókönyv nagy számú, egyenként 300 megabájtnál nagyobb fájlt foglal magában. A fájlok különböző dekódolási algoritmusokat igényelnek a fájlverzió vagy a fájltípus alapján. Használhatja a Fabricet, vagy használhatja a Blob Storage-t és az Azure Data Explorert az alábbi megközelítés implementálásához.
A felhasználó vagy a rögzítőeszköz feltölt egy rögzített adatfájlt a lakehouse-ba. Amikor a feltöltés befejeződik, elindít egy függvényalkalmazást, amely a dekódolást ütemezi.
Az ütemező elindít egy Functions-alkalmazást, amely létrehoz egy kötegelt feladatot a fájltípus, a fájlméret és a szükséges dekódolási algoritmus alapján. Az alkalmazás kiválaszt egy megfelelő méretű virtuális gépet a készletből, és elindítja a feladatot.
A Batch a feladat befejezésekor visszaírja az eredményként kapott dekódolt fájlt a lakehouse-ba. Ennek a fájlnak alkalmasnak kell lennie az Eventhouse által támogatott formátumban történő közvetlen betöltésre.
A lakehouse elindít egy függvényt, amely fájlíráskor betölti az adatokat az Eventhouse-ba. Ez a függvény szükség esetén létrehozza a táblát és az adatleképezést, és elindítja a betöltési folyamatot.
A KQL-adatbázis betölti az adatfájlokat a lakehouse-ból.
Ez a megközelítés a következő előnyöket nyújtja:
A függvények és a Batch-készletek robusztusan és hatékonyan kezelhetik a méretezhető adatfeldolgozási feladatokat.
A Batch-készletek betekintést nyújtanak a statisztikák, a feladatsorok és a kötegkészlet állapotának feldolgozásába. Megjelenítheti az állapotot, észlelheti a problémákat, és újrafuttathatja a sikertelen feladatokat.
A Functions és a Batch kombinációja támogatja a plug-and-play feldolgozást a Docker-tárolókban.
A kihasználatlan virtuális gépek segítségével csúcsidőn kívül is feldolgozhatja a fájlokat. Ez a módszer pénzt takarít meg.
Forgatókönyv részletei
Az autóipari oemek nagy prototípus- és tesztjárművekből álló flottákat használnak számos járműfunkció teszteléséhez és ellenőrzéséhez. A tesztelési eljárások költségesek, mert valós vezetőket és járműveket igényelnek, és a konkrét valós közúti tesztelési forgatókönyveknek többször is át kell esniük. Az integrációs tesztelés különösen fontos az elektromos, elektronikus és mechanikus alkatrészek közötti interakciók kiértékeléséhez összetett rendszerekben.
A járműfunkciók ellenőrzéséhez és az anomáliák és hibák elemzéséhez petabájt diagnosztikai adatokat kell rögzítenie az elektronikus vezérlőegységekből (ECU-kból), a számítógépcsomópontokból, a járműkommunikációs buszokból, például a Controller Area Networkből (CAN) és az Ethernetből, valamint érzékelőkből.
A múltban a járművek kis adatgyűjtő kiszolgálói helyben tárolták a diagnosztikai adatokat mérési adatformátumként (MDF), multimédiás fúziós bővítményként (MFX), CSV- vagy JSON-fájlokként. A tesztmeghajtók befejezése után a kiszolgálók diagnosztikai adatokat töltöttek fel az adatközpontokra, amelyek feldolgozták és elemzésre küldték őket az R&D mérnökeinek. Ez a folyamat órákat vagy néha napokat is igénybe vehet. A legutóbbi forgatókönyvek telemetriai betöltési mintákat használnak, például a Message Queuing Telemetry Transport (MQTT)-alapú szinkron adatfolyamokat vagy közel valós idejű fájlfeltöltéseket.
Lehetséges használati esetek
A járműfelügyelet több tesztforgatókönyvben értékeli ki a teljesítményt és az összegyűjtött adatokat járműnként.
A rendszer- és alkatrész-ellenőrzés összegyűjtött járműadatokat használ annak ellenőrzésére, hogy a járműösszetevők viselkedése az utazások működési határain belül esik-e.
Az anomáliadetektálás valós időben megkeresi az érzékelő értékének eltérési mintáit a tipikus alapkonfigurációs mintához képest.
Az alapvető okok elemzése gépi tanulási beépülő modulokat, például fürtözési algoritmusokat használ az értékek eloszlásának változásainak azonosítására több dimenzióban.
A prediktív karbantartás több adatforrást, gazdagított helyadatokat és járműjeleket kombinál az összetevők meghibásodásának előrejelzéséhez.
A fenntarthatósági értékelés a vezető viselkedését és energiafogyasztását használja a járműműveletek környezeti hatásának értékelésére.
Autóverseny, hogy megértsék és javítsák a teljesítményt a járművek előtt, alatt, és után a verseny.
Megfontolások
Ezek a szempontok implementálják az Azure Well-Architected Framework alappilléreit, amely a számítási feladatok minőségének javítására használható vezérelvek halmaza. További információ: Microsoft Azure Well-Architected Framework.
Megbízhatóság
A megbízhatóság biztosítja, hogy az alkalmazás megfeleljen az ügyfelek felé vállalt kötelezettségeknek. További információkért tekintse meg a Megbízhatósági terv felülvizsgálati ellenőrzőlistát.
Az Azure rendelkezésre állási zónák egyedi fizikai helyek ugyanazon az Azure-régión belül. A rendelkezésre állási zónák megvédhetik az Azure Data Explorer számítási fürtöit és adatait a részleges régióhibáktól.
Az Üzletmenet-folytonosság és a vészhelyreállítás (BCDR) az Azure Data Explorerben lehetővé teszi, hogy a vállalkozása a fennakadások ellenére is működjön.
A követő adatbázisok elkülönítik a számítási erőforrásokat az éles és a nem termelési használati esetek között.
Biztonság
A biztonság biztosítékokat nyújt a szándékos támadások és az értékes adatokkal és rendszerekkel való visszaélés ellen. További információkért lásd a Biztonsági terv felülvizsgálati ellenőrzőlistát.
Fontos megérteni az autóipari OEM és a Microsoft közötti felelősségmegosztást. A járműben az OEM az egész verem tulajdonosa, de ahogy az adatok a felhőbe kerülnek, bizonyos feladatok átkerülnek a Microsoftra. Az Azure platform mint szolgáltatás (PaaS) beépített biztonságot nyújt a fizikai veremen, beleértve az operációs rendszert is.
Az Azure Policy használatával biztonsági védőkorlátokat alkalmazhat.
Tekintse át a Fabric szabályozási áttekintését és útmutatását .
Privát végpontok használata az összes szolgáltatás hálózati biztonságának biztosításához.
Privát végpontok használata az Azure Data Explorerhez.
Az Event Hubs-névterekhez való hozzáférés engedélyezése privát végpontokon keresztül.
Inaktív adatok és átvitel alatt lévő adatok titkosítása.
Használja a Microsoft Entra-identitásokat és a Microsoft Entra feltételes hozzáférési szabályzatokat.
Sorszintű biztonság (RLS) használata KQL-adatbázisokhoz és Azure Data Explorerhez.
Használja a korlátozási utasítást , ha köztes szoftveralkalmazásokat implementál a KQL-adatbázishoz való hozzáféréssel. Ez a konfiguráció létrehoz egy logikai modellt, amely korlátozza a felhasználók hozzáférését az adatokhoz.
Mindezek a funkciók segítenek az autóipari oem-eknek biztonságos környezetet teremteni a jármű telemetriai adataihoz. További információ: Biztonság a Hálóban.
Költségoptimalizálás
A költségoptimalizálás a szükségtelen kiadások csökkentésének és a működési hatékonyság javításának módjairól szól. További információt a Költségoptimalizálás tervezési felülvizsgálati ellenőrzőlistájában talál.
Ez a megoldás a következő eljárásokat használja a költségek optimalizálásához:
Helyesen konfigurálja a gyorsgyorsítótárakat és a hideg tárolást a nyers és jeltáblákhoz. A gyakori adatgyorsítótár RAM-ban vagy SSD-ben van tárolva, és jobb teljesítményt nyújt. A hideg adatok azonban 45-ször olcsóbbak. Állítson be egy olyan gyorsgyorsítótár-szabályzatot, amely megfelel a használati esetnek, például 30 napig.
Állítson be egy adatmegőrzési szabályzatot a nyers táblán és a jeltáblán. Határozza meg, hogy a jeladatok mikor nem relevánsak, például 365 nap után, és ennek megfelelően állítsa be a megőrzési szabályzatot.
Fontolja meg, hogy mely jelek relevánsak az elemzéshez.
Materializált nézeteket használhat a jelek utolsó ismert értékeinek lekérdezéséhez, a deduplikált jelekhez és a leképezett jelekhez. A materializált nézetek kevesebb erőforrást használnak fel, mint a forrástábla-összesítések minden lekérdezésen.
Vegye figyelembe a valós idejű adatelemzési igényeket. Állítsa be a streambetöltést az élő telemetriai táblához, hogy a betöltés és a lekérdezés között egy másodpercnél rövidebb késést biztosítson. Ez a megközelítés növeli a processzorciklusokat és a költségeket.
Teljesítményhatékonyság
A teljesítményhatékonyság az a képesség, hogy a számítási feladatok skálázhatók, hogy hatékonyan megfeleljenek a felhasználók által támasztott követelményeknek. További információt a Teljesítményhatékonyság tervezési felülvizsgálati ellenőrzőlistájában talál.
Érdemes lehet a Batch használatával dekódolni, ha a rögzített adatfájlok száma és mérete meghaladja a napi 1000 fájlt vagy 300 MB-ot.
Fontolja meg a gyakori számítások és elemzések elvégzését a betöltés után, és tárolja őket további táblákban.
A KQL-lekérdezés ajánlott eljárásainak használata a lekérdezés gyorsabb futtatásához.
where
Egy záradék használatával időkeretet határozhat meg a lekérdezett adatok mennyiségének csökkentéséhez. Érdemes lehet módosítani a jeltáblához tartozó adatpartíciós szabályzatot, ha a gyakori keresési feltételek nem időalapúak, például ha az azonosító és a jelnév rögzítésével szűr. Amikor a KQL-adatbázis több milliárd vagy billió rekordot tartalmaz, a megfelelő adatszűrés elengedhetetlenné válik, különösen az aktív partíciós szabályzat figyelembe vételével.
Figyelmeztetés
Az adatpartíciós szabályzat módosítása előtt forduljon a támogatási csapathoz.
A forgatókönyv üzembe helyezése
A forgatókönyv üzembe helyezéséhez használja a részletes oktatóanyagot . Az útmutató bemutatja, hogyan helyezhet üzembe egy ingyenes példányt, elemezheti az MDF-fájlokat, betöltheti az adatokat, és hogyan hajthat végre több alapszintű lekérdezést.
Közreműködők
Ezt a cikket a Microsoft tartja karban. Eredetileg a következő közreműködők írták.
Fő szerzők:
- Boris Scholl | Partner, főépítész
- Frank Kaleck | Industry Advisor Automotive
- Henning Rauch | Fő programmenedzser
- Mario Ortegon-Cabrera | Fő programmenedzser
Egyéb közreműködők:
- Devang Shah | Fő programmenedzser
- Hans-Peter Bareiner | Felhőmegoldás-tervező
- Jason Bouska | Sr. szoftvermérnök
A nem nyilvános LinkedIn-profilok megtekintéséhez jelentkezzen be a LinkedInbe.
Következő lépések
- MQTT-közvetítő funkció az Event Gridben
- KQL-adatbázis célhelyének hozzáadása egy eseménystreamhez
- Adatok lekérése a OneLake-ből
- Materializált nézetek
- Valós idejű irányítópult létrehozása
- Data Activator-riasztások létrehozása valós idejű irányítópultról
- Power BI-jelentés
- Az Azure Data Explorer adatainak megjelenítése a Grafanában
- Autóipari üzenetkezelési, adat- és elemzési referenciaarchitektúra