Dela via


Demokratisera data med digital uppfinning

Kol, olja och mänsklig potential var de tre mest följdriktiga tillgångarna under den industriella revolutionen. Dessa tillgångar byggde företag, skiftade marknader och förändrade slutligen nationer. I den digitala ekonomin finns det tre lika viktiga tillgångar för innovation: data, enheter och mänsklig potential. Dessa tillgångar har stor innovationspotential. För alla innovationsinsatser i modern tid är data den nya oljan.

I varje företag finns det data som kan användas för att hitta och uppfylla kundernas behov. Tyvärr kan processen med att bryta dessa data för att driva innovation vara kostsam och tidskrävande, så behov upptäcks inte och lösningar skapas inte. Datademokratisering kan lösa det här problemet.

Vad är datademokratisering? Det är processen att få data i rätt händer för att driva innovation. Den här demokratiseringsprocessen kan ta flera former, men de omfattar vanligtvis lösningar för inmatade eller integrerade rådata, centralisering av data, delning av data och skydd av data. När data demokratiseras kan experter runt företaget använda dem för att bilda och testa hypoteser. I många fall kan molnimplementeringsteam bygga med kundinlevnad med endast data för att snabbt uppfylla kundernas behov.

Sätt att demokratisera data

Det finns olika sätt att demokratisera data, men de flesta inkluderar metoder för att samla in, centralisera, styra och dela data. I följande avsnitt beskrivs några av dessa metoder. När du skapar en lösning på en kundhypotes bör du utvärdera om data ska demokratiseras, i vilken utsträckning och hur de ska utföras.

Processen för demokratisering av data visar dessa processer: styra, centralisera, samla in och dela data.

Dela data

När du bygger med kund empati behöver kunden vägleda lösningen. Om behovet är data gör lösningen det möjligt för kunden att förhöra, analysera och rapportera data direkt, utan stöd från IT-personal.

Många lyckade innovationer börjar som en minst livskraftig produkt (MVP) som levererar data till kunden. En MVP är en version av produkten som har tillräckligt med funktioner för att kunna användas av kunden. Den visar produktens möjliga potential för att samla in feedback från kunden. I den här conciergemodellen är en anställd datakonsument. Den anställde använder data för att hjälpa kunden. Varje gång kunden ägnar sig åt manuell support kan en hypotes testas och valideras. Den här metoden är ofta ett kostnadseffektivt sätt att testa en kundfokuserad hypotes innan du investerar mycket i integrerade lösningar.

De primära verktygen för att dela data direkt med datakonsumenter är självbetjäningsrapportering eller data som är inbäddade i andra upplevelser, med hjälp av verktyg som Power BI.

Kommentar

Kontrollera att du har läst följande avsnitt innan du delar data. Delning av data kan kräva styrning för att ge skydd för data. Om data sträcker sig över flera moln kan det också kräva centralisering. Om data finns i program måste du samla in dem för att kunna dela dem.

Styr data

Att dela data kan snabbt skapa en minsta livskraftig produkt att använda i kundkonversationer. Men för att omvandla delade data till användbar och användbar kunskap krävs mer i allmänhet.

När en hypotes har verifierats genom datadelning är nästa utvecklingsfas vanligtvis datastyrning.

Datastyrning är ett brett ämne som kan kräva ett eget dedikerat ramverk, en fråga som ligger utanför omfånget för Cloud Adoption Framework.

Det finns flera aspekter av datastyrning att tänka på så snart du validerar kundhypotesen. Till exempel:

  • Är delade data känsliga? Data bör klassificeras innan de delas offentligt för att skydda kundernas och företagets intressen.
  • Har data skyddats om de är känsliga? Skydd av känsliga data är ett måste för demokratiserade data. Exempelarbetsbelastningen som beskrivs i Skydda datalösningar innehåller några referenser för att skydda data.
  • Är datakatalogen katalogiserade? Att identifiera typen av delade data underlättar långsiktig datahantering. Verktyg för att dokumentera data, till exempel Azure Data Catalog, gör den här processen mycket enklare i molnet. Vägledning om anteckningar av data och dokumentation om datakällor kan påskynda processen.

När demokratisering av data är viktigt för en kundfokuserad hypotes kontrollerar du att styrningen av delade data finns i lanseringsplanen. Detta skyddar kunder, datakonsumenter och företaget.

Centralisera data

Datacentralisering leder till mer meningsfull rapportering, säkerställer att samma data är tillgängliga i hela organisationen och ökar din AVKASTNING. När data sprids över en IT-miljö kan innovationsmöjligheter vara mycket begränsade, dyra och tidskrävande. Molnet ger nya möjligheter att centralisera data. När centralisering av flera datakällor krävs för att bygga med kundens empati kan molnet påskynda testningen av hypoteser.

Varning

Centralisering av data utgör en riskpunkt i alla innovationsprocesser. När datacentralisering är en teknisk topp, och inte en källa till kundvärde, föreslår vi att du fördröjer centraliseringen tills kundens hypoteser har verifierats.

När du centraliserar behöver du ett lämpligt datalager för centraliserade data. Det är en bra idé att upprätta ett informationslager i molnet. Det här skalbara alternativet ger en central plats för alla dina data. Den här typen av lösning är tillgänglig i onlineanalysbearbetning (OLAP) eller stordataalternativ.

Referensarkitekturerna för OLAP - och stordatalösningar kan hjälpa dig att välja den lämpligaste centraliseringslösningen i Azure. Om en hybridlösning krävs kan referensarkitekturen för att utöka lokala data också hjälpa till att påskynda lösningsutvecklingen.

Viktigt!

För vissa kundbehov och lösningar kan det räcka med en enkel metod. Molnarkitekten bör utmana teamet att överväga billiga lösningar för att validera kundhypotesen, särskilt under tidig utveckling. I det här avsnittet om att samla in data beskrivs scenarier som kan föreslå en annan lösning för din situation.

Samla in data

De två primära formerna av datainsamling är integrering och inmatning.

Integrering: Data som finns i ett befintligt datalager kan integreras i det centraliserade datalagret med hjälp av traditionella dataförflyttningstekniker. Detta är särskilt vanligt för scenarier som omfattar datalagring i flera moln. Dessa tekniker omfattar att extrahera data från det befintliga datalagret och sedan läsa in dem i det centrala datalagret. Någon gång i den här processen omvandlas data vanligtvis till att vara mer användbara och relevanta i det centrala arkivet.

Molnbaserade verktyg har omvandlat dessa tekniker till betala per användning-verktyg, vilket minskar inträdesbarriären för datainsamling och centralisering. Verktyg som Azure Database Migration Service och Azure Data Factory är två exempel. Referensarkitekturen för Data Factory med ett OLAP-datalager är ett exempel på en sådan lösning.

Inmatning: Vissa data finns inte i ett befintligt datalager. När dessa tillfälliga data är en primär källa till innovation bör du överväga alternativa metoder. Tillfälliga data finns i en mängd olika befintliga källor som program, API:er, dataströmmar, IoT-enheter, en blockkedja, en programcache, i medieinnehåll eller till och med i flata filer.

Du kan integrera dessa olika former av data i ett centralt datalager i en OLAP- eller stordatalösning. För tidiga iterationer av build-measure-learn-cykeln kan dock en OLTP-lösning (online transactional processing) vara tillräcklig för att verifiera en kundhypotes. OLTP-lösningar är inte det bästa alternativet för alla rapporteringsscenarion. Men när du bygger med kund empati är det viktigare att fokusera på kundernas behov än på tekniska verktygsbeslut. När kundhypotesen har verifierats i stor skala kan det krävas en lämpligare plattform. Referensarkitekturen för OLTP-datalager kan hjälpa dig att avgöra vilket datalager som passar bäst för din lösning.

Virtualisera: Integrering och inmatning av data kan ibland göra innovationen långsam. När en lösning för datavirtualisering redan är tillgänglig kan den utgöra en mer rimlig metod. Inmatning och integrering kan både duplicera lagrings- och utvecklingskrav, lägga till datasvarstid, öka attackytans yta, utlösa kvalitetsproblem och öka styrningsarbetet. Datavirtualisering är ett mer modernt alternativ som lämnar ursprungliga data på en enda plats och skapar direktfrågor eller cachelagrade frågor för källdata.

SQL Server 2017 och Azure SQL Data Warehouse stöder båda PolyBase, vilket är den metod för datavirtualisering som oftast används i Azure.

Nästa steg

Med en strategi för demokratisering av data på plats vill du sedan utvärdera metoder för programutveckling.