I takt med at forretningen efterspørger mere data, hurtigere, vil de fleste virksomheder opleve at motoren i det traditionelle Data Warehouse – ETL processen, simpelthen er for lille og ikke bygget til det voksende behov for (near-)real-time data streaming og processering on-the-fly.
Vi bliver formentlig ikke populære for at sige det, men nogen skal jo gøre det – det kræver ikke store ”all-purpose” platforme for at kunne bygge moderne Data Platforme, men det kræver at du ved, hvad du bygger, hvorfor du bygger det og ikke mindst, hvordan du gør det.
Vi tager dig igennem en konkret og praktisk orienteret rejse fra den klassiske ETL tankegang, til at bygge bro mellem operationel data-integration og den analytiske BI ved brug af en Data Hub.
Herfra drejer rejsen sig over mod Domain Driven Design, hvor vi inddrager forretningen mere og skubber det reelle data ejerskab ud i domænerne, samt til Streaming af data (ved hjælp af Kafka). Her opnår du en mere løst koblet arkitektur, hvor du ikke har låst dig til én bestemt platform, men i stedet rykker forretningen langt tættere på den værdiskabende data, der bliver til den indsigt, de har behov for.
Det du vil få med fra indlægget her, er et konkret oplæg på en reference-arkitektur på en moderne Data Platform, samt konkrete initiativer som I selv kan gøre derhjemme, i det tempo der giver mening for jer, uden at skulle favne alt på én gang eller planlægge et big bang.
Det fortæller vi om gennem konkrete cases fra projekter, vi har gennemført.
Mød Martin Lindberg Lüttge – specialist med 14 års erfaring inden for Business Intelligence og Integration samt Carsten Jantzen – specialist med mange års erfaring indenfor DevOps og Platform Engineering og de seneste 5 år med særligt fokus på Domain Driven Design og Kafka.