Spridda moln i en datadriven värld och vad vi kan göra åt det

[KRÖNIKA] Nästan alla företag har idag ett lager av teknik i sina verksamheter.

Om du till exempel äger flera caféer vill du säkert ha koll på om de har kunder, vilka av caféerna som presterar bättre eller sämre, hur mycket kaffe du säljer, eller vad som händer om inköpspriset för kaffe går upp med tio procent? Även om du inte tror det så jobbar du i en datadriven organisation.

Smarta verksamheter söker hela tiden efter nya insikter för att optimera sin affär. Därför föreslår jag formeln: Insikter + Data = Affärslogik. Med insamlingen av all data, som från sensorer på produkter, följer utmaningar (och självklart möjligheter), då vi idag har mer data än någonsin tidigare. Historiskt sett har datacenter varit den centrala huben för all data, men idag skapas det faktiskt mer data utanför än i dem.

Tänk bara på alla produkter och tjänster som använder data idag – din mobil, din smartklocka, smarta högtalare, drönaren som barnen leker med, din uppkopplade tv och så mycket mer.

Alla uppkopplade produkter och tjänster gör våra dagliga liv enklare och gör det möjligt för företag samt regeringar att genomföra enorma förändringar.

Allt från smarta odlingar som säger till när de behöver näring till smarta papperskorgar som säger till när de ska tömmas – och vi vet alla att antalet uppkopplade produkter och tjänster bara kommer att bli fler.

Det finns enorma fördelar med en digitalisering, till och med för ägaren av ett mindre antal caféer. Eller, till ett mer sofistikerat exempel om hur det redan fungerar i vår digitala tidsålder. Disneyland tjänar idag enorma pengar på att placera ut gatustånd med rätt erbjudanden till sina förbipasserande besökare med hjälp av smarta sändare. Vi kommer att få se fler exempel som Disneyland, där verksamheten använder smarta sändare och liknande för att spåra konsumenternas rörelser och köp. Hotell kommer exempelvis kunna erbjuda oss rum baserat på tidigare preferenser och med stöd av tusentals mätpunkter kommer hotellets manager veta när det passar bäst att städa rummet.

För att hantera vår allt mer uppkopplade värld krävs det att dagens infrastruktur genomgår en enorm uppdatering. Förarlösa bilar är ett ypperligt exempel som behöver hantera stora datamängder för att vara funktionella. En förarlös bil skickar över en terabyte data varje dag som den är ute på vägen. Allt från utomhustemperatur till acceleration, regn och ruttinformation loggas i nära realtid. Datakraven som självkörande bilar har kan inte hanteras i en central molnlösning. Vi behöver därför uppdatera infrastrukturen för att kunna fortsätta att utvecklas.

Dagens datalösningar klarar inte av dessa spännande förändringar.

Det krävs nya perspektiv, processer och arkitektur för att kunna hantera all data. För åtta år sedan myntade Dave McCrory begreppet “data gravity” för att förklara hur applikationer och tjänster kommer att dras till större datamängder. Med andra ord måste vi flytta infrastrukturen till händelsen eller platsen där all data skapas.

Förändringarna kan på något sätt liknas vid när stora datacenter fick ge vika för flexibla klient/server-lösningar, men om något så är det här mer dramatiskt och tekniskt utmanande. Den nya infrastrukturen kan inte bara vara nätverk uppkopplade till traditionella datacenter, de måste vara utspridda, lätthanterliga, mikro- och modulära system med realtidsdata som processas i nätverkets yttre delar. Servrarna kommer att vara mycket små, mer likt Intel NUC, eller som vertikalt staplade servrar. Alla dessa nya nätverk måste vara säkra, enkla att hantera och kunna fjärrstyras.

Mjukvara kommer att spela en större roll i framtiden och vi måste vara flexibla för att kunna anpassa oss till alla kommande förändringar. Detta kommer att vara slutet för datamolnet i sin nuvarande och centraliserade form. Det vi istället kommer att ha är en utspridd, funktionsrik och mer flexibel lösning, anpassad till morgondagens digitala värld.

Av Peter Källviks