Utmaningen med observerbarhetsdata – hur mycket är för mycket?
Hem KRÖNIKA Utmaningen med observerbarhetsdata – hur mycket blir för mycket?

Utmaningen med observerbarhetsdata – hur mycket blir för mycket?

Publicerat av: Redaktionen

[KRÖNIKA] Digital transformation har blivit allmänt förekommande i alla branscher och företag har blivit mer beroende av mjukvarudrivna tjänster.

I linje med denna trend har kunder och slutanvändare allt högre förväntningar på att organisationer ska leverera bättre kvalitet och mer effektiva och säkrare digitala tjänster i en allt snabbare takt.

Multicloud-miljöer, vilka i genomsnitt är byggda på fem olika plattformar, är kärnan i denna transformation. De gör företag mer flexibla så att DevOps-team kan påskynda innovation.

Dessa multicloud-miljöer har dock medfört nya utmaningar. Applikationer innehåller miljontals rader kod och genererar ännu fler beroenden. Det är nu bortom mänsklig kapacitet för DevOps-team att manuellt övervaka dessa miljöer, att pussla ihop och analysera loggar för att få de insikter som de behöver för att leverera sömlösa digitala upplevelser.

AIOps är räddningen

Det blir allt vanligare att företag använder artificiell intelligens för drift av IT-system (AIOps). AIOps kombinerar big data och maskininlärningstekniker för att automatisera driften, vilket medför att organisationer kan påskynda innovation och frigöra utvecklarnas tid åt mer strategiskt arbete.

AIOps är dock bara så smart som kvaliteten och kvantiteten på loggarna och andra data som matas in i den, varför observerbarhet är viktigt. Organisationer måste fånga detaljerade mätvärden och loggar från multicloud-applikationer och infrastruktur och mata in detta till AIOps-plattformar. Detta är vad som gör det möjligt för AI att ge DevOps-team de insikter de behöver för att optimera applikationer. Med bättre observerbarhetsdata kan AIOps-lösningar ge bättre insikter.

Data, överallt data

Utmaningen med observerbarhetsdata – hur mycket är för mycket?Problemet är att organisationer överväldigas av data när de nu samlar in mer in mer sessionsdata, metadata och annan affärsrelaterad data. Den enorma mängden data från tusentals mikrotjänster och containers i deras multicloud-miljö, och varje tryck, klick eller svep av en användare som interagerar med en digital tjänst, innebär att organisationer ofta blir överbelastade.

De har svårt att fortsätta använda traditionella loggövervaknings- och analyslösningar, vilka inte byggdes för denna explosion av observerbarhetsdata.

Som ett resultat av detta blir det svårare för organisationer att ta in, lagra, indexera och analysera rätt mängd observerbarhetsdata. Ytterligare utmaningar skapas av antalet datasilos som har byggts upp i takt med att organisationer kommit att förlita sig på flera övervaknings- och analyslösningar för olika ändamål. Detta fragmenterade tillvägagångssätt gör det svårt att analysera loggdata i rätt sammanhang, vilket begränsar värdet av AIOps-insikter.

Dessutom tvingas organisationer ofta att flytta historiska loggdata till cold storage (lagringsutrymme för inaktiva data), eller kassera datan helt, med tanke på lagringskostnaderna. Även om detta gör logganalys mer kostnadseffektivt, minskar det också effekten och värdet av modern AIOps. Med loggdata i cold storage kan organisationer inte använda AIOps-plattformar för att söka efter data i realtid eller för att ge mer sammanhang kring orsaken till potentiella problem. Datan måste återindexeras innan IT-avdelningen kan köra sökningar och få insikter, vilket kan ta timmar eller till och med dagar. Denna fördröjning kan resultera i insikter som är gamla och har begränsat värde för att förhindra problem innan kundupplevelsen påverkas.

Obegränsad observerbarhet i en molnbaserad värld

Beroendet av multicloud-miljöer och AIOps-driven automatisering visar inga tecken på att avta eftersom digitala tjänster fortsätter att öka. Som ett resultat måste organisationer hitta nya tillvägagångssätt för att fånga, inta, indexera, lagra och operationalisera observerbarhetsdata – på sätt som är lämpliga för den molnbaserade världen.

Detta skapar behov av logganalysmodeller som är designade för att hålla jämna steg med komplexiteten i multicloud-miljöer och som kan skalas obegränsat med de enorma volymer mätvärden och loggar de skapar. Data lakehouses är kraftfulla lösningar som kombinerar strukturen, hanteringen och sökfunktionerna i ett data warehouse, med kostnadsfördelarna från en data lake. Detta eliminerar behovet av att hantera flera datakällor, manuellt sätta ihop dem och flytta dem mellan hot och cold storage, vilket ökar hastigheten och noggrannheten av AIOps-insikterna.

På så sätt kan organisationer låsa upp data och logganalyser med meningsfull kontext och i en enorm skala, för att möjliggöra snabbare sökningar som ger mer exakta svar från AIOps. Organisationer utrustade med dessa funktioner kan driva mer intelligent automatisering för att stödja felfria digitala interaktioner för sina kunder och slutanvändare, vilket ger dem en ovärderlig konkurrensfördel i en alltmer uppkopplad värld.

 Av Ossi Savolainen, Nordenchef, Dynatrace

 

Relaterade Artiklar

Vi använder cookies och andra identifierare för att förbättra din upplevelse. Detta gör att vi kan säkerställa din åtkomst, analysera ditt besök på vår webbplats. Det hjälper oss att erbjuda dig ett personligt anpassat innehåll och smidig åtkomst till användbar information. Klicka på ”Jag godkänner” för att acceptera vår användning av cookies och andra identifierare eller klicka ”Mer information” för att justera dina val. Jag Godkänner Mer Information >>