En Google-studie visar att 53 procent av användarna lämnar en webbplats om den tar längre än tre sekunder att ladda.
Sedan i somras är även sidans laddningstid med som en parameter när Google rankar mobila webbsidor. Alla företag som säljer online vet att om deras webbplats går ner kommer kunden mycket snart leta efter det den söker på annat håll. Denna snabbhet är vad som utvecklar och driver hela IT-arkitekturen idag. Varje process som tar någon timme att återställa borde vara oacceptabel för företagen.
Alla infrastrukturer är inte lika, men en arkitektur som säkerställer upptid och prestanda och på så sätt möjliggör att besökare och kunder kan behållas är A och O. Utan en modern infrastruktur finns det ingen modern verksamhet. Även det starkaste varumärket kan snabbt haverera om det inte stödjs av en modern webbplattform.
Historiskt sett har de flesta företag haft en strategi för disaster recovery, men med de krav som ställs på webben idag så är den typen av fullständiga haverier otänkbart. Detta har lett till en fullständig förändring av hur data lagras (och distribueras) geografiskt. Verksamheter måste utvecklas mot en datainfrastruktur som kan stödja realtidsåterställning utan att lägga till fler infrastrukturlager.
Varför non-stop data är avgörande för affärstillväxten.
En färsk Gartner-undersökning med VD-personer om företagsprioriteringar visade att digitalisering av affärer är en topprioritering i år. Cheferna tillfrågades om det fanns ett beslut eller uppdrag för att utveckla digitaliseringen av affärerna. 62 procent svarade ja. Enligt Gartner-rapporten krävs det idag att IT-infrastrukturen kan säkerställa att den alltid är på och alltid tillgänglig.
Det verkar som om företag från i år kommer att lära sig att utvecklas och blir alltmer agila som ett resultat av att interagera med kunder via digitala kanaler. Tilliten till datatillgång, i realtid, kommer också att öka. Att använda teknik för att hjälpa till att konkurrera mer effektivt och inte drabbas av latens och tröghet i nätet är avgörande. Eftersom företag blir alltmer beroende av insikterna från dataanalys och står inför en konkurrens som drivs av det 24-timmarssamhället för att omedelbart kunna tillgodose olika behov blir säkerställd upptid affärskritisk.
Den svarta sidan av digital transformation.
Vår ekonomi har blivit helt beroende av att IT – och att den fungerar. Så mycket så att infrastrukturarkitekter har allt fokus på att säkerställa system som alltid är igång. Övergången från en arkitektur som bygger på återställningsfilosofin till en ”Always On”-miljö dock inte smärtfri. Organisationerna kämpar med traditionella lösningar som använder dedikerade ”Always On”-lösningar (till exempel High Availability Gateways) eftersom dessa komplicerar administrationen och ökar den totala kostnaden (TCO). En viktig del för att finna den optimala lösningen är en teknik som uppmuntrar organisationer att skydda fler applikationer genom att inte ladda mer än vad som krävs. Man måste också överväga hur datahantering kan förenklas och konfigureras utan att försämra latensen.
TCO måste byggas in i någon ”Always On”-strategi i början, annars står företagen inför utsikterna att fångas i en kostsam och ohållbar plan. En framgångsrik non-stop dataåtkomst bygger företagets förtroende, men det är möjligheten att snabbt kunna flytta och växla upp kapacitet för nya produkter och tjänster som ger företagstillväxt.
Är lojalitet fortfarande nyckeln till framgång?
Ja, men konsumenterna förändras. Det är inte heller billigt att få nya kunder. Enligt Profit Well, har kostnaden för att förvärva nya kunder ökat med nästan 50 procent de senaste fem åren. Att arbeta hårdare för att behålla kunder gör både kommersiell och strategisk mening. Förväntningarna är högre idag än någonsin tidigare. En undersökning från Salesforce visar att “92% av kunderna tycker att den upplevelsen från företaget är minst lika viktig som den produkt eller tjänst det erbjuder.” Och vidare säger ”70 procent att den uppkopplade processen i kontakten med företaget är mycket viktig för att kunden ska vilja ge företaget sitt förtroende.”[2] För att säkerställa denna upplevelse är det avgörande att få den underliggande tekniken rätt. Om system och applikationer inte är sömlösa och lättillgängliga kommer lojalitet till företaget att hotas. Marknadsförhållanden kräver mer intelligenta metoder för att hålla kunderna nöjda. Att säkerställa en tjänst för att alltid vara ”online” blir avgörande.
5 framgångsfaktorer för en ständigt tillgänglig-miljö
- Ta bort IT-komplexiteten – Idag kräver de flesta företag en ytterligare, dedikerad, punktlösning (HA Gateway) med en annan funktion, administrationsverktyg och övervakningskrav. Detta lägger till komplexitet för både operationer och automationsprocesser. Leta efter en integrerad lösning som kombinerar lagring och ”Always On”-funktioner.
- Minska kostnaderna – HA Gateways är dyra och ofta prissatta efter kapacitet. Detta tvingar organisationer att minimera antalet applikationer som drar nytta av ”ständigt tillgänglig”-kapaciteten. En andra kostnad läggs till när HA-lösningen kräver fiber mellan webbplatser. Organisationer skyddar mer när de inte debiteras mer.
- Samma prestanda, var som helst – Synkronisering över två-lagringssystem på två platser, ökar latensen. Detta gör det svårare att anpassa för latent-känsliga lösningar. Med långdistansinstallationer kommer en skrivning till den lokala lagringen och en annan till remote lagringen att resultera i dubbel latens och skapa en inkonsekvent användarupplevelse. Detta är ofta resultatet av att de har felkonfigurerats.
Det kan enkelt åtgärdas genom att förenkla och automatisera konfigurationen så att lösningen kan differentiera de sökvägar som de ska använda hela tiden, från de som de bara bör använda endast i ett failover-scenario. Minimera prestandapåverkan vilket möjliggör ett bredare användningsområde.
- Variabel funktionalitet – Många lösningar som hävdar att lösningar för att vara ständigt tillgänglig varierar stort i funktionalitet. Vissa erbjuder en skrivskyddad kopia på en av datamiljöerna och automatiserad failover, medan andra ger hög prestandapåverkan när de skickar datapaket till sekundär-centret. Genom att behandla båda kopiorna lika, med minimal eller ingen prestationsförsämring mellan dem, kan lösningen skriva till båda lagringsystemen utan någon failover-process som kan försämra latensen.
- Tillförlitlighet – Eftersom ett ”Always On”-kluster är en geografiskt distribuerad lösning, kräver den i händelse av ett kommunikationsfel en tredje sajt (Vittne) mellan de två systemen. Vittnet behöver lokaliseras på en tredje sajt med redundant kommunikation till båda sajterna och går in ifall systemen och sajterna tappar kontakt med varandra. Att säkerställa vittnes funktion och anpassa den till kundens behov är tillverkarens ansvar.
Av Eran Brown, CTO för EMEA på INFINIDAT