Användningen av AI och maskininlärning (ML) inom företag fortsätter att öka.
Det medför en rad utmaningar kopplade både till utveckling och implementering såväl som till hanteringen av dessa AI- och ML-modeller över tid.
Därför bör varje organisation se ett AI-initiativ som ett tvärfunktionellt lagarbete. Andreas Bergqvist, AI-specialist på Red Hat, beskriver hur en öppen hybrid molnplattform kan utgöra grunden för att bygga och driva en AI-miljö och samtidigt integrera alla parter som deltar i processen.
I takt med att generativ AI fortsätter att utvecklas riktar allt fler företag sitt fokus till detta område. Vilket är helt naturligt eftersom AI- och ML-teknologier erbjuder många fördelar, såsom effektivare processer, förbättrad kvalitet på produkter och tjänster samt minskad arbetsbörda för personalen. Men för att framgångsrikt kunna genomföra en AI-strategi krävs flera steg – allt från att formulera strategin till att övervaka och hantera modeller för att mäta att de har tillräcklig prestanda samtidigt som man vill upptäcka eventuella dataavvikelser i produktionen. Dessa uppgifter involverar i princip alltid olika avdelningar och intressenter inom organisationen.
I ett typiskt AI-projekt sätter affärsavdelningen målen, dataingenjörer och dataforskare hittar och förbereder den data som ska användas och AI/ML-ingenjörer utvecklar modellerna som används i de applikationer som parallellt utvecklarna bygger – allt i en miljö som hanteras av IT-avdelningen. Frågan är nu: Vad är den ideala tekniska grunden för dessa mycket varierande uppgifter och utmaningar, det vill säga utgöra en gemensam bas för alla parter som deltar i processen? Allt fler företag sällar sig nu till skaran som fokuserar på öppna Kubernetes-baserade hybridmolnplattformar för detta ändamål, eftersom de erbjuder en enhetlig infrastruktur för utveckling, träning och integrering av AI-modeller i applikationer.
För att på ett tillförlitligt sätt underlätta övergången från experimentfas till produktionsdrift för alla inblandade parter – och för att möjliggöra ett konsekvent samarbete – bör en sådan plattform innehålla följande nyckelfunktioner:
- Modellutveckling med ett interaktivt, kollaborativt användargränssnitt för data science och modell-träning, optimering och distribution.
- Modelleverans anpassad för att distribuera modeller till produktionsmiljöer.
- Modellövervakning med centraliserad övervakning för att verifiera modellens prestanda och noggrannhet.
Plattformsstrategin erbjuder många fördelar, inklusive:
- Hög flexibilitet tack vare en hybrid moln-modell: Företag har här flexibilitet att distribuera sina intelligenta applikationer där de behövs – i sitt eget datacenter, i molnet eller ända ut i en edge-enhet.
- Enkel hantering och förändring med hög skalbarhet: IT-avdelningar kan med en hybrid plattform tillhandahålla en central infrastruktur för dataingenjörer och dataforskare, vilket befriar dem från att underhålla och hantera miljön.
- Samarbete: En gemensam plattform sammanför data, IT och människor. Den minskar också risken för kommunikationsmissar mellan utvecklare, dataingenjörer, dataforskare och DevOps-team och erbjuder inbyggt stöd för överlämning mellan AI/ML-team och applikationsutvecklare.
- Innovation genom öppen källkod: Organisationer får tillgång till de senaste innovationerna genom AI/ML-verktyg baserade på öppen källkod.
Sammanfattningsvis utgör en öppen hybrid molnplattform en tvärfunktionell grund för AI-initiativ. En sådan infrastruktur stödjer utveckling, träning, implementering, övervakning och livscykelhantering av AI/ML-modeller och applikationer – från experiment och proof-of-concept till produktion. Den integrerar AI i organisationens befintliga DevOps-struktur på ett kompletterande och integrerat sätt, istället för att vara en separat lösning som man måste integrera på egen hand.
Av: Andreas Bergqvist, AI-specialist på Red Hat