Hajpen kring AI har börjat lägga sig och ersätts nu av mer realistiska förväntningar.
Vad är status och är företag, CTO:er och arkitekter verkligen redo att hantera, träna och uppdatera AI?
Stora språkmodeller kan skapa utmaningar, men en strategi baserad på en kombination av mindre modeller kan visa sig vara nyckeln till AIs framtid. Det är därför konceptet Swarm AI växer fram som ett alternativ till Big AI.
Det är ett välbekant scenario. När nya teknologier dyker upp är det de stora aktörerna som intar en dominat position. Detta följs vanligtvis av en motrörelse underifrån av de mindre leverantörerna, och till slut konsolideras marknaden. Exempel på detta är applikationer som sökning, chatbots eller innehållssammanfattning som klarar sig med mindre och mer kostnadseffektiva modeller.
Denna trend orsakas av begränsningarna hos Big AI och stora språkmodeller. De är designade för att vara universella och täcka breda ämnen, och får ibland svårt att leverera specifika, ämnesanpassade svar. Dessutom är problemet med hallucinationer svårt att kontrollera i dessa modeller.
De små modellernas era
Ett alternativ till stora språkmodeller är swarm AI, som använder många små modeller för specifika uppgifter. Dessa kan vara egenutvecklade modeller eller modeller som finns på marknaden som används i kombination. Kortfattat innebär det att modellerna kopplas samman på en metanivå, där en gemensam frågeenhet avgör vilka modeller som ska besvara en viss fråga.
Att använda mindre modeller istället för stora språkmodeller har flera fördelar. De möjliggör dynamisk anpassning och kontinuerlig integrering av ny data, vilket resulterar i att träningskörningar kan genomföras betydligt snabbare. Dessutom leder små modeller till avsevärda kostnadsbesparingar, eftersom stora språkmodeller med miljarder parametrar kräver betydande investeringar och resurser.
Användningen av mindre modeller med domänspecifik data minskar dessutom företagens beroende av stora leverantörer, vars lösningar ofta fungerar som en svart låda när det gäller algoritmer, träningsdata och modeller. Mindre modeller erbjuder däremot ökad transparens, spårbarhet och tillförlitlighet. Europa har en stark position när det gäller att sätta standarder inom detta område, särskilt genom regleringar. Ett exempel från det förflutna är GDPR, och i framtiden kan EU:s AI-lagstiftning mycket väl vara ett exempel.
Sist men inte minst kan swarm AI vara en lösning på bristen på AI-experter och de utmaningar som följer med att implementera stora språkmodeller. Mindre modeller är enklare att träna, optimera och distribuera, vilket ger snabbare utvecklingscykler och större möjligheter till experimenterande.
Från data till plattform till ekosystem
Strukturerad, högkvalitativ och specifik data är avgörande för att AI-modeller ska fungera effektivt. Stora företag har ofta tillgång till egna databaser och datasjöar, medan även statliga myndigheter besitter ofta strukturerad data som kan användas för domänspecifika AI-lösningar. Ett exempel på detta är optimering av ruttplanering för sopbilar baserat på tillgängliga historiska data.
En annan central komponent i en AI-miljö är den bakomliggande arkitekturen och infrastrukturen. För att undvika leverantörsberoende, hålla jämna steg med AI-innovationer och implementera alla användningsfall, är en flexibel hybridplattform baserad på öppen källkod att föredra. Den ger möjlighet att träna, finjustera, distribuera och övervaka AI-modeller i molnet, vid kanten eller lokalt. Exempelvis kan träningen utföras på GPU-farmar med tydlig klientseparation i molnet, medan modeller sedan distribueras lokalt i en produktionsmiljö. Att företag bygger en kostsam lokal GPU-infrastruktur är sällan vettigt, särskilt eftersom GPU-användningen ofta ligger under 25 procent.
Öppna hybridmolnplattformar kan dessutom ge tillgång till certifierade AI/ML-partners som en del av ett ekosystembaserat tillvägagångssätt. Detta gör det möjligt för organisationer att snabbt och smidigt utnyttja kompletta lösningar för att utveckla, distribuera och hantera AI-drivna applikationer. Ett välfungerande ekosystem spelar en avgörande roll för att driva konkurrens och innovation inom AI. Ett sådant ekosystem utgör grunden för att utveckla relevanta AI-modeller, göra träningsdata tillgänglig för en bredare användarbas och hantera viktiga etiska frågor.
Hajpen kring generativ AI har svalnat, och de stora löftena ersätts nu av mer realistiska förväntningar. Detta är dock inte slutet för AI, utan snarare en påminnelse om behovet av att tänka om. Swarm AI, baserad på domänspecifika små modeller, kan öppna ett nytt framgångsrikt kapitel i AI-användning. Framför allt bör europeiska leverantörer se denna trend som en ny marknadsmöjlighet. AI förblir – åtminstone för tillfället – den centrala nyckelteknologin.
Av: Jan Wildeboer, EMEA Evangelist på Red Hat