Framtiden för AI och öppen källkod: Vikten av demokratisering, hållbarhet och tillit
Hem NYHETERAI Framtiden för AI och öppen källkod: Vikten av demokratisering, hållbarhet och tillit

Framtiden för AI och öppen källkod: Vikten av demokratisering, hållbarhet och tillit

Publicerat av: Redaktionen

Att möta dagens IT-utmaningar innebär olika saker – från att leverera en öppen källkod-plattform för AI till att skapa nya IT-policyer som kod.

Men snart är dagen förbi och morgondagen tar vid innan vi hinner blinka.

Så hur löser du, just nu, de tekniska pussel som ännu inte har dykt upp?

Som tur är har vi ett beprövat tillvägagångssätt att planera inför och skapa framtiden, nämligen genom öppen källkod-gemenskaper och projekt.

Idag ser många AI/ML som en framtida teknologi. I många organisationer är det fortfarande i sin linda, med fokus på strategier och stora idéer snarare än implementering och produktion. När det kommer till öppen källkod-världen tittar vi redan framåt mot hur vi ska tackla nästa våg av AI-drivna frågor.

Framtiden för AI och öppen källkod: Vikten av demokratisering, hållbarhet och tillit

Chris Wright, CTO och Senior VP, Global Engineering på Red Hat

Man skulle kunna ägna många timmar åt att diskutera framtiden för AI, men jag vill istället lyfta fram följande tre områden som projekt för öppen källkod fokuserar på:

  • Demokratisering
  • Hållbarhet
  • Tillit

Om du löser eller påbörjar lösningen av dessa problem, kan resten av en AI-strategi kännas mindre komplex och mer nåbar.

Demokratisering

Vi behöver vara tydliga när det gäller AI-terminologi: Det är svårt att inte höja på ögonbrynen åt ”öppna” modeller som har citattecken runt sig eller en asterisk. Missförstå mig rätt: Dessa modeller är givetvis viktiga för AI-området, men de är inte öppna i betydelsen öppen källkod. De är öppna för användning – många med olika begränsningar – men kanske inte öppna för bidrag, och de har inte heller några öppna testdatauppsättningar eller vikter.

Detta är en utmaning som vi har tagit oss an idag och som vi fortsätter att arbeta med i samarbete med IBM Research. Tillsammans med InstructLab applicerar IBM Research nu en öppen källkodslicens från Apache på Granite språk- och kodmodeller. Detta är stort. Inte för att det är unikt med en modell styrd av en öppen källkodslicens, utan för att vem som helst kan nu – genom InstructLab – bidra till dessa modeller för att förbättra dem.

Utöver detta kan du göra en AI-modell till DIN. Vill du bygga en chatbot för fiske? Gör det, bidra tillbaka, låt oss skapa ChatGoFish. Vill du skapa en felsökningsbot för ett specifikt teknikområde? Gör det med InstructLab. Möjligheterna blir obegränsade när du verkligen tillämpar principerna för öppen källkod på AI-modeller och vi är här för att stödja det.

Hållbarhet

Modellträning och AI-inferens kräver mycket energi. Enligt International Energy Agency förväntas AI-industrins energibehov öka tiofalt till år 2026. Detta innebär att vi måste använda öppen källkod för att hjälpa till att lösa denna utmaning.

Att komma igång med AI är nästan alltid energikrävande, men vi kan vara smarta. Vi har redan tagit steg i denna riktning med modern företags-IT genom Kepler-projektet, vilket hjälper till att ge insikter om koldioxidavtryck och energieffektivitet för molnbaserade applikationer och infrastruktur. Det finns idag som en teknisk testversion i Red Hat OpenShift 4.15.

Men tänk om vi kan, genom öppen innovation, förvandla Kepler till ett verktyg som även kan övervaka strömförbrukningen av GPU:er, inte bara CPU:er?

Det är precis vad vi gör. Vi använder Kepler för att mäta strömförbrukningen av ML-modeller, både för träning och inferens. Detta ger en fullständig bild av strömförbrukningen för både traditionell IT och AI-verksamhet – allt tack vare öppen källkod.

Tillit

Som med all ny teknik måste vi skydda och säkerställa AI-arbetsbelastningar, modeller och plattformar. Innovation utan säkerhet innebär alltid en ”risk,” vilket både företag och öppen källkods-gemenskapen vill minimera.

För mjukvara är försörjningskedjan och härkomst nycklarna till att leverera en säkrare upplevelse. Detta innebär att ha en klar förståelse för varifrån koden kommer, vem som kodade den och vem eller vilka som har haft åtkomst till den innan den används i produktion. Det Red Hat-ledda sigstore-projektet hjälper till att bevisa äktheten av den öppna källkoden som används i alla stadier av applikationsutvecklingen.

Nu måste vi tillämpa samma förutseende, disciplin och noggrannhet på AI-modeller. Det gör Red Hat och öppen källkod-gemenskapen genom att arbeta för att skapa en AI Bill of Materials, vilken ger större garantier kring modellbyggen med hjälp av vårt säkra försörjningskedjeverktyg.

Säkerhet går hand i hand med tillit. Hur vet du och din organisation att ni kan lita på de AI-modeller och arbetsbelastningar ni satsar på i framtiden? Det är här TrustyAI kommer in i bilden. TrustlyAI hjälper ett teknikteam att förstå AI-modellers berättigande samt flagga för potentiellt problematiska beteenden.

Genom dessa exempel hoppas jag att du kan se hur öppen källkod arbetar för att öka tillgängligheten, hållbarheten, säkerheten och förtroendet för AI i framtiden. På Red Hat är vi stolta över att vara i framkant kring att driva alla dessa teknologier. Detta skulle inte vara möjligt utan samarbete inom öppen källkods-gemenskapen som främjar nya sätt att tänka.

 

 

 

 

 

Relaterade Artiklar

Vi använder cookies och andra identifierare för att förbättra din upplevelse. Detta gör att vi kan säkerställa din åtkomst, analysera ditt besök på vår webbplats. Det hjälper oss att erbjuda dig ett personligt anpassat innehåll och smidig åtkomst till användbar information. Klicka på ”Jag godkänner” för att acceptera vår användning av cookies och andra identifierare eller klicka ”Mer information” för att justera dina val. Jag Godkänner Mer Information >>

-
00:00
00:00
Update Required Flash plugin
-
00:00
00:00