AI med öppen källkod: Ur Red Hats synvinkel

AI med öppen källkod: Ur Red Hats synvinkel

Publicerat av: Redaktionen

Red Hat anser att grunden för öppen källkod-AI är modellvikter med en öppen källkodslicens, i kombination med programvarukomponenter med öppen källkod.

För över tre decennier sedan insåg Red Hat hur öppen källkod kunde driva IT-innovation.

Trettio miljoner rader kod senare blev Linux den mest framgångsrika programvaran någonsin. Vårt engagemang för öppen källkod genomsyrar både vår affärsmodell och kultur. Vi tror att samma principer kan revolutionera AI om de tillämpas rätt, samtidigt råder oenighet inom teknikvärlden kring vad som är “det rätta sättet”.

AI, särskilt stora språkmodeller (LLM) som driver generativ AI, skiljer sig från öppen källkodsmjukvara. Till skillnad från traditionell mjukvara består AI-modeller främst av modellvikter – numeriska parametrar som styr hur data bearbetas och kopplas samman. Dessa vikter är resultatet av en omfattande träningsprocess med stora mängder noggrant bearbetad data.

AI med öppen källkod: Ur Red Hats synvinkel

Chris Wright, CTO, Red Hat

Även om modellvikter inte är programvara, fyller de en liknande funktion som kod. Data jämförs ofta med modellens källkod, men inom öppen källkod är källkod den föredragna formen för ändringar. Enbart träningsdata uppfyller inte den rollen, då dess omfattning och komplexa träningsprocess skapar en svag och indirekt koppling till de tränade vikterna och modellens beteende.

De flesta förbättringar av AI-modeller som nu sker i communityn innebär inte tillgång till eller hantering av den ursprungliga träningsdatan. I stället beror de på justeringar av modellvikterna eller finjustering, vilket också kan påverka modellens prestanda. För att möjliggöra sådana förbättringar måste vikterna släppas med samma rättigheter som ges under licenser för öppen källkod.

Red Hats syn på öppen källkod AI

Red Hat anser att miniminivån för öppen källkod-AI är modellvikter med öppen källkod-licens i kombination med programvarukomponenter med öppen källkod. Detta är en startpunkt för öppen källkod-AI, inte slutmålet. Vi uppmuntrar öppen källkod-communityn, tillsynsmyndigheter och branschen att fortsätta sträva efter större transparens och bättre anpassning till principerna för öppen källkodsutveckling vid träning och finjustering av AI-modeller.

Detta är Red Hats syn på hur vi, som ett ekosystem för öppen källkod, praktiskt kan engagera oss i öppen källkod-AI. Det är inte ett försök till en formell definition, såsom den Open Source Initiative (OSI) utvecklar med sin Open Source AI Definition (OSAID). Vår ståndpunkt handlar helt enkelt om vad som gör öppen källkod-AI möjlig och tillgänglig för så många communitys, organisationer och leverantörer som möjligt.

Vi omsätter denna syn i praktiken genom Red Hat-ledda InstructLab-projektet och vårt arbete med Granite-familjen av öppen källkod-modeller tillsammans med IBM Research. InstructLab sänker tröskeln för personer utan datavetenskaplig bakgrund att bidra till AI- utvecklingen vilket gör det möjligt för branschexperter att bidra både internt och till en gemensam, öppet tillgänglig AI-modell.

Granite 3.0-modellfamiljen stöder AI-användningar som kodgenerering, språkbehandling och dataanalys under en tillåtande öppen källkod-licens. Vi hjälpte IBM Research att ta flera Granite-kodmodeller till öppen källkodsvärlden och fortsätta att stödja modellfamiljen, både ur öppen källkodssynpunkt och som en del av Red Hats AI-erbjudande.

Reaktionerna efter Deepseeks senaste tillkännagivanden visar hur innovation inom öppen källkod kan påverka AI, både på modellnivå och i ett bredare perspektiv. Samtidigt väcker Deepseeks tillvägagångssätt vissa farhågor, särskilt eftersom modellens licens inte tydliggör hur den har utvecklats, vilket understryker behovet av transparens. Denna utveckling bekräftar dock vår vision för AI:s framtid – en öppen sådan, med fokus på mindre, optimerade modeller som kan anpassas till specifika företagsbehov i hybridmolnet.

Att utvidga öppen källkod-AI bortom modeller

Öppen källkodsteknik och utvecklingsprinciper är kärnan i våra AI-erbjudanden, precis som i vår Red Hat AI-portfölj.

I vårt arbete inom öppen källkod-AI fokuserar vi även på de verktyg och plattformar som behövs för att AI ska kunna användas effektivt. Vi deltar aktivt i ett växande antal upstream-projekt och communityn, och har dessutom initierat flera egna, inklusive (men inte begränsat till):

  • RamaLama, ett öppen källkod-projekt som syftar till att göra lokal hantering och distribution av AI-modeller betydligt enklare och mindre komplex;
  • TrustyAI, ett öppen källkod-verktygspaket för att skapa mer ansvarsfulla AI-arbetsflöden;
  • Climatik, ett projekt inriktat på att göra AI mer hållbart med avseende på energiförbrukning;
  • Podman AI Lab, ett utvecklarverktygspaket som underlättar experimentering med öppna LLM-er;

I och med vårt uppköp av Neural Magic stärks Red Hats AI-vision genom att låta organisationer anpassa mindre, optimerade AI-modeller, inklusive öppna källkodsmodeller, med sina data i hybridmolnet. Med vLLM-inferensservern kan IT-organisationer effektivt driva dessa modeller och bygga en AI-stack på transparenta och understödda teknologier.

Av: Chris Wright, CTO, Red Hat

Relaterade Artiklar

Vi använder cookies och andra identifierare för att förbättra din upplevelse. Detta gör att vi kan säkerställa din åtkomst, analysera ditt besök på vår webbplats. Det hjälper oss att erbjuda dig ett personligt anpassat innehåll och smidig åtkomst till användbar information. Klicka på ”Jag godkänner” för att acceptera vår användning av cookies och andra identifierare eller klicka ”Mer information” för att justera dina val. Jag Godkänner Mer Information >>

-
00:00
00:00
    -
    00:00
    00:00