Större är inte bättre när det handlar om AI
Hem KRÖNIKA Större är inte bättre när det handlar om AI

Större är inte bättre när det handlar om AI

Publicerat av: Redaktionen

[KRÖNIKA] AI verkar finnas överallt och blir allt mer genomgripande.

Det började inte med ChatGPT, men dess ankomst i november förra året har definitivt ökat ansträngningarna.

I teknikvärlden har vi inte, sedan blockchain, sett något som liknar denna typ av hajp eller adoptionshastighet. En IDC-rapport som publicerades tidigare i år uppskattar att de globala utgifterna för AI kommer att överstiga 301 miljarder USD år 2026, vilket är dubbelt så mycket som i dag.

AI har presenterats som att det kommer att gynna allt ifrån de anställdas produktivitet tillkundnöjdhet och riskreducering. Då det inte tycks gå att ignorera denna hajp, så verkar många anställda dyka rakt i den för att försöka bli en AI-pionjär och skaffa sig konkurrensfördelar på nya sätt. Men därigenom kan de oavsiktligt komma att utsätta sin organisation för risker.

En fråga om kontroll

Det sägs att eftersom data är värdefullt, så blir det ännu dyrbarare ju mer du har av den. Men det är inte alltid sant. Ju fler datamängder du matar in, desto svårare blir det att övervaka dess ursprung och exakthet – för att inte tala om potentiella intrång i upphovsrätten, vilket AI av misstag kan orsaka.

Låt oss titta på ChatGPT. Varningen på OpenAI:s webbplats är att den ”kan producera felaktig information”, vilket det finns gott om argument som bevisar. Det är inte ett stort problem om du bara vill veta hur man gör en sockerkaka, men om du exempelvis använder AI för rättspraxisforskning så kan det få allvarliga följder.

Betänk nu att denna risk överförs till en affärsmiljö. Ett AI-verktyg som automatiskt hanterar lagernivåer; konfigurerar löner med prestation; prognostiserar kassaflöden kvartalsvis; optimerar valutaaffärer, eller fattar grundläggande beslut som har en djupgående inverkan på företagets lönsamhet. Detta kan enkelt övervakas med en mogen datastyrning och en AI-strategi på plats, i alla fall tills din personal börjar använda sina egna ”skugg”-AI-verktyg. Du kan som bekant inte kontrollera det du inte vet finns.

Större är inte bättre när det handlar om AISå frågan är tvåfaldig – Hur säkerställer du integriteten hos de AI-verktyg du känner till; och hur stoppar man personal som använder obehöriga och okontrollerade AI-verktyg för att hjälpa dem i deras arbete?

Svaret är mer konceptuellt än specifikt. Framtiden för AI kommer inte att ligga i de stora språkhanteringsmodellerna (LLM) som tar tag i dagens rubriker och andra generiska lösningar som stavar efter att betjäna en mängd olika användare. Företag kommer snarare att vilja besitta möjligheter som skiljer sig från deras bransch, kunder och arbetsuppgifter.

Bättre, mer relevant data

​​Denna nya era av ”domänspecifik AI” kommer att definieras av förmågan att skapa unika, differentierade tjänster. Det kräver grundläggande modeller som är utbildade på privata data och anpassade till standarder och praxis för ett specifikt företag eller bransch. Matad med välorganiserad, fokuserad och verifierad data levererar den grundläggande AI:n funktioner som gör att känns som att du arbetar med en expert; en du kan lita på, då du vet att den inte har byggts med slumpmässiga datauppsättningar ihopsamlade från olika källor.

Besluten den genererar kommer med tiden att bli mer relevanta och därmed mer effektiva. Följaktligen kommer anställda inte att känna behov av att leta efter sina egna tveksamma lösningar, samtidigt som det är ännu bättre om de får vara delaktiga i byggprojektet och känna en känsla av ägarskap och lojalitet till det.

De som verkligen är medvetna förstår att det är här som de riktigt intressanta AI-innovationerna just nu sker. Verktygslådorna för domänspecifik AI utvecklas allt eftersom; och de överträffar redan den innovativa kraften hos de stora spelarna inom AI. Som man brukar säga; mindre kan vara bättre.

Men bara om det kommer med transparens och integritet. Detta sätter AI-utvecklingen som ett fast uppdrag för avdelningar inom juridik och efterlevnad. Deras samarbete med datavetare och DevOps-kollegor kommer att bli en nyckelfunktion i en effektiv AI-strategi.

De kommer att behöva skapa och tillämpa riktlinjerna för hur och när de ska använda AI. De kommer sannolikt även att behöva ställa samma härkomstfrågor om sina uppgifter som tillsynsmyndigheterna. Runt om i världen spänner jurisdiktionerna nu sina muskler, vilket framgår av EU:s AI Act, USA:s AI Bill of Rights, Storbritanniens AI Regulation Policy Paper och upprätthållandet av Kinas algoritmiska bestämmelser för rekommendationshantering. Okunskap var ett svagt försvar även när man kunde skicka pengarna till en försäljare. Det kommer inte att vara något försvar när ditt AI-bygge är baserat på din egen data.

Akta dig för AI-tåget. Genom att styra bort från AI som allmänt ändamål och övergå till domänspecifik AI, får företagen en mycket effektivare förmåga; och (om det görs rätt) mer utbildade och flexibla medarbetare. Att ta det samtalet kräver starkt ledarskap. Mediernas surr kring AI har skapat ett brådskande behov av adoption. Det förnuftiga tillvägagångssättet är att stanna upp, utvärdera och se till att de AI-investeringarna du gör – i system, människor och kultur – tar hänsyn till såväl möjligheter som risker.

Av Jan Wildeboer, EMEA Open Source Evangelist, Red Hat

 

 

Relaterade Artiklar

Vi använder cookies och andra identifierare för att förbättra din upplevelse. Detta gör att vi kan säkerställa din åtkomst, analysera ditt besök på vår webbplats. Det hjälper oss att erbjuda dig ett personligt anpassat innehåll och smidig åtkomst till användbar information. Klicka på ”Jag godkänner” för att acceptera vår användning av cookies och andra identifierare eller klicka ”Mer information” för att justera dina val. Jag Godkänner Mer Information >>

-
00:00
00:00
Update Required Flash plugin
-
00:00
00:00