Allt fler etiska dikeskörningar när företag satsar på AI
Hem PROGRESS Allt fler etiska dikeskörningar när företag satsar på AI

Allt fler etiska dikeskörningar när företag satsar på AI

Publicerat av: Redaktionen

”Move fast and break things” är ett motto som fungerat väldigt bra för startups, men frågan är om det är en lika smart strategi för ett etablerat företag som bryr sig om sitt varumärke.

De flesta företag vill nog vara innovativa och ledande i sin bransch, men det finns också risker med att snabbt införa AI-teknik utan att ha tänkt igenom konsekvenserna.

Idag är i princip alla företag på gång med att använda artificiell intelligens för en rad olika syften. Naturligtvis vill de komma igång snabbt så de inte hamnar efter konkurrenterna. I fråga om AI finns det dock etiska risker som företag behöver ta hänsyn till, och som det är bäst att ta tag i redan från första början.

AI kommer med en rad etiska risker

Företag behöver alltså tänka igenom hur de ska undvika de värsta etiska fallgroparna. Att upprätta en affärsstrategi för hur företaget ska använda AI för att driva affärerna är självklart, men just i fråga om AI behövs också en etisk strategi.

De här är de två vanligaste och största riskerna:

  1. Omedvetna fördomar

Enligt en global studie beställd av Progress har 66 % av alla verksamheter upplevt så kallad data bias, alltså att den data som används för beslut är snedvriden på olika sätt. Besluten riskerar därmed att påverkas av fördomar baserade på kön, etnicitet eller ålder, för att ta några exempel. Inte mindre än 78 procent av verksamheterna svarade att data bias kommer att bli ett större problem när AI-användningen ökar.

Medvetenheten är alltså stor, vilket är positivt. Frågan är bara vad man ska göra för att lösa problemet. Utmaningen består i att generativ AI bara skapar en balanserad output om kvaliteten på den data som används för att träna AI-modellen är neutral, det vill säga inte har någon bias. Verksamheter måste säkerställa att data väl representerar den mångfald som finns bland användare, kunder och samhället i stort. Annars kan bibehålla omedvetna fördomar, vilket förstås påverkar dessa grupper negativt. För företaget kan dessa fördomar leda till dåliga beslut och negativ publicitet.

Allt fler etiska dikeskörningar när företag satsar på AI

Niklas Enge, Nordenchef för Progress Software

Verksamheterna måste därför använda data från ett brett spektrum av källor, och ta hänsyn till demografi, geografi och andra relevanta faktorer. På så sätt kan de få en mångfald i sina träningsdata. De kan även ta hjälp av automatiserade verktyg för att upptäcka bias och fördomar i träningsdata. Vissa företag använder maskininlärning för att identifiera och ta bort partiskt språk från textdata, medan andra använder statistiska tekniker för att känna igen och åtgärda skillnader i demografisk representation.

  1. Regleringar

Eller kanske snarare bristen på regleringar. Lagstiftningen har inte hunnit med i utvecklingen, vilket gör att det är lite av Vilda Västern där ute. Till exempel har AI-verktyg ofta tränats med data som de hämtat på nätet och som ofta omfattas av upphovsrätt. Eftersom data ägs av någon annan är det oklart vem som äger utdata från en generativ AI som ChatGPT? Det har redan kommit in stämningsansökningar i USA kring detta.

Faktiskt kan detta bli väldigt snårigt, för vad skulle till exempel hända om något som tidigare varit fritt att använda plötsligt inte är det längre? Det är knappast möjligt för en leverantör av AI-verktyg att ta bort den data som använts för att träna modellen.

Denna laglöshet gör att det är positivt att EU nu tar fram en Artificiell Intelligence Act, som ska förtydliga reglerna på området. Det handlar om datakvalitet, transparens, mänsklig tillsyn och ansvarsskyldighet, för att nämna några av de viktigare frågorna. En rad länder kommer säkerligen att följa efter med egna lagar och regler.

Just nu finns det alltså inte så många regler att förhålla sig till, men detta betyder inte att det är fritt fram att göra vad som helst. Verksamheter bör istället utbilda sig om den AI som ska användas, försöka förstå vilka regler som rimligen kommer införas i framtiden och se till att det finns möjligheter att skydda sig mot eventuella förändringar.

Hur hamnade vi här – och vad gör vi åt etiken?

AI kommer nog alltid vara en teknik som innebär fler etiska frågor än mycket annat. Det här har till exempel sin grund i att AI fungerar som en ”svart låda” där vi inte fullt ut förstår vad som händer och hur vi faktiskt får de resultat vi får. Den har också sitt ursprung i att den ibland kan ersätta människor och deras jobb, vilket förstås alltid är känsligt. En ytterligare aspekt är att AI kan vara att den gör det svårt att veta var ansvaret för något finns, till exempel om en AI fattar ett visst beslut. Då har vi ändå inte nämnt vad som händer när vi låter AI styra autonoma vapen.

Idag kan AI ge fördelar i en rad olika branscher. Som ett exempel kan man inom handeln få avancerad personanpassning, djupgående analyser och strategiska insikter. Det här gör det möjligt för till exempel e-handlare att leverera digitala upplevelser som måste beskrivas som ”nästa nivå” för användare och kunder.

Allt sådant kan komma att äventyras om företag inte tar de etiska utmaningarna på allvar. I stället för en explosiv AI-utveckling med tillhörande nytta för medborgare och konsumenter kan vi då få dåliga upplevelser, teknikrädsla och negativ publicitet.

Niklas Enge, Nordenchef för Progress Software

 

Relaterade Artiklar

Vi använder cookies och andra identifierare för att förbättra din upplevelse. Detta gör att vi kan säkerställa din åtkomst, analysera ditt besök på vår webbplats. Det hjälper oss att erbjuda dig ett personligt anpassat innehåll och smidig åtkomst till användbar information. Klicka på ”Jag godkänner” för att acceptera vår användning av cookies och andra identifierare eller klicka ”Mer information” för att justera dina val. Jag Godkänner Mer Information >>

-
00:00
00:00
Update Required Flash plugin
-
00:00
00:00