Hur globala regelverk kring ansvarsfull AI-användning ska utformas är en nyckelfråga för de kommande åren.
För mycket reglering riskerar bromsa utvecklingen, men detsamma gäller otillräcklig reglering.
I februari arrangerades AI Action Summit i Paris, ett välbesökt toppmöte kring nästa steg i AI-utvecklingen som gästades av många ledare inom politiken och näringslivet.
Behovet av tydliga och enkla regelverk inom EU lyftes av flera deltagare fram som en nyckelfråga som krävs för ansvarsfull och innovativ AI-användning inom såväl privat som offentlig sektor.
Den snabba och mångfacetterade tekniska utvecklingen på AI-området gör att den inte kan lämnas oreglerad, samtidigt som regelverken måste ta hänsyn till både att främja ansvarsfull innovation och inte skapa sämre förutsättningar för AI att bidra till allmänmänsklig nytta.
AI-experten Ivana Bartoletti, expert knuten till Europarådet och Global Chief Privacy and AI Governance Officer på det globala konsultbolaget Wipro, arbetar dagligen med frågorna, och lyfter fram tillit som den viktigaste faktorn för att uppnå EU:s mål:
”Det är uppmuntrande att se diskussionerna gå vidare från debatten om risk kontra reglering mot en bredare strategi som omfattar miljö, arbetsmarknad och inkludering. Förtroende är nyckelelementet för att driva införandet av AI och det innebär att använda data som är representativ för oss alla, tillämpa teknik som skyddar integriteten och ge jämlik tillgång till AI världen över.”
Ivana Bartoletti lyfter även fram de största utmaningarna för att etablera den tilliten.
Trösklarna för att börja utveckla och lansera AI-baserade tjänster och verktyg sänks ständigt, och med ett allt bredare ekosystem av aktörer i många olika länder och regioner med olika nationella regelverk och grad av styrning krävs globalt samarbete i större utsträckning än idag. Verksamheter måste navigera ett lapptäcke av globala, regionala och lokala regler vilket gör regelefterlevnad mer komplicerat.
Den enorma ekonomiska potentialen i AI gör att branschens aktörer har ett skarpt fokus på att uppnå konkurrensfördelar genom nya tekniska framsteg – men detta får inte ske på bekostnad av ansvarstagande.
Även stora språkmodeller baserade på öppen källkod skapar frågor kring datasäkerhet. Ett viktigt exempel på hur brist på reglering kan hämma utvecklingen snarare än underlätta den är när, under den tidigaste fasen av AI-boomen, osäkerheten kring hur data användes i öppna modeller att många företag kraftigt begränsade eller förbjöd anledningen av verktygen inom organisationen.
Ivana Bartoletti ser positivt på slutsatserna från AI Action Summit, och på framtiden:
”Eftersom åsikterna går isär om omfattningen av nödvändig AI-reglering är det viktigt att komma ihåg att AI aldrig har existerat i ett juridiskt vakuum. Befintliga lagar om mänskliga rättigheter, integritet, konsumentskydd, icke-diskriminering och immateriella rättigheter gäller alla för AI-teknik. Organisationer över hela världen kommer i slutändan att anpassa sig till AI-lösningar som de kan lita på för att förändra sin verksamhet och öka produktiviteten. Denna tillit måste bygga på tre grundläggande pelare: robust integritetsskydd, omfattande säkerhetsåtgärder och tydliga ramar för styrning.”