Hem NYHETER Många oförberedda på regleringar kring etisk AI

Många oförberedda på regleringar kring etisk AI

Publicerat av: Redaktionen

En ny undersökning från Corinium på uppdrag av FICO, ledande inom avancerade analyslösningar, visar att många organisationer är oförberedda inför striktare regelverk kring etisk AI.

Många oförberedda på regleringar kring etisk AI 2

Många oförberedda på regleringar kring etisk AI

Undersökningen visar också att detta bidrar till att stoppa upp användningen av AI i organisationer. Därför bör AI-ansvariga nu proaktivt självreglera, snarare än att vänta in kommande regelverk kopplat till etisk AI.

Samtidigt som AI-etik snabbt blivit en viktig fråga för många organisationer visar undersökningen från Corinium på uppdrag av FICO att en av tre ansvariga för data/analys inte är förberedda på striktare reglering gällande etisk AI. Detta kan stoppa upp AI-utveckling i organisationer då 93 procent uppger att etiska överväganden är en kritisk barriär för ytterligare AI-införanden i deras organisationer.

“I takt med att AI-algoritmer mer sofistikerade och används mer utbrett bör organisationer säkerställa att de undviker oavsiktliga negativa skadeverkningar,” säger Dr. Scott Zoldi, chefsanalytiker på FICO. “Därför är det viktigt att företag börjar prioritera etisk AI och ligger steget före de rörelser som är på väg inom AI.

Datasäkerhet

Tidigare har AI-etik mestadels kopplats till beslut rörande applikationer som exempelvis självkörande bilar eller kreditbeslut. Nu för tiden är det dock mer komplext, inte minst när det gäller att förvara lagrad kunddata på ett säkert sätt. Fler organisationer använder AI för att bättre förstå kunder, vilket gör dem mer sårbara och ökar risken för kritik om data missbrukas. Undersökningen visar att 38 procent av ansvariga inom data/analys upplevt säkerhetsincidenter, 24 procent har upplevt kontaminerad data och en av fyra har upplevt dataintrång.

“Det är viktigt att organisationer säkerställer att de är skyddade mot fientliga AI-attacker,” säger Dr. Scott Zoldi. “Det är troligt att kriminella kommer arbeta mer fokuserat för att upptäcka svagheter i modeller eller försöka överrumpla AI-modeller för att stänga ner dem.”

Självreglering

Undersökningen visar att det i nuläget finns viss självreglering, 47 procent uppger att de byggt in steg för att undvika fördomar i utvecklingen av modeller, vilket inkluderar variabler som kön och etnicitet, och 41 procent använder tredjepartsaktörer för att säkerställa att deras modeller är etiska och fria från fördomar. Men, 67 procent monitorerar exempelvis inte deras modeller för att säkerställa att de fortsätter vara korrekta och inte avviker med tiden.

“Innovationstakten inom AI har alltid varit högre än takten hos hos de som lagstiftar kring teknik,” säger Scott Zoldi. ”AI-ledare bör därför ta ytterligare steg för att självrelgera via disciplinerade processer och procedurer för att säkerställa att de är redo för striktare regelverk gällande etisk användning av AI.”

Relaterade Artiklar

Vi använder cookies och andra identifierare för att förbättra din upplevelse. Detta gör att vi kan säkerställa din åtkomst, analysera ditt besök på vår webbplats. Det hjälper oss att erbjuda dig ett personligt anpassat innehåll och smidig åtkomst till användbar information. Klicka på ”Jag godkänner” för att acceptera vår användning av cookies och andra identifierare eller klicka ”Mer information” för att justera dina val. Jag Godkänner Mer Information >>

-
00:00
00:00
Update Required Flash plugin
-
00:00
00:00