Förgiftad träningsdata ett hot mot stora språkmodeller
Hem SÄKERHET Förgiftad träningsdata ett hot mot stora språkmodeller

Förgiftad träningsdata ett hot mot stora språkmodeller

Publicerat av: Redaktionen

Dataförgiftning har blivit ett allt större hot mot stora språkmodeller (LLM).

Det innebär att felaktig eller vilseledande data matas in i den träningsdata som språkmodellen använder när den svarar på en fråga.

I förlängningen betyder det att prestandan och förtroendet för stora språkmodeller försämras. Dataförgiftning utgör också en säkerhetsrisk när en angripare till exempel påverkar en AI-driven kundtjänst att styra användarna till en webbplats för nätfiske.

– Ansvaret för att upptäcka och motarbeta dataförgiftning ligger hos utvecklarna av språkmodellerna. Men det är viktigt att alla som använder en modell som utsatts hämtar den nya, uppdaterade versionen så snart den blir tillgänglig, på samma sätt som man gör med all annan programvara som bygger på öppen källkod, säger Peter Graymon, ansvarig för Barracuda Networks i Norden.

Förgiftad träningsdata ett hot mot stora språkmodellerStora språkmodeller används för att exempelvis driva chattbottar och generera text. De tränas på stora mängder insamlad data som sedan används för att skapa mer data, allt enligt de regler och mönster de lärt sig. Kvalitetsdata leder till bra resultat medan undermålig eller felaktig data genererar dåliga resultat. Förgiftad träningsdata som används när man skapar en LLM gör också att en angripare kan kontrollera hur modellen beter sig när den används.

Ofta finns det ingen tydlig ekonomisk fördel med dataförgiftning men det kan bidra till att sprida felaktigheter, förstärka fördomar och skada varumärken. En språkmodell som beter sig på oväntade och farliga sätt urholkar förtroendet för både tekniken och den organisation som skapade eller implementerade den.

– Det tog inte lång tid för cyberkriminella och andra som vill påverka sin omgivning att börja med dataförgiftning. De kan nu undergräva tillförlitligheten, noggrannheten och säkerheten i tjänster som används av väldigt många människor, säger Peter Graymon.

Datamanipulation ett annat hot mot generativa AI-modeller
Datamanipulation är ett annat sätt att missbruka stora språkmodeller. Det innebär att en angripare skickar meddelanden till den generativa AI-botten för att försöka manipulera den att kringgå sin instruktion eller bryta logiken i prompten. Datamanipulation kan användas för att komma åt information som inte är publik men som ett företag kopplat till sin LLM. I förlängningen kan det användas för utpressning eller försäljning. Det kan också användas för att få en LLM att uttrycka sig skadligt för företaget eller fördelaktigt för användaren.

Ett exempel på datamanipulation är när ett kanadensiskt flygbolag tvingades följa en återbetalningspolicy som skapats av en AI-driven chatbott. Detta är känt som en ”hallucination” där AI-modellen ger ett felaktigt eller missvisande svar eftersom den inte har det faktiska svaret men ändå vill ge ett.

Sammanfattningsvis kan det vara så att det största hotet mot stora språkmodeller inte kommer från avsiktliga handlingar utförda av människor utan snarare från dålig data som genereras av andra AI-modeller.

 

Relaterade Artiklar

Vi använder cookies och andra identifierare för att förbättra din upplevelse. Detta gör att vi kan säkerställa din åtkomst, analysera ditt besök på vår webbplats. Det hjälper oss att erbjuda dig ett personligt anpassat innehåll och smidig åtkomst till användbar information. Klicka på ”Jag godkänner” för att acceptera vår användning av cookies och andra identifierare eller klicka ”Mer information” för att justera dina val. Jag Godkänner Mer Information >>

-
00:00
00:00
Update Required Flash plugin
-
00:00
00:00