AI: Bekämpa deepfakes med transparens

AI: Bekämpa deepfakes med transparens

Publicerat av: Redaktionen

Strax efter invasionen av Ukraina 2022 började lokala fotografer dokumentera förstörelsen av kulturella platser för att hjälpa till att bevara landets kulturarv och samla in pengar för att kunna återställa dem.

Men spridning av fejkade krigsrelaterade bilder orsakade ett problem: människor kunde inte vara säkra på vilka bilder som var äkta.

Detta tvingade fotografer att använda nya verktyg för att påvisa att deras bilder inte var ”deepfakes”, det vill säga AI-genererat innehåll som ser ut som riktiga människor, platser eller händelser på ett icke-autentiskt sätt. Prototypen ledde till skapande av Microsofts verktyg Content Integrity Suite, utvecklat för att skapa transparens för innehåll online.

Under 2024 uppskattas rekordhöga två miljarder väljare gå till val runt om i världen. Flera politiska valrörelser och mediaorganisationer använder nu verktygen i deras arbete för att förbättra transparensen, skapa tillit och avvärja desinformation. Att använda ansvarsfull AI för skapa ekosystem av pålitlig information är ett sätt för Microsoft att bekämpa deepfakes.

AI: Bekämpa deepfakes med transparens”Konsekvenserna av deepfakes kan vara oerhört allvarliga. De är en typ av kognitivt dataintrång som förändrar förhållandet mellan vad som är verkligt och uppfattningen av sin omvärld”, säger Andrew Jenks, Microsofts chef för Mediaursprung.

Jenks sitter med i styrelsen Coalition for Content Provenance and Authenticity (CP2A), en organisation som Microsoft var med och grundade för att utveckla en öppen teknisk standard för hur digitalt innehåll, även AI-genererat, ska märkas med ursprung, källa och historik.

Manipulerat innehåll är inte en ny företeelse och ibland är det uppenbar satir eller komik. Men intåget av generativ-AI gör det lättare för människor med suspekta motiv att sprida desinformation som kan leda till bedrägeri, identitetsstölder, valpåverkan och andra skador. Detaljer som attribut och kontext förvinner ofta när innehållet delas vilket gör det svårare för människor att veta vad de kan lita på.

”Att veta innehållets ursprung och historik kan hjälpa människor att vara informerade och mindre sårbara för bedrägeri”, säger Andrew Jenks.

Microsofts verktyg tillåter kreatörer och publicister att addera Content Credentials till deras arbete eller certifiera metadata med detaljer som vem som gjort innehållet, när det gjorts och huruvida AI använts. För nuvarande finns verktyget endast i stängd förhandsversion. Som en del av C2PA:s tekniska standard bifogas Content Credentials till foto, video eller kryptografiskt ljud så att efterföljande redigering eller manipulering enklare kan upptäckas.

Eftersom metadata är osynlig tillhandahåller även Microsoft ett offentligt verktyg för att kontrollera integritet och ett tillägg för webbläsare så att användare kan söka autentiseringsuppgifter och granska informationens härkomst. Människor kan även leta efter en ikon för Content Credentials på bilder och videos på plattformar som LinkedIn.

”Content Credentials erbjuder ett viktigt lager av transparens, oavsett om AI varit involverat, vilket hjälper människor att fatta bättre informerade beslut om innehållet de delar eller konsumerar online. I takt med att det blir lättare att identifiera innehållets källa och historik kan människor bli mer skeptiska till material som saknar specifik information om ursprung”, säger Andrew Jenks.

För att avslöja om AI använts använder Microsoft verktyget Content Credentials i sina egna bildgenererande AI-produkter Designer Copilot, Paint och utvalda modeller i tjänsten Azure OpenAI. Andra ansvarsfulla AI-kontroller för att avskräcka från deepfake-missbruk inkluderar att sudda ut ansikten på personer på foton som laddats upp i Copilot.

”AI-genererad eller modifierad media kan vara användbar i flera sammanhang, från utbildning till tillgänglighet, men det bör finnas information om källans innehåll och hur det hamnat där så att människor kan förstå var det kommer ifrån, i vilken utsträckning det ändrats och om AI använts. Vårt tillvägagångssätt är inte att tala om för konsumenterna vilket innehåll som är tillförlitligt, utan att ge dem ett sammanhang för att fatta välgrundade beslut”, säger Jessica Young, senior programchef för vetenskaps- och teknikpolicy för Microsoft Chief Scientific och Eric Horvitz, expert på mediernas proveniens.

Samtidigt menar Andrew Jenks att Content Credentials kan bidra till att etablera tillförlitlighet i allt från reklam till dejtingsidor. Som en del av löftet att motverka vilseledande användning av AI i årets valkampanjer erbjuder Microsoft den stängda förhandsversionen av proveniensverktyg först till kampanjer, valorganisationer och journalister. Företaget har också skapat en sajt för kandidater där de kan rapportera deepfakes som förekommer på LinkedIn, Xbox eller i andra av Microsofts konsumenttjänster. Microsoft har även laserat en fond på två miljoner dollar tillsammans med OpenAI för att öka AI-utbildning bland väljare och sårbara samhällen.

Microsoft har drivit på för informationsintegritet genom att vara med och grunda C2PA, som nu har nästan 200 medlemmar och utvecklar proveniensteknik tillsammans med journalister och stöder demokratiska processer. Inget enskilt företag eller tillvägagångssätt kan ta itu med frågan på egen hand, därför förespråkar organisationen även relevant lagstiftning och undersöker ytterligare tekniker för att skapa transparens. Arbetet integrerar expertis inom forskning, teknik, politik och desinformation, allt i syfte att stärka informationssystem i ett komplext landskap av olika medieformat och plattformar.

”I och med att media utvecklas fortsätter vi att utveckla och utforska för att hitta de mest robusta lösningarna inom generativ AI i nya format som video. Dessutom delar vi de bästa tipsen och verktygen för ett bredare ekosystem”, säger Andrew Young.

Lär dig mer om Microsofts arbete med Ansvarsfull AI.

Så här upptäcker du deepfakes

Känn till och förstå källan: Leta efter tillskrivning, undertexter och innehållsuppgifter. Undersök bilder genom en visuell sökning. Fråga dig själv om källan är ansedd och fortsätt med försiktighet om det inte finns någon tydlig källa.
Tänk på avsikten: Är innehållet avsett att underhålla, informera eller övertyga dig? Att analysera syftet kan ge dig en bättre känsla för om någon försöker luras.
Leta efter inkonsekvenser och avvikelser: AI-genererade bilder kan ha felstavningar, suddiga siffror, omaka kläder, inkonsekvent belysning och udda texturer.
Testa dina färdigheter i AI-detektering: Gör testet Real or Not för att se om du kan skilja AI-genererade bilder från riktiga.

 

 

 

Relaterade Artiklar

Vi använder cookies och andra identifierare för att förbättra din upplevelse. Detta gör att vi kan säkerställa din åtkomst, analysera ditt besök på vår webbplats. Det hjälper oss att erbjuda dig ett personligt anpassat innehåll och smidig åtkomst till användbar information. Klicka på ”Jag godkänner” för att acceptera vår användning av cookies och andra identifierare eller klicka ”Mer information” för att justera dina val. Jag Godkänner Mer Information >>

-
00:00
00:00
Update Required Flash plugin
-
00:00
00:00