I takt med att allt fler Svenska organisationer inför AI-lösningar i verksamheter, brottas många med hur AI ska skyddas.
Dells cybersäkerhetsexpert Adnan Mahmood slår hål på vanliga myter och visar hur säkerhetsarbetet inte behöver göras mer komplicerat än det faktiskt är.
Experten visar hur det i många fall handlar om att bygga vidare på redan etablerade cybersäkerhetsprinciper som anpassas till AI:s specifika förutsättningar.
Här delar Dell Technologies cybersäkerhetsexpert fyra vanliga AI-myter som onödigt försvårar säkerhetsarbetet.
Myt 1: AI-system är för komplexa för att säkras
Hotbilden mot organisationer förändras snabbt. I dag använder cyberkriminella AI för att göra attacker mer avancerade och svårare att upptäcka. Det inkluderar allt från ransomware till överbelastningsattacker som slår ut system. Om ett AI-system saknar skydd kan det manipuleras så att det ger felaktiga svar eller låter angripare ta sig in med högre behörighet än de borde ha. Det gör hela systemet mer sårbart.
Men att skydda AI är fullt möjligt. Det handlar om att ta med säkerhetsperspektivet redan från start när AI-lösningen byggs, att arbeta enligt zero trust-principen där ingen får åtkomst utan att denne kontinuerligt verifieras. Det handlar också om att att ha tydliga regler för hur data får användas och lagras och att införa skydd mot specifika AI-hot som manipulerade kommandon (prompt injection) eller felaktiga svar från modellen.
Myt 2: Befintliga verktyg fungerar inte för AI
Många tror att AI kräver helt nya säkerhetslösningar. I själva verket är identitetshantering, nätverkssegmentering och dataskydd fortfarande lika relevanta. God “cyberhygien”, som regelbundna uppdateringar, åtkomstkontroller och sårbarhetshantering är fortsatt avgörande.
För AI-specifika hot kan befintliga strategier skräddarsys. Att logga och granska AI:s in- och utdata kan avslöja misstänkt aktivitet, och genom att kartlägga hur nuvarande verktyg täcker AI-arbetslaster kan man identifiera var extra funktioner behövs.

Adnan Mahmood, cybersäkerhetsexpert på Dell
Myt 3: AI-säkerhet handlar bara om att skydda data
Eftersom AI bygger på att analysera och generera stora mängder data är det lätt att tro att säkerhetsarbetet enbart handlar om dataskydd. Men hela ekosystemet måste omfattas, det gäller även modeller, API:er, system och enheter.
API:er behöver stark autentisering för att blockera obehörig åtkomst, och AI-utdata måste övervakas för att upptäcka avvikelser som kan tyda på intrång eller fel. LLM-modeller kan manipuleras via indata för att producera vilseledande eller skadliga svar, vilket kräver både tekniska skydd och tydliga policyer.
Myt 4: Agentisk AI kan ersätta mänsklig övervakning
Agentisk AI innebär att autonoma agenter kan fatta beslut på egen hand. Det kan låta som att mänsklig övervakning snart blir överflödig, men verkligheten är den motsatta. Även system med hög grad av autonomi behöver styrning för att agera etiskt, förutsägbart och i linje med mänskliga värderingar. Utan mänsklig kontroll riskerar systemen att avvika från sina mål eller uppvisa skadliga beteenden. Organisationer bör sätta tydliga gränser, använda lager av kontrollmekanismer och involvera människor i kritiska beslut.
– Jag förstår om AI-hot kan kännas både nya och skrämmande. Men sanningen är att vägen till säker AI ligger närmre än många tror. Vi behöver inte uppfinna hjulet på nytt, det handlar om att ta de metoder vi redan vet fungerar och anpassa dem till dagens risker. Då kan vi skapa trygghet utan att göra säkerhetsarbetet onödigt krångligt eller dyrt, avslutar Adnan Mahmood, cybersäkerhetsexpert på Dell.





