2025-07-03

Första skadliga koden designad för att undvika AI-försvar är här

Företaget kallar detta framväxande hot för AI Evasion, en ny kategori av angrepp som väntas bli allt vanligare i takt med att generativ AI integreras i säkerhetsarbetet.

Check Point Software har identifierat den första dokumenterade skadliga koden som försöker kringgå AI-baserade säkerhetsverktyg genom så kallad prompt injection. Det är en taktik där angriparen försöker prata direkt till AI-modellen i syfte att få den att klassificera skadlig kod som ofarlig.

I samband med att AI och språkmodeller blir en allt viktigare del av moderna säkerhetslösningar, utvecklas också nya sätt att lura dessa system. Det aktuella exemplet upptäcktes i juni 2025 och tillämpade flera kända metoder för att undvika bli upptäckt. Den stack dock ut genom en bit kod som var formulerad som en direkt instruktion till AI-systemet, i hopp om att få det att ignorera skadligt innehåll.

Den skadliga koden lyckades inte lura företagets AI-drivna analysverktyg. Modellen identifierade attackförsöket och flaggade filen korrekt som skadlig. Misslyckade attacker visar dock tydligt vart hotlandskapet är på väg och varför det är avgörande att bygga försvar som kan stå emot manipulation av AI-system.

– Det här är ett tydligt exempel på hur hotbilden förändras. Vi ser början på en ny typ av attack där AI-modellen i sig blir måltavlan. Det här är en väckarklocka för organisationer att rusta upp sina säkerhetssystem, säger Fredrik Sandström, säkerhetsexpert på Check Point Software.

Företaget kallar detta framväxande hot för AI Evasion, en ny kategori av angrepp som väntas bli allt vanligare i takt med att generativ AI integreras i säkerhetsarbetet.


Taggar


Leverantörer
Ändra marknad
Till toppen av sidan
Stäng