2021-08-09

Hackare kan förgifta maskininlärnings-modeller

Angripare försöker påverka och snedvrida maskininlärningsmodeller för användarinteraktion som används av till exempel Twitter, Facebook, Netflix, Google och Amazon.

Olika modeller för maskininlärning kan ”förgiftas” genom att förorena modellens träningsdata. Det är en slags integritetsattack eftersom manipulationen av data påverkar förmågan att leverera korrekta prognoser.

– Manipulation av algoritmer som sådant kan användas för alla möjliga ändamål inklusive desinformation, nätfiske, påverkansoperationer, marknadsföring av oönskat innehåll, eller för att misskreditera människor eller varumärken. Du kan till och med betala någon för att manipulera autokompletteringen i Googles sökfält, säger Andrew Patel, analytiker och expert på artificiell intelligens på it-säkerhetsföretaget F-Secure, enligt Computer Sweden.

Maskininlärning har exploderat på senare tid och det drivs inte minst av molntjänster. Kunder fattar beslut utifrån resultatet av den analys som görs vid maskininlärningen. Men vad händer om datan är ”förgiftad”? Säkerhetsexperter varnar nu för detta.

Angripare försöker påverka och snedvrida maskininlärningsmodeller för användarinteraktion som används av till exempel Twitter, Facebook, Netflix, Google och Amazon, skriver Computer Sweden. Det går även att köpa tjänster för att utöva manipulationer via illegala marknadsplatser.

– I teorin, om en motståndare har kunskap om hur en specifik användare har interagerat med ett system, så kan motståndaren skapa en attack som ger användaren rekommendationer för innehåll på Youtube, skadliga appar eller för att följa falska konton på sociala medier, säger Andrew Patel.


Taggar


Leverantörer
Ändra marknad
Till toppen av sidan
Stäng