Deepfakes kan användas för att få en person att lämna ut information eller göra något som gynnar angriparen. Enligt Bar Yochay på Reblaze är deepfakes som imiterar en persons röst – och nästan omöjlig att skilja från den äkta rösten – ett växande problem. Redan 2019 lurads en anställd till att skicka pengar till ett utländskt bankkonto efter att en fejkad röst tillhörande företagets vd använts, skriver Computer Sweden.
– Meddelandet lämnades i den anställdes röstbrevlåda, som helt enkelt lydde order och skickade 243 000 dollar till angriparens konto, säger Bar Yochay.
George Gerchow, it-säkerhetschef på Sumo Locic, har också sett exempel på röstinspelningar med deep fakes. Och han tror att det bara är en tidsfråga innan vi även kommer att se videoinspelningar.
– Utbildning, uppmärksamhet, egenrapportering och transparens kommer vara det enda sättet att skala upp ett försvar mot dessa attacker. Säkerhet måste vara lättillgänglig och givetvis måste man logga allt, säger George Gerchow.