Pas op voor oplichting met AI-deepfake: 'Ik dacht dat ik met mijn kleinzoon belde'

Tech
woensdag, 29 maart 2023 om 10:57
anp 412052501
De stormachtige ontwikkeling van AI-software biedt veel nieuwe mogelijkheden en uiteraard gaan ook criminelen met de nieuwe technologie aan de haal. Met behulp van gerichte deepfake-video's en spraakberichten kun jij binnenkort ook slachtoffer worden van oplichting.
Het is al lang niet meer zo dat internetoplichters een nepgouden kroon opzetten en zich in steenkolenengels in een mail voorstellen aan jou als de prins van Nigeria. Je hoeft maar enkele uitgesproken zinnen in AI-deepfake-software te laden om iemands stem volledig na te maken en alles te laten zeggen wat je maar wilt.
Zo kreeg de Canadese Ruth Card een telefoontje van haar kleinkind, althans dat dacht ze. De jongen zei dat hij was opgepakt zonder portemonnee of smartphone en geld nodig had om de cel op borgtocht uit te mogen. “Het was een gevoel van angst dat me overmande. Ik wilde hem meteen helpen”, zegt Card tegen The Washington Post.
Card en haar man gingen naar hun bank en haalden 3000 Canadese dollars van hun rekening. Ze wilden hetzelfde doen bij een andere bank, maar daar greep de manager in. Eerder op de dag was hetzelfde gebeurd en ook daar bleek het te gaan om een deepfake-oplichter. “We zijn totaal overrompeld, ik was ervan overtuigd dat ik met mijn kleinzoon belde”, vertelt de 73-jarige vrouw.
Hightech-oplichters richten zich met hun psychologische wapens zoals altijd op de meest kwetsbaren in de samenleving. De vloedgolf van deepfake-audio en -video die eraan zit te komen, zal de wereld veranderen. Hoe weten we nog of iets echt is of nep? Misschien is het tijd om een codewoord af te spreken met je familie, voor noodgevallen.