Al langer waarschuwt Meldpunt voor een spraakmakende nieuwe oplichtingstruc. Daarbij maken criminelen misbruik van kunstmatige intelligentie door stemmen van uw dierbaren te klonen. Door gebruik te maken van afleidende achtergrondgeluiden is de stem nauwelijks van echt te onderscheiden. Valt hier iets tegen te doen?
Nieuwste hype onder oplichters: het reproduceren van stemgeluid
Je kon erop wachten natuurlijk. Oplichters zouden vast snel komen met nieuwe oplichtingstrucs met AI, ofwel kunstmatige intelligentie. Een van de vuilste trucs is het klonen of reproduceren van stemgeluid. U kunt zomaar een telefoontje krijgen van een nepversie van uw eigen (klein)kind(eren). Op het internet slingert er altijd wel beeld- en/of geluidsmateriaal van iemand die u dierbaar is. Telefoonnummers zijn vaak ook zo te achterhalen via social media en anders zijn ze wel te koop vanwege datalekken. En op die manier wordt 1+1 = 2. En dan krijgt u een bedrieglijk echt telefoontje van ‘uw (klein)kind’… De stem is zo identiek dat u het zo zou geloven. Binnen de kortste keren maakt u geld over naar een crimineel.
Ook de politie waarschuwt voor de truc met het klonen van stemmen
In mei 2023 als Meldpunt al aandacht besteedt aan dit onverkwikkelijke fenomeen, lijkt het nog ver weg te zijn. Maar in de Verenigde Staten zijn dan al heel wat ouders erin getrapt dat hun (klein)kind(eren) in nood verkeerde(n). Zij verloren zo duizenden dollars. Het is maar een kwestie van tijd dat deze vorm van oplichting ook ons land bereikt. De politie, die menskracht tekortkomt, waarschuwt er daarom al volop voor. We zijn alweer een stapje verder dan oplichten via valse WhatsApp-berichten. WhatsApp-fraude is al bijna ‘ouderwets’.
Succes van klonen valt of staat bij het creëren van paniek bij de slachtoffers
Bij ons eerdere artikel hierover vertelt ethisch hacker Sijmen Ruwhof dat volwaardige gesprekken nog lastig zouden zijn te imiteren met AI. Maar dat zou ook weleens snel kunnen veranderen. De techniek staat immers voor niets, dus ook bij het klonen. Naast de aanvankelijk talen Engels en Spaans, worden steeds meer talen bewerkt door het AI-programma dus waarom ook niet onze Nederlandse taal?
Ruwhof stipt aan dat de paniek die oplichters creëren bij hun slachtoffers, omdat hun dierbaren in gevaar zijn, genoeg is om erin te kunnen trappen. Het slagen van de oplichtingstruc valt of staat hierbij. De politie voegt daar nu aan toe dat met het toevoegen van achtergrondgeluiden, de slachtoffers nog eens extra afgeleid worden. Probeer u dan maar eens rustig te houden.
Spreek een codewoord af met uw familieleden
In genoemd artikel staat ook beschreven wat u kunt doen als u zo’n telefoontje niet vertrouwt. Kort samengevat, komt het erop neer dat het soms te toevallig is allemaal. Voelt u aan dat er iets niet klopt? Bel dan eens terug via WhatsApp, want zo’n account kan geen crimineel zonder slag of stoot zomaar overnemen. Doe dat liefst videobellend. De belangrijkste tip onderstreept de politie nogmaals: spreek een codewoord af met uw familieleden.
Pas als dat ene woord is uitgesproken, kunt u erop vertrouwen dat u echt met uw (klein)kind spreekt. Dat het überhaupt noodzakelijk is om zo met uw dierbaren te moeten communiceren, zegt al genoeg hoe ernstig het is. Ook de Fraudehelpdesk onderschrijft volmondig de ernst van de situatie.
Behalve het codewoord, kunt u ook het gesprek met persoonlijke vragen aan uw ‘(klein)kind’ inkleuren. Daar weten oplichters, die met vooraf opgestelde teksten werken, natuurlijk de antwoorden niet op. Zo kunnen ze al snel ontmaskerd worden. Maar dat kan door zenuwen en blinde paniek misgaan aan uw kant. Want een kat in nood maakt rare sprongen.
Wees voorzichtig met internet
Een extra waarschuwing betreft het voorkomen van dit soort gesprekken. Kijk goed uit wat voor sporen u achterlaat op het internet. Bijna alles is te herleiden via social media. Dat gaat van telefoonnummers, tot beeld- en filmmateriaal. Criminelen zien zo alle (familie)verbanden.